国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

論文筆記:Large Language Models as Urban Residents:An LLM Agent Framework for Personal Mobility Generati

這篇具有很好參考價(jià)值的文章主要介紹了論文筆記:Large Language Models as Urban Residents:An LLM Agent Framework for Personal Mobility Generati。希望對(duì)大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請(qǐng)大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問(wèn)。

1 intro

使用LMM生成活動(dòng)軌跡的開(kāi)創(chuàng)性工作

1.1 生成活動(dòng)軌跡的意義

  • 理解活動(dòng)模式(mobility pattern)——>能夠靈活模擬城市移動(dòng)性
  • 盡管個(gè)體活動(dòng)軌跡數(shù)據(jù)由于通信技術(shù)的進(jìn)步而豐富,但其實(shí)際使用往往受到隱私顧慮的限制
    • ——>生成的數(shù)據(jù)可以提供一種可行的替代方案,提供了效用和隱私之間的平衡

1.2 之前生成活動(dòng)軌跡的方法的不足

  • 之前有很多數(shù)據(jù)驅(qū)動(dòng)的基于學(xué)習(xí)的方法
    • 生成的數(shù)據(jù)僅從數(shù)據(jù)分布的角度而非語(yǔ)義上模仿真實(shí)世界的數(shù)據(jù),使它們?cè)谀M或解釋新穎或未預(yù)見(jiàn)到的具有顯著不同分布的場(chǎng)景(例如,大流行疾?。?span style="color:#fe2c24;">的活動(dòng)中效果較差

1.3 本文思路

  • 使用大模型生成活動(dòng)軌跡

論文筆記:Large Language Models as Urban Residents:An LLM Agent Framework for Personal Mobility Generati,語(yǔ)言模型,人工智能,自然語(yǔ)言處理

這個(gè)圖沒(méi)有說(shuō)清楚,我個(gè)人的感覺(jué)是,LLM得到plan和reason的部分,然后根據(jù)plan里面的semantic activity(POI),對(duì)應(yīng)到location coordinate上

1.3.1? 大模型相比于之前模型的優(yōu)勢(shì)

  • 語(yǔ)義可解釋性
    • 與之前主要依賴于結(jié)構(gòu)化數(shù)據(jù)(基于GPS坐標(biāo)的軌跡數(shù)據(jù))不同,LLMs在解釋語(yǔ)義數(shù)據(jù)(例如,活動(dòng)軌跡數(shù)據(jù))方面展現(xiàn)出了專長(zhǎng)
      • ——>可以將多樣化數(shù)據(jù)源納入生成過(guò)程
      • ——>增強(qiáng)了模型理解和與復(fù)雜、真實(shí)世界場(chǎng)景以更細(xì)膩和有效的方式互動(dòng)的能力
  • 模型通用性
    • 之前的模型在未見(jiàn)場(chǎng)景下的生成能力有限
    • LLMs在處理未見(jiàn)任務(wù)上顯示出了顯著的通用性,尤其是基于可用信息進(jìn)行推理和決策的能力

1.3.2 挑戰(zhàn)與解決方法

  • RQ 1: LLM如何有效地與關(guān)于日常個(gè)人活動(dòng)的富語(yǔ)義數(shù)據(jù)對(duì)齊?
  • RQ 2: 使用LLM實(shí)現(xiàn)可靠且有意義的活動(dòng)生成的有效策略是什么?
  • RQ 3: LLM在增強(qiáng)城市移動(dòng)性方面的潛在應(yīng)用是什么?

1.3.3 論文的兩階段

  • 自洽活動(dòng)模式識(shí)別
    • 提取并評(píng)估歷史數(shù)據(jù)和語(yǔ)義分析中的活動(dòng)模式
    • 使用LLM代理生成多樣化和個(gè)性化的活動(dòng)場(chǎng)景
  • 動(dòng)機(jī)驅(qū)動(dòng)的活動(dòng)生成
    • 開(kāi)發(fā)了兩種可解釋的檢索增強(qiáng)策略
      • 結(jié)合第一階段識(shí)別的模式,指導(dǎo)LLM代理總結(jié)出動(dòng)機(jī),如不斷變化的興趣或情境需求

2 問(wèn)題表述

  • 研究城市背景下,個(gè)體每日活動(dòng)軌跡的生成,每個(gè)軌跡代表一個(gè)人一整天的活動(dòng)
    • 每個(gè)個(gè)體的活動(dòng)表示為一個(gè)時(shí)間有序的地點(diǎn)選擇序列{(l0, t0),(l1, t1), ..., (ln, tn)}
      • (l, t)表示個(gè)體在時(shí)間t的位置l

3? 方法

論文提出了LLMob

論文筆記:Large Language Models as Urban Residents:An LLM Agent Framework for Personal Mobility Generati,語(yǔ)言模型,人工智能,自然語(yǔ)言處理

3.0 LLMob的假設(shè)

  • LLMob基于一個(gè)假設(shè),即個(gè)體的活動(dòng)主要受到兩個(gè)主要因素的影響:
    • 習(xí)慣性活動(dòng)模式
      • 典型的移動(dòng)行為和偏好
      • 常規(guī)的旅行和地點(diǎn)選擇
    • 當(dāng)前動(dòng)機(jī)
      • 個(gè)體在任何給定時(shí)刻決策的動(dòng)態(tài)和情境因素
      • 捕捉和預(yù)測(cè)移動(dòng)性模式的短期變化

3.1 LLMob三部分

  • 環(huán)境
    • 環(huán)境包含從現(xiàn)實(shí)世界數(shù)據(jù)中收集的信息,代理通過(guò)識(shí)別習(xí)慣性活動(dòng)模式和生成軌跡來(lái)行動(dòng)
  • 記憶
    • 需要提示給LLM以引發(fā)下一步行動(dòng)的過(guò)去行動(dòng)
    • 在LLMob中,記憶指的是代理輸出的活動(dòng)模式
  • 規(guī)劃
    • 制定計(jì)劃或反思過(guò)去的行動(dòng)以處理復(fù)雜任務(wù)

3.2 第一階段——從歷史數(shù)據(jù)中識(shí)別活動(dòng)模式

論文筆記:Large Language Models as Urban Residents:An LLM Agent Framework for Personal Mobility Generati,語(yǔ)言模型,人工智能,自然語(yǔ)言處理

論文筆記:Large Language Models as Urban Residents:An LLM Agent Framework for Personal Mobility Generati,語(yǔ)言模型,人工智能,自然語(yǔ)言處理

論文筆記:Large Language Models as Urban Residents:An LLM Agent Framework for Personal Mobility Generati,語(yǔ)言模型,人工智能,自然語(yǔ)言處理

3.3 第二階段——?jiǎng)訖C(jī)的檢索 & 動(dòng)機(jī)和活動(dòng)模式的整合

論文筆記:Large Language Models as Urban Residents:An LLM Agent Framework for Personal Mobility Generati,語(yǔ)言模型,人工智能,自然語(yǔ)言處理

論文筆記:Large Language Models as Urban Residents:An LLM Agent Framework for Personal Mobility Generati,語(yǔ)言模型,人工智能,自然語(yǔ)言處理

3.4?兩種RAG的檢索

3.4.1?基于進(jìn)化的動(dòng)機(jī)檢索

  • 個(gè)體在任何給定日子的動(dòng)機(jī)受到其在前幾天的興趣和優(yōu)先級(jí)的影響
    • 新的動(dòng)機(jī)通常是從現(xiàn)有動(dòng)機(jī)中演化而來(lái)

論文筆記:Large Language Models as Urban Residents:An LLM Agent Framework for Personal Mobility Generati,語(yǔ)言模型,人工智能,自然語(yǔ)言處理

論文筆記:Large Language Models as Urban Residents:An LLM Agent Framework for Personal Mobility Generati,語(yǔ)言模型,人工智能,自然語(yǔ)言處理

3.4.2?基于學(xué)習(xí)的動(dòng)機(jī)檢索

  • 假設(shè)個(gè)體傾向于在其日常活動(dòng)中建立例行公事,即使具體地點(diǎn)可能有所不同,但也由一致的動(dòng)機(jī)指導(dǎo)
    • 例如,如果有人在工作日的早晨經(jīng)常訪問(wèn)漢堡店,這種行為可能表明了對(duì)快速早餐的動(dòng)機(jī)
  • 對(duì)于計(jì)劃活動(dòng)的每個(gè)新日期,唯一可用的信息是日期本身
    • 首先制定過(guò)去日期dp和當(dāng)前日期dc之間的相對(duì)時(shí)間特征
      • 這個(gè)特征捕獲了各種方面,如這兩個(gè)日期之間的間隔以及它們是否屬于同一個(gè)月
    • 訓(xùn)練一個(gè)分?jǐn)?shù)估計(jì)器來(lái)評(píng)估任意兩個(gè)日期之間的相似性
      • 由于缺乏監(jiān)督信號(hào),論文采用對(duì)比學(xué)習(xí)來(lái)訓(xùn)練fθ
        • 對(duì)于用戶的每個(gè)軌跡掃描她的其他軌跡,并根據(jù)預(yù)定義的相似性分?jǐn)?shù)識(shí)別相似(正面)和不相似(負(fù)面)的日期
          • 論文筆記:Large Language Models as Urban Residents:An LLM Agent Framework for Personal Mobility Generati,語(yǔ)言模型,人工智能,自然語(yǔ)言處理
        • 對(duì)于每個(gè)日期d,根據(jù)相似性分?jǐn)?shù)生成一個(gè)正面對(duì)(d, d+)和k個(gè)負(fù)面對(duì)(d, d-1),...,(d, d-k)并計(jì)算zd,d+,zd,d-1,...,zd,d-k
        • 將正面和負(fù)面對(duì)輸入fθ(·)形成:
          • 論文筆記:Large Language Models as Urban Residents:An LLM Agent Framework for Personal Mobility Generati,語(yǔ)言模型,人工智能,自然語(yǔ)言處理
        • 采用InfoNCE作為對(duì)比損失函數(shù):
          • 論文筆記:Large Language Models as Urban Residents:An LLM Agent Framework for Personal Mobility Generati,語(yǔ)言模型,人工智能,自然語(yǔ)言處理
  • ——>能夠檢索最相似的歷史數(shù)據(jù),從而讓LLM生成那個(gè)時(shí)期流行的動(dòng)機(jī)摘要
  • ——>推斷出與查詢?nèi)掌谙嚓P(guān)的動(dòng)機(jī),為L(zhǎng)LM生成新的活動(dòng)軌跡提供基礎(chǔ)

4 實(shí)驗(yàn)

4.1 數(shù)據(jù)集

  • 在東京的個(gè)人活動(dòng)軌跡數(shù)據(jù)集上調(diào)查并驗(yàn)證LLMob。
    • 這個(gè)數(shù)據(jù)集通過(guò)Twitter API和Foursquare API獲得,覆蓋從2019年1月到2022年12月的數(shù)據(jù)。
    • 這個(gè)數(shù)據(jù)集的時(shí)間框架富有洞察力,因?yàn)樗蹲搅薈OVID-19大流行之前的典型日常生活(即,正常時(shí)期)以及大流行期間的變化(即,異常時(shí)期)。
  • 隨機(jī)選擇了100名用戶,根據(jù)可用軌跡的數(shù)量,以10分鐘間隔模擬他們的個(gè)人活動(dòng)軌跡。\
    • 論文筆記:Large Language Models as Urban Residents:An LLM Agent Framework for Personal Mobility Generati,語(yǔ)言模型,人工智能,自然語(yǔ)言處理
  • 利用Foursquare中的類別分類來(lái)確定每個(gè)地點(diǎn)的活動(dòng)類別。
  • 使用10個(gè)候選人物角色作為后續(xù)模式生成的先驗(yàn)

論文筆記:Large Language Models as Urban Residents:An LLM Agent Framework for Personal Mobility Generati,語(yǔ)言模型,人工智能,自然語(yǔ)言處理

4.2 指標(biāo)

  • 步長(zhǎng)距離(SD)——軌跡上兩個(gè)連續(xù)位置之間的距離
  • 步長(zhǎng)間隔(SI)——軌跡上兩個(gè)連續(xù)位置之間的時(shí)間間隔
  • ST-ACT——每條軌跡的空間-時(shí)間活動(dòng)分布
  • ST-LOC——每條軌跡內(nèi)訪問(wèn)地點(diǎn)的空間-時(shí)間分布,包括地理坐標(biāo)和時(shí)間戳
  • 琴聲-香農(nóng)散度(JSD)——量化生成軌跡與實(shí)際軌跡之間的差異。較低的JSD更受青睞。

4.3 方法

  • 采用GPT-3.5-Turbo-0613作為L(zhǎng)LM核心
    • 使用“LLMob-L”來(lái)表示整合了基于學(xué)習(xí)的動(dòng)機(jī)檢索方案的框架
    • 用“LLMob-E”來(lái)代表采用基于進(jìn)化的動(dòng)機(jī)檢索方案
  • ablation study中的P和M分別是pattern和motivation

4.4 結(jié)果

4.4.1 正常情況/非正常情況下生成軌跡的結(jié)果比較

論文筆記:Large Language Models as Urban Residents:An LLM Agent Framework for Personal Mobility Generati,語(yǔ)言模型,人工智能,自然語(yǔ)言處理

論文筆記:Large Language Models as Urban Residents:An LLM Agent Framework for Personal Mobility Generati,語(yǔ)言模型,人工智能,自然語(yǔ)言處理

4.4.2 是否帶“pandemic” prompt對(duì)于結(jié)果的影響

論文筆記:Large Language Models as Urban Residents:An LLM Agent Framework for Personal Mobility Generati,語(yǔ)言模型,人工智能,自然語(yǔ)言處理

論文筆記:Large Language Models as Urban Residents:An LLM Agent Framework for Personal Mobility Generati,語(yǔ)言模型,人工智能,自然語(yǔ)言處理文章來(lái)源地址http://www.zghlxwxcb.cn/news/detail-838426.html

到了這里,關(guān)于論文筆記:Large Language Models as Urban Residents:An LLM Agent Framework for Personal Mobility Generati的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來(lái)自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場(chǎng)。本站僅提供信息存儲(chǔ)空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請(qǐng)注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請(qǐng)點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • 《LORA: LOW-RANK ADAPTATION OF LARGE LANGUAGE MODELS》論文筆記

    《LORA: LOW-RANK ADAPTATION OF LARGE LANGUAGE MODELS》論文筆記

    全量參數(shù)微調(diào)在LLM背景下由“不方便”演變?yōu)椤安豢尚衸高昂成本”,基于“收斂的模型參數(shù)可以壓縮到低維空間”的假設(shè): the learned over-parametrized models in fact reside on a low intrinsic dimension. 作者提出LORA(Low Rank Adaptation)方法,其本質(zhì)如下圖所示: h = W x h = Wx h = W x ,其中 x x

    2024年02月13日
    瀏覽(25)
  • Unifying Large Language Models and Knowledge Graphs: A Roadmap 論文閱讀筆記

    Unifying Large Language Models and Knowledge Graphs: A Roadmap 論文閱讀筆記

    NLP, LLM, Generative Pre-training, KGs, Roadmap, Bidirectional Reasoning LLMs are black models and can\\\'t capture and access factual knowledge. KGs are structured knowledge models that explicitly store rich factual knowledge. The combinations of KGs and LLMs have three frameworks,? KG-enhanced LLMs, pre-training and inference stages to provide external knowl

    2024年02月19日
    瀏覽(22)
  • 論文筆記:Evaluating the Performance of Large Language Models on GAOKAO Benchmark

    論文筆記:Evaluating the Performance of Large Language Models on GAOKAO Benchmark

    采用zero-shot prompting的方式,將試題轉(zhuǎn)化為ChatGPT的輸入 對(duì)于數(shù)學(xué)題,將公式轉(zhuǎn)化為latex輸入? 主觀題由專業(yè)教師打分 2010~2022年,一共13年間的全國(guó)A卷和全國(guó)B卷

    2024年03月15日
    瀏覽(26)
  • 論文筆記:A Simple and Effective Pruning Approach for Large Language Models

    論文筆記:A Simple and Effective Pruning Approach for Large Language Models

    iclr 2024 reviewer 評(píng)分 5668 大模型網(wǎng)絡(luò)剪枝的paper 在努力保持性能的同時(shí),舍棄網(wǎng)絡(luò)權(quán)重的一個(gè)子集 現(xiàn)有方法 要么需要重新訓(xùn)練 這對(duì)于十億級(jí)別的LLMs來(lái)說(shuō)往往不現(xiàn)實(shí) 要么需要解決依賴于二階信息的權(quán)重重建問(wèn)題 這同樣可能帶來(lái)高昂的計(jì)算成本 ——引入了一種新穎、簡(jiǎn)單且有

    2024年04月17日
    瀏覽(27)
  • [論文閱讀筆記77]LoRA:Low-Rank Adaptation of Large Language Models

    [論文閱讀筆記77]LoRA:Low-Rank Adaptation of Large Language Models

    題目 論文作者與單位 來(lái)源 年份 LoRA: Low-Rank Adaptation of Large Language Models microsoft International Conference on Learning Representations 2021 524 Citations 論文鏈接:https://arxiv.org/pdf/2106.09685.pdf 論文代碼:https://github.com/microsoft/LoRA 研究主題 問(wèn)題背景 核心方法流程 亮點(diǎn) 數(shù)據(jù)集 結(jié)論 論文類型 關(guān)

    2024年02月06日
    瀏覽(23)
  • 論文筆記:Time-LLM: Time Series Forecasting by Reprogramming Large Language Models

    論文筆記:Time-LLM: Time Series Forecasting by Reprogramming Large Language Models

    iclr 2024 reviewer 評(píng)分 3888 提出了 Time-LLM, 是一個(gè)通用的大模型重編程(LLM Reprogramming)框架 將 LLM 輕松用于一般時(shí)間序列預(yù)測(cè),而無(wú)需對(duì)大語(yǔ)言模型本身做任何訓(xùn)練 為什么需要時(shí)序數(shù)據(jù)和文本數(shù)據(jù)對(duì)齊:時(shí)序數(shù)據(jù)和文本數(shù)據(jù)在表達(dá)方式上存在顯著差異,兩者屬于不同的模態(tài)。

    2024年04月28日
    瀏覽(26)
  • [論文閱讀筆記](méi) TRACE: A Comprehensive Benchmark for Continual Learning In Large Language Models

    [論文閱讀筆記](méi) TRACE: A Comprehensive Benchmark for Continual Learning In Large Language Models

    TRACE: A Comprehensive Benchmark for Continual Learning In Large Language Models arXiv2023 復(fù)旦大學(xué) Benchmark、Continual Learing、LLMs 已經(jīng)對(duì)齊過(guò)的大模型 (Aligned LLMs )能力很強(qiáng),但持續(xù)學(xué)習(xí)能力缺乏關(guān)注; 目前CL的benchmark對(duì)于頂尖的LLMs來(lái)說(shuō)過(guò)于簡(jiǎn)單,并且在指令微調(diào)存在model的potential exposure。(這里的

    2024年01月18日
    瀏覽(32)
  • 【論文筆記】A Survey of Large Language Models in Medicine - Progress, Application, and Challenges

    【論文筆記】A Survey of Large Language Models in Medicine - Progress, Application, and Challenges

    將LLMs應(yīng)用于醫(yī)學(xué),以協(xié)助醫(yī)生和病人護(hù)理,成為人工智能和臨床醫(yī)學(xué)領(lǐng)域的一個(gè)有前景的研究方向。為此, 本綜述提供了醫(yī)學(xué)中LLMs當(dāng)前進(jìn)展、應(yīng)用和面臨挑戰(zhàn)的全面概述 。 具體來(lái)說(shuō),旨在回答以下問(wèn)題: 1)什么是LLMs,如何構(gòu)建醫(yī)學(xué)LLMs? 2)醫(yī)學(xué)LLMs的下游表現(xiàn)如何? 3)

    2024年02月03日
    瀏覽(36)
  • 【論文閱讀筆記】Würstchen: AN EFFICIENT ARCHITECTURE FOR LARGE-SCALETEXT-TO-IMAGE DIFFUSION MODELS

    【論文閱讀筆記】Würstchen: AN EFFICIENT ARCHITECTURE FOR LARGE-SCALETEXT-TO-IMAGE DIFFUSION MODELS

    這篇文章提出了一個(gè)高效的用于文本到圖像生成模型架構(gòu),整體思路比較直白,在不損失圖像生成質(zhì)量的情況下,相比于現(xiàn)有T2I模型(SD1.4,SD2.1等)大大節(jié)約了成本。附錄部分給了一些有趣的東西,比如FID的魯棒性 整篇文章還有點(diǎn)疑惑,比如階段B的訓(xùn)練,使用的模型;節(jié)省

    2024年02月21日
    瀏覽(25)
  • 論文閱讀 A Survey of Large Language Models 3

    論文閱讀 A Survey of Large Language Models 3

    為了檢驗(yàn)LLM的有效性和優(yōu)越性,大量的任務(wù)和基準(zhǔn)被用來(lái)進(jìn)行實(shí)證評(píng)估和分析。我們首先介紹了LLM語(yǔ)言生成和理解的三種基本評(píng)估任務(wù),然后介紹了LLM具有更復(fù)雜設(shè)置或目標(biāo)的幾個(gè)高級(jí)任務(wù),最后討論了現(xiàn)有的基準(zhǔn)和實(shí)證分析。 在這一部分中,我們主要關(guān)注LLM的三種評(píng)估任務(wù)

    2024年02月13日
    瀏覽(24)

覺(jué)得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請(qǐng)作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包