国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

LARGE LANGUAGE MODEL AS AUTONOMOUS DECISION MAKER

這篇具有很好參考價(jià)值的文章主要介紹了LARGE LANGUAGE MODEL AS AUTONOMOUS DECISION MAKER。希望對(duì)大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問。

本文是LLM系列文章,針對(duì)《LARGE LANGUAGE MODEL AS AUTONOMOUS DECISION MAKER》的翻譯。

摘要

盡管大型語言模型(LLM)表現(xiàn)出令人印象深刻的語言理解和上下文學(xué)習(xí)能力,但在解決現(xiàn)實(shí)世界任務(wù)時(shí),它們的決策能力仍然嚴(yán)重依賴于特定任務(wù)專家知識(shí)的指導(dǎo)。為了釋放LLM作為自主決策者的潛力,本文提出了一種JUDEC賦予LLM自我判斷能力的方法,使LLM能夠?qū)崿F(xiàn)自主判斷和決策探索。具體來說,在JUDEC中,基于Elo的自我判斷機(jī)制被設(shè)計(jì)為將Elo分?jǐn)?shù)分配給決策步驟,通過兩個(gè)解決方案之間的成對(duì)比較來判斷其價(jià)值和效用,然后相應(yīng)地引導(dǎo)決策搜索過程走向最優(yōu)解決方案。ToolBench數(shù)據(jù)集的實(shí)驗(yàn)結(jié)果表明,JUDEC優(yōu)于基線,在不同任務(wù)上的通過率提高了10%以上。它提供更高質(zhì)量的解決方案并降低成本(ChatGPT API調(diào)用),突出了其有效性和效率。

1 引言

2 前言

3 任務(wù)形式化

4 方法

5 實(shí)驗(yàn)

6 相關(guān)工作

7 結(jié)論

在這項(xiàng)工作中,我們引入了一種新的方法JUDEC,使大型語言模型(LLM)能夠在不同的現(xiàn)實(shí)世界任務(wù)中作為自主決策者,而不需要特定任務(wù)的專家知識(shí)?;贓lo的自我判斷機(jī)制的引入增強(qiáng)了LLM對(duì)決策步驟的自我判斷,并指導(dǎo)決策探索過程。在ToolBench數(shù)據(jù)集上進(jìn)行的大量實(shí)驗(yàn)已經(jīng)證實(shí)了JUDEC的有效性,它通過顯著提高通過率和產(chǎn)生更高質(zhì)量的解決方案而優(yōu)于基線方法。此外,LLM API調(diào)用的減少顯示了我們方法的效率提高。通過賦予LLM自主決策能力,我們的工作為其在現(xiàn)實(shí)世界場景中的更廣泛應(yīng)用鋪平了道路,消除了對(duì)特定任務(wù)知識(shí)的依賴。文章來源地址http://www.zghlxwxcb.cn/news/detail-686101.html

到了這里,關(guān)于LARGE LANGUAGE MODEL AS AUTONOMOUS DECISION MAKER的文章就介紹完了。如果您還想了解更多內(nèi)容,請?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場。本站僅提供信息存儲(chǔ)空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • Truncation Sampling as Language Model Desmoothing

    本文是LLM系列文章,針對(duì)《Truncation Sampling as Language Model Desmoothing》的翻譯。 來自神經(jīng)語言模型的長文本樣本可能質(zhì)量較差。截?cái)嗖蓸铀惴ǎㄈ鐃op-p或top-k)通過在每一步將一些單詞的概率設(shè)置為零來解決這一問題。這項(xiàng)工作為截?cái)嗟哪康奶峁┝丝蚣?,并為此目的提供了一種改

    2024年02月10日
    瀏覽(23)
  • A Survey on Model Compression for Large Language Models

    本文是LLM系列文章,關(guān)于模型壓縮相關(guān)綜述,針對(duì)《A Survey on Model Compression for Large Language Models》的翻譯。 大型語言模型(LLM)以顯著的成功徹底改變了自然語言處理任務(wù)。然而,它們強(qiáng)大的規(guī)模和計(jì)算需求給實(shí)際部署帶來了重大挑戰(zhàn),尤其是在資源受限的環(huán)境中。隨著這些

    2024年02月11日
    瀏覽(19)
  • 吳恩達(dá)gradio課程:基于開源LLM(large language model)的聊天應(yīng)用

    內(nèi)容簡介 Falcon 40B 是當(dāng)前最好的開源語言模型之一。 使用 text-generation 庫調(diào)用 Falcon 40B 的問答 API 接口。 首先僅僅在代碼中與模型聊天,后續(xù)通過Gradio構(gòu)建聊天界面。 Gradio 聊天界面可以保存對(duì)話歷史上下文。 在聊天過程中,需要將之前對(duì)話記錄與新消息一起發(fā)送給模型,才能進(jìn)

    2024年02月09日
    瀏覽(60)
  • 論文筆記:Spatial-Temporal Large Language Model for Traffic Prediction

    論文筆記:Spatial-Temporal Large Language Model for Traffic Prediction

    arxiv 2024 時(shí)空+大模型

    2024年04月24日
    瀏覽(28)
  • 論文筆記 Where Would I Go Next? Large Language Models as Human Mobility Predictor

    論文筆記 Where Would I Go Next? Large Language Models as Human Mobility Predictor

    arxiv 2023 08的論文 人類流動(dòng)性的獨(dú)特特性在于其固有的規(guī)律性、隨機(jī)性以及復(fù)雜的時(shí)空依賴性 ——準(zhǔn)確預(yù)測人們的行蹤變得困難 近期的研究利用深度學(xué)習(xí)模型的時(shí)空建模能力實(shí)現(xiàn)了更好的預(yù)測性能 但準(zhǔn)確性仍然不足,且產(chǎn)生的結(jié)果不能直接完全解釋 LMM+位置預(yù)測 提出了一個(gè)

    2024年03月16日
    瀏覽(21)
  • Chinese Tiny LLM: Pretraining a Chinese-Centric Large Language Model

    Chinese Tiny LLM: Pretraining a Chinese-Centric Large Language Model

    相關(guān)鏈接:arXiv : Chinese LLM 、 Pretraining 、 Large Language Model 、 Chinese Corpora 、 Multilingual 本研究介紹了CT-LLM(Chinese Tiny Large Language Model),這是一個(gè)2B參數(shù)的大型語言模型(LLM),它標(biāo)志著在開發(fā)LLMs時(shí)優(yōu)先考慮中文的重大轉(zhuǎn)變。CT-LLM的獨(dú)特之處在于,它從頭開始,主要通

    2024年04月15日
    瀏覽(26)
  • 論文筆記:Large Language Models as Urban Residents:An LLM Agent Framework for Personal Mobility Generati

    論文筆記:Large Language Models as Urban Residents:An LLM Agent Framework for Personal Mobility Generati

    使用LMM生成活動(dòng)軌跡的開創(chuàng)性工作 理解活動(dòng)模式(mobility pattern)——能夠靈活模擬城市移動(dòng)性 盡管個(gè)體活動(dòng)軌跡數(shù)據(jù)由于通信技術(shù)的進(jìn)步而豐富,但其實(shí)際使用往往受到隱私顧慮的限制 ——生成的數(shù)據(jù)可以提供一種可行的替代方案,提供了效用和隱私之間的平衡 之前有很

    2024年03月11日
    瀏覽(27)
  • 【人工智能】大模型LLM技術(shù)生態(tài)全景圖 | The Foundation Large Language Model (LLM) & Tooling Landscape

    目錄 “Software is eating the world…”??“軟件正在吞噬世界...”~ Marc Andreessen?~ 馬克·安德森 Every company is a software company…soon every company will be an AI company.每家公司都是軟件公司...很快,每家公司都將成為人工智能公司。 Everybody is using software…soon everybody will directly be using AI.每個(gè)

    2024年02月08日
    瀏覽(19)
  • TPTU: Task Planning and Tool Usage of Large Language Model-based AI Agents

    本文是LLM系列文章,針對(duì)《TPTU: Task Planning and Tool Usage of Large Language Model-based AI Agents》的翻譯。 隨著自然語言處理的最新進(jìn)展,大型語言模型(LLM)已成為各種現(xiàn)實(shí)世界應(yīng)用程序的強(qiáng)大工具。盡管LLM的能力很強(qiáng),但其內(nèi)在的生成能力可能不足以處理復(fù)雜的任務(wù),而復(fù)雜的任務(wù)

    2024年02月09日
    瀏覽(37)
  • 【EAI 010】MultiPLY: A Multisensory Object-Centric Embodied Large Language Model in 3D World

    【EAI 010】MultiPLY: A Multisensory Object-Centric Embodied Large Language Model in 3D World

    論文標(biāo)題:MultiPLY: A Multisensory Object-Centric Embodied Large Language Model in 3D World 論文作者:Yining Hong, Zishuo Zheng, Peihao Chen, Yian Wang, Junyan Li, Chuang Gan 作者單位:UMass Amherst, UCLA, MIT-IBM Watson AI Lab 論文原文:https://arxiv.org/abs/2401.08577 論文出處:– 論文被引:–(02/02/2024) 項(xiàng)目主頁:

    2024年02月22日
    瀏覽(24)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包