国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

【斯坦福】FrugalGPT: 如何使用大型語(yǔ)言模型,同時(shí)降低成本并提高性能

這篇具有很好參考價(jià)值的文章主要介紹了【斯坦?!縁rugalGPT: 如何使用大型語(yǔ)言模型,同時(shí)降低成本并提高性能。希望對(duì)大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請(qǐng)大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問(wèn)。

FrugalGPT: 如何使用大型語(yǔ)言模型,同時(shí)降低成本并提高性能
作者:Lingjiao Chen, Matei Zaharia, James Zou

引言

本文介紹了一種新穎的方法,旨在解決使用大型語(yǔ)言模型(LLM)時(shí)面臨的成本和性能挑戰(zhàn)。隨著GPT-4和ChatGPT等LLM的日益流行,我們需要找到降低這些模型推理成本的策略。作者強(qiáng)調(diào)了LLM API的異構(gòu)定價(jià)結(jié)構(gòu)以及使用最大的LLM所帶來(lái)的巨大財(cái)務(wù)、環(huán)境和能源影響。

問(wèn)題陳述

使用LLM進(jìn)行高吞吐量應(yīng)用可能非常昂貴。例如,ChatGPT的運(yùn)營(yíng)成本估計(jì)每天超過(guò)70萬(wàn)美元,而使用GPT-4支持客戶服務(wù)可能會(huì)給小型企業(yè)帶來(lái)每月2.1萬(wàn)美元的費(fèi)用。此外,使用最大的LLM還會(huì)帶來(lái)可觀的環(huán)境和能源影響。因此,我們需要一種方法來(lái)降低LLM的推理成本,同時(shí)保持良好的性能。

FrugalGPT的解決方案

為了解決這個(gè)問(wèn)題,作者提出了FrugalGPT,這是一種簡(jiǎn)單而靈活的LLM級(jí)聯(lián)方法。FrugalGPT通過(guò)學(xué)習(xí)在不同查詢中使用不同LLM組合的方式,以降低成本并提高準(zhǔn)確性。
【斯坦?!縁rugalGPT: 如何使用大型語(yǔ)言模型,同時(shí)降低成本并提高性能
具體而言,F(xiàn)rugalGPT包括三種策略:提示適應(yīng)、LLM近似和LLM級(jí)聯(lián)。
【斯坦?!縁rugalGPT: 如何使用大型語(yǔ)言模型,同時(shí)降低成本并提高性能

提示適應(yīng)

提示適應(yīng)是一種通過(guò)識(shí)別有效的提示來(lái)節(jié)省成本的方法。通過(guò)精心設(shè)計(jì)的提示,可以減少LLM的推理成本。例如,使用較短的提示可以降低成本,而不會(huì)顯著影響性能。

LLM近似

LLM近似旨在創(chuàng)建更簡(jiǎn)單、更便宜的LLM,以在特定任務(wù)上與強(qiáng)大但昂貴的LLM相匹配。通過(guò)降低模型的復(fù)雜性和規(guī)模,可以降低成本,同時(shí)保持合理的性能。

LLM級(jí)聯(lián)

LLM級(jí)聯(lián)是一種自適應(yīng)選擇不同LLM API的方法,以適應(yīng)不同查詢。通過(guò)根據(jù)查詢的特性選擇合適的LLM組合,可以降低成本并提高準(zhǔn)確性。

實(shí)驗(yàn)結(jié)果

作者通過(guò)實(shí)驗(yàn)證明了FrugalGPT的有效性。實(shí)驗(yàn)結(jié)果顯示,F(xiàn)rugalGPT可以在與最佳單個(gè)LLM相當(dāng)?shù)男阅芟拢档透哌_(dá)98%的推理成本。此外,F(xiàn)rugalGPT還可以在相同成本下提高4%的準(zhǔn)確性。這些結(jié)果表明,F(xiàn)rugalGPT是一種可行的方法,可以在降低成本的同時(shí)提高性能。文章來(lái)源地址http://www.zghlxwxcb.cn/news/detail-510887.html

到了這里,關(guān)于【斯坦?!縁rugalGPT: 如何使用大型語(yǔ)言模型,同時(shí)降低成本并提高性能的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來(lái)自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場(chǎng)。本站僅提供信息存儲(chǔ)空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請(qǐng)注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請(qǐng)點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • 足夠驚艷,使用Alpaca-Lora基于LLaMA(7B)二十分鐘完成微調(diào),效果比肩斯坦福羊駝

    足夠驚艷,使用Alpaca-Lora基于LLaMA(7B)二十分鐘完成微調(diào),效果比肩斯坦福羊駝

    之前嘗試了 從0到1復(fù)現(xiàn)斯坦福羊駝(Stanford Alpaca 7B) ,Stanford Alpaca 是在 LLaMA 整個(gè)模型上微調(diào),即對(duì)預(yù)訓(xùn)練模型中的所有參數(shù)都進(jìn)行微調(diào)(full fine-tuning)。但該方法對(duì)于硬件成本要求仍然偏高且訓(xùn)練低效。 因此, Alpaca-Lora 則是利用 Lora 技術(shù),在凍結(jié)原模型 LLaMA 參數(shù)的情況下

    2024年02月03日
    瀏覽(23)
  • 筆記匯總 | 斯坦福 CS229 機(jī)器學(xué)習(xí)

    本文為斯坦福大學(xué) CS229 機(jī)器學(xué)習(xí)課程學(xué)習(xí)筆記 本文主體部分轉(zhuǎn)載自黃海廣博士,文末已給出鏈接,大家有興趣可以直接訪問(wèn)筆記首頁(yè),下載對(duì)應(yīng)課程資料及作業(yè)代碼 課程官網(wǎng):CS229: Machine Learning (stanford.edu) 課程視頻:Stanford CS229: Machine Learning Course, Lecture 1 - Andrew Ng (Autumn 2

    2024年02月14日
    瀏覽(18)
  • LLaMA模型微調(diào)版本:斯坦福 Alpaca 詳解

    LLaMA模型微調(diào)版本:斯坦福 Alpaca 詳解

    項(xiàng)目代碼:https://github.com/tatsu-lab/stanford_alpaca 博客介紹:https://crfm.stanford.edu/2023/03/13/alpaca.html Alpaca 是 LLaMA-7B 的微調(diào)版本,使用Self-instruct[2]方式借用text-davinct-003構(gòu)建了52K的數(shù)據(jù),同時(shí)在其構(gòu)建策略上做了一些修改。 性能上作者對(duì)Alpaca進(jìn)行了評(píng)估,與openai的text-davinct-003模型在

    2024年02月16日
    瀏覽(29)
  • 斯坦福人生設(shè)計(jì)課——簡(jiǎn)略筆記(未完待更新)

    斯坦福人生設(shè)計(jì)課——簡(jiǎn)略筆記(未完待更新)

    來(lái)源: ?爾 · 博內(nèi)特 戴夫 · 伊萬(wàn)斯 著圖書(shū)《人生設(shè)計(jì)課》 目錄 一、認(rèn)清當(dāng)下的情況,從四個(gè)維度觀察自己的人生 二、平衡人生,但不要走入誤區(qū) 2.1 記錄你的“美好時(shí)光日志”: 2.1.1 記錄內(nèi)容: 2.1.2 輔助反思的方法:AEIOU方法 2.1.3 一個(gè)小TIPS: 2.1.4 如果你發(fā)現(xiàn)自己當(dāng)下

    2024年02月11日
    瀏覽(21)
  • 自驅(qū)力超強(qiáng)的羊駝?斯坦福微調(diào)LLaMa

    自驅(qū)力超強(qiáng)的羊駝?斯坦福微調(diào)LLaMa

    大型“指令調(diào)優(yōu)”語(yǔ)言模型在新任務(wù)上展現(xiàn)了Zero-shot的卓越能力,但嚴(yán)重依賴于人類編寫(xiě)的指令數(shù)據(jù),而這些數(shù)據(jù)在數(shù)量、多樣性和創(chuàng)造性方面都是有限的。 斯坦??蒲腥藛T引入了self-instruction框架,提高指令遵循能力來(lái)自我迭代進(jìn)化,與InstructGPT的性能相當(dāng),相比原始GPT3提

    2024年02月09日
    瀏覽(20)
  • 【LLM系列】00:斯坦福 Alpaca 模型介紹及其復(fù)現(xiàn)

    【LLM系列】00:斯坦福 Alpaca 模型介紹及其復(fù)現(xiàn)

    西風(fēng)吹老洞庭波,一夜湘君白發(fā)多。醉后不知天在水,滿船清夢(mèng)壓星河。小伙伴好,我是微信公眾號(hào)《小窗幽記機(jī)器學(xué)習(xí)》的小編:賣核彈的小女孩。更多、更新文章歡迎關(guān)注微信公眾號(hào):小窗幽記機(jī)器學(xué)習(xí)。后續(xù)會(huì)持續(xù)輸出模型推理加速、工程部署、LLM、AI藝術(shù)等系列,敬

    2024年02月13日
    瀏覽(21)
  • 斯坦福| ChatGPT用于生成式搜索引擎的可行性

    斯坦福| ChatGPT用于生成式搜索引擎的可行性

    文|智商掉了一地 隨著 ChatGPT 在文本生成領(lǐng)域邁出了重要一步,Bing 瀏覽器也接入了聊天機(jī)器人功能,因此如何保證 Bing Chat 等搜索引擎結(jié)果的精確率和真實(shí)性也成為了搜索領(lǐng)域的熱門(mén)話題之一。 當(dāng)我們使用搜索引擎時(shí),往往希望搜索結(jié)果能夠真實(shí)準(zhǔn)確地反映我們的需求。然

    2024年02月06日
    瀏覽(16)
  • 斯坦福Dan Boneh密碼學(xué)——02 計(jì)算密碼與語(yǔ)義安全

    斯坦福Dan Boneh密碼學(xué)——02 計(jì)算密碼與語(yǔ)義安全

    語(yǔ)義安全這塊內(nèi)容實(shí)在是被書(shū)繞暈了,雖然模型就那么一個(gè),但有各種各樣的數(shù)學(xué)符號(hào)交織證明,還有官方深?yuàn)W的語(yǔ)言表述。第一次看是一知半解的,后面勢(shì)必還要再返回來(lái)精讀幾遍完善筆記。以篇幅來(lái)看,語(yǔ)義安全是密碼學(xué)中非常重要的一個(gè)版塊。 計(jì)算密碼與語(yǔ)義安全 我

    2024年02月08日
    瀏覽(22)
  • 斯坦福 Stats60:21 世紀(jì)的統(tǒng)計(jì)學(xué):前言到第四章

    斯坦福 Stats60:21 世紀(jì)的統(tǒng)計(jì)學(xué):前言到第四章

    原文: statsthinking21.github.io/statsthinking21-core-site/index.html 譯者:飛龍 協(xié)議:CC BY-NC-SA 4.0 這本書(shū)的目標(biāo)是講述統(tǒng)計(jì)學(xué)的故事,以及它如何被全球的研究人員所使用。這是一個(gè)與大多數(shù)統(tǒng)計(jì)學(xué)入門(mén)書(shū)籍中講述的故事不同的故事,后者側(cè)重于教授如何使用一套工具來(lái)實(shí)現(xiàn)非常具體的

    2024年01月18日
    瀏覽(17)
  • 大模型也內(nèi)卷,Vicuna訓(xùn)練及推理指南,效果碾壓斯坦福羊駝

    大模型也內(nèi)卷,Vicuna訓(xùn)練及推理指南,效果碾壓斯坦福羊駝

    2023開(kāi)年以來(lái),大模型進(jìn)入瘋狂內(nèi)卷狀態(tài),大模型的發(fā)布都要以“天”為單位進(jìn)行迭代。 之前,嘗試了 從0到1復(fù)現(xiàn)斯坦福羊駝(Stanford Alpaca 7B) ,下面我們來(lái)嘗試從0到1復(fù)現(xiàn)Vicuna訓(xùn)練及推理。 繼斯坦福羊駝(Stanford Alpaca)之后,UC伯克利、CMU、斯坦福等機(jī)構(gòu)的學(xué)者,聯(lián)手發(fā)布

    2024年02月08日
    瀏覽(25)

覺(jué)得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請(qǐng)作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包