国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

最高20倍!壓縮ChatGPT等模型文本提示,極大節(jié)省AI算力

這篇具有很好參考價(jià)值的文章主要介紹了最高20倍!壓縮ChatGPT等模型文本提示,極大節(jié)省AI算力。希望對(duì)大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請(qǐng)大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問(wèn)。

最高20倍!壓縮ChatGPT等模型文本提示,極大節(jié)省AI算力_信息_段落_問(wèn)題

在長(zhǎng)文本場(chǎng)景中,ChatGPT 等大語(yǔ)言模型經(jīng)常面臨更高算力成本、更長(zhǎng)的延遲以及更差的性能。為了解決這三大難題,微軟開(kāi)源了 LongLLMLingua。

據(jù)悉,LongLLMLingua 的核心技術(shù)原理是將“文本提示”實(shí)現(xiàn)最高 20 倍的極限壓縮,同時(shí)又可以準(zhǔn)確評(píng)估提示中內(nèi)容與問(wèn)題的相關(guān)程度,消除無(wú)關(guān)內(nèi)容保留關(guān)鍵信息,達(dá)到降本增效目的。

實(shí)驗(yàn)結(jié)果顯示,經(jīng)過(guò) LongLLMLingua 壓縮后的提示,比原始提示的性能提升了 17.1%, 同時(shí)輸入 GPT-3.5-Turbo 的 tokens 減少了 4 倍。在 LongBench 和 ZeroScrolls 測(cè)試中顯示,每 1,000 個(gè)樣本節(jié)省 28.5 美元和 27.4 美元的成本。

當(dāng)壓縮約 10 k tokens 的提示,壓縮率在 2-10 倍范圍內(nèi)時(shí),端到端延遲可以降低 1.4-3.8 倍,顯著加速了推理速率。

論文地址:?

開(kāi)源地址:?https://github.com/microsoft/LLMLingua

?github? ? ? ?https://github.com/microsoft/LLMLingua

從介紹論文來(lái)看,LongLLMLingua主要由問(wèn)題感知的粗細(xì)粒度壓縮、文檔重排序、動(dòng)態(tài)壓縮比率和壓縮后子序列恢復(fù)4大模塊組成。

問(wèn)題感知的粗粒度壓縮模塊

該模塊的設(shè)計(jì)思路是,使用問(wèn)題文本進(jìn)行條件化,評(píng)估每個(gè)段落與問(wèn)題的相關(guān)程度,保留相關(guān)度更高的段落。

最高20倍!壓縮ChatGPT等模型文本提示,極大節(jié)省AI算力,自然語(yǔ)言,aigc,大模型,chatgpt,人工智能,AIGC

具體來(lái)說(shuō),通過(guò)計(jì)算問(wèn)題文本與各段落的條件困惑度,判斷二者的邏輯關(guān)聯(lián)程度,條件困惑度越低表示相關(guān)性越高。

在此基礎(chǔ)上,設(shè)置閾值保留困惑度較低的段落,過(guò)濾掉與問(wèn)題不相關(guān)的段落。這實(shí)現(xiàn)了根據(jù)問(wèn)題快速移除大量冗余信息的粗粒度壓縮。

文檔重排序模塊

研究表明,在提示中,靠近開(kāi)始和結(jié)束位置的內(nèi)容對(duì)語(yǔ)言模型的影響最大。所以該模塊根據(jù)各段落的相關(guān)程度對(duì)其進(jìn)行重新排序,使關(guān)鍵信息出現(xiàn)在對(duì)模型更敏感的位置,減少中間位置信息損失。

通過(guò)利用粗粒度壓縮模塊計(jì)算出的各段落與問(wèn)題的關(guān)聯(lián)度,對(duì)段落進(jìn)行排序,使關(guān)聯(lián)度最高的段落排在最前面。這進(jìn)一步增強(qiáng)了模型對(duì)關(guān)鍵信息的感知。

最高20倍!壓縮ChatGPT等模型文本提示,極大節(jié)省AI算力,自然語(yǔ)言,aigc,大模型,chatgpt,人工智能,AIGC

在獲取重排序后的相關(guān)段落后,需要進(jìn)一步壓縮每個(gè)段落內(nèi)的詞量。此時(shí)動(dòng)態(tài)壓縮比率模塊對(duì)提示進(jìn)行精細(xì)調(diào)控。

動(dòng)態(tài)壓縮比率模塊

對(duì)更相關(guān)的段落使用更低的壓縮比率,分配更多的保留詞語(yǔ)預(yù)算,而對(duì)相關(guān)性較弱的段落則使用更高的壓縮比率。

最高20倍!壓縮ChatGPT等模型文本提示,極大節(jié)省AI算力,自然語(yǔ)言,aigc,大模型,chatgpt,人工智能,AIGC

通過(guò)利用粗粒度壓縮結(jié)果中的段落關(guān)聯(lián)度,動(dòng)態(tài)確定每個(gè)段落的壓縮比率。關(guān)聯(lián)度最高的段落壓縮比率最低,依次類推。

實(shí)現(xiàn)自適應(yīng)、細(xì)粒度的壓縮控制,有效保留關(guān)鍵信息。壓縮后還需要提高結(jié)果的可靠性,這就需要下面的壓縮后子序列恢復(fù)模塊。

壓縮后子序列恢復(fù)模塊

在壓縮過(guò)程中,一些關(guān)鍵詞可能被過(guò)度刪除,影響信息的完整性,而該模塊可以檢測(cè)并恢復(fù)這些關(guān)鍵詞。

工作原理是,利用源文本、壓縮文本、生成文本之間的子序列關(guān)系,從生成結(jié)果中恢復(fù)完整的關(guān)鍵名詞詞組,修復(fù)壓縮帶來(lái)的信息缺失,提高結(jié)果的準(zhǔn)確性。

最高20倍!壓縮ChatGPT等模型文本提示,極大節(jié)省AI算力,自然語(yǔ)言,aigc,大模型,chatgpt,人工智能,AIGC

整個(gè)過(guò)程有點(diǎn)像我們快速瀏覽文章、篩選信息、整合要點(diǎn)的工作流程等,使模型快速捕捉文本的關(guān)鍵信息,生成高質(zhì)量的摘要。

LongLLMLingua實(shí)驗(yàn)數(shù)據(jù)

研究人員構(gòu)建了一個(gè)基于Natural Questions的多文檔問(wèn)答數(shù)據(jù)集,其中每個(gè)示例包含一個(gè)問(wèn)題及20個(gè)相關(guān)文檔,并需要從這20個(gè)文檔中查找到答案。

該數(shù)據(jù)集模擬了實(shí)際的搜索引擎和問(wèn)答場(chǎng)景,可以評(píng)估模型在長(zhǎng)文檔中的問(wèn)答性能。

此外,研究人員還采用了更為通用的長(zhǎng)文本理解基準(zhǔn)測(cè)試集,包括LongBench和ZeroSCROLLS,以評(píng)估方法在更廣泛場(chǎng)景下的效果。

其中,LongBench覆蓋單文檔問(wèn)答、多文檔問(wèn)答、文本摘要、少樣本學(xué)習(xí)等任務(wù),包含英文數(shù)據(jù)集。ZeroSCROLLS則包括文本摘要、問(wèn)答理解、情感分析等典型語(yǔ)言理解任務(wù)。

最高20倍!壓縮ChatGPT等模型文本提示,極大節(jié)省AI算力,自然語(yǔ)言,aigc,大模型,chatgpt,人工智能,AIGC

在這些數(shù)據(jù)集上,研究人員比較了LongLLMLingua壓縮后的提示與原始提示在大語(yǔ)言模型上的性能。同時(shí),也與其他提示壓縮方法進(jìn)行了對(duì)比,如基于困惑度的LLMLingua和基于檢索的方法,評(píng)估了LongLLMLingua的有效性。

實(shí)驗(yàn)結(jié)果顯示,LongLLMLingua壓縮后的提示在問(wèn)答準(zhǔn)確率、生成文本質(zhì)量等指標(biāo)上普遍優(yōu)于原始提示。

例如,在NaturalQuestions上,壓縮4倍的提示提升了17.1%的問(wèn)答準(zhǔn)確率。當(dāng)壓縮約10k tokens的提示,壓縮率在2-10倍范圍內(nèi)時(shí),端到端延遲可以降低1.4-3.8倍。這充分證明LongLLMLingua可以在壓縮提示的同時(shí)提升關(guān)鍵信息提取。文章來(lái)源地址http://www.zghlxwxcb.cn/news/detail-827647.html

到了這里,關(guān)于最高20倍!壓縮ChatGPT等模型文本提示,極大節(jié)省AI算力的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來(lái)自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場(chǎng)。本站僅提供信息存儲(chǔ)空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請(qǐng)注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請(qǐng)點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • IP-Adapter:文本兼容圖像提示適配器,用于文本到圖像擴(kuò)散模型

    IP-Adapter:文本兼容圖像提示適配器,用于文本到圖像擴(kuò)散模型

    IP-Adapter這是一種有效且輕量級(jí)的適配器,用于實(shí)現(xiàn)預(yù)訓(xùn)練文本到圖像擴(kuò)散模型的圖像提示功能。只有 22M 參數(shù)的 IP 適配器可以實(shí)現(xiàn)與微調(diào)圖像提示模型相當(dāng)甚至更好的性能。IP-Adapter 不僅可以推廣到從同一基本模型微調(diào)的其他自定義模型,還可以推廣到使用現(xiàn)有可控工具的可

    2024年01月18日
    瀏覽(24)
  • IP-Adapter:用于文本到圖像擴(kuò)散模型的文本兼容圖像提示適配器

    IP-Adapter:用于文本到圖像擴(kuò)散模型的文本兼容圖像提示適配器

    IP-Adapter是圖像提示適配器,用于預(yù)訓(xùn)練的文本到圖像擴(kuò)散模型,以實(shí)現(xiàn)使用圖像提示生成圖像的能力; IP-Adapter的關(guān)鍵設(shè)計(jì)是解耦的交叉注意力機(jī)制,將交叉注意力層分離為文本特征和圖像特征,實(shí)現(xiàn)了圖像提示的能力。 img2img使用unet架構(gòu),包括一個(gè)編碼器(下采樣)和一個(gè)

    2024年02月01日
    瀏覽(32)
  • ChatGPT的Prompts關(guān)鍵詞提示工程集合:包含AI繪畫(huà)和GPT文本對(duì)話

    ChatGPT的Prompts關(guān)鍵詞提示工程集合:包含AI繪畫(huà)和GPT文本對(duì)話

    明確一個(gè)概念,ChatGPT是一種大型的自然語(yǔ)言處理模型,它基于深度神經(jīng)網(wǎng)絡(luò)和語(yǔ)言模型技術(shù),可以通過(guò)對(duì)已有的海量文本數(shù)據(jù)進(jìn)行訓(xùn)練,從而實(shí)現(xiàn)對(duì)自然語(yǔ)言的理解和生成。ChatGPT可以用于各種任務(wù),如文本生成、對(duì)話生成、情感分析、語(yǔ)言翻譯等。 相比于之前寫(xiě)過(guò)一篇關(guān)于

    2024年02月11日
    瀏覽(63)
  • 【AIGC】IP-Adapter:文本兼容圖像提示適配器,用于文本到圖像擴(kuò)散模型

    【AIGC】IP-Adapter:文本兼容圖像提示適配器,用于文本到圖像擴(kuò)散模型

    ????????IPAdapter能夠通過(guò)圖像給Stable Diffusion模型以內(nèi)容提示,讓其生成參考該圖像畫(huà)風(fēng),可以免去Lora的訓(xùn)練,達(dá)到參考畫(huà)風(fēng)人物的生成效果。 ????????通過(guò)文本提示詞生成的圖像,往往需要設(shè)置復(fù)雜的提示詞,通常設(shè)計(jì)提示詞變得很復(fù)雜。文本提示可以由圖像來(lái)替代

    2024年01月16日
    瀏覽(24)
  • 對(duì)于文本生成模型的指導(dǎo)性和整體性研究(chatgpt生成)

    對(duì)于文本生成模型 假設(shè)輸入是唯一性的,輸出是概率top——k的 只是輸入某段文本完全無(wú)法續(xù)寫(xiě)一個(gè)有目標(biāo)的結(jié)果 故而輸入要具有指導(dǎo)性和整體性 將上面的觀點(diǎn)寫(xiě)成一篇學(xué)術(shù)論文 題目:對(duì)于文本生成模型的指導(dǎo)性和整體性研究 摘要:在自然語(yǔ)言處理領(lǐng)域,文本生成模型在近

    2024年02月09日
    瀏覽(19)
  • 外貿(mào)版ChatGPT,每天節(jié)省5小時(shí)開(kāi)發(fā)客戶時(shí)間,可以用來(lái)干這些事情

    外貿(mào)版ChatGPT,每天節(jié)省5小時(shí)開(kāi)發(fā)客戶時(shí)間,可以用來(lái)干這些事情

    最近很多外貿(mào)朋友跟我說(shuō)訂單下降了很多,外貿(mào)市場(chǎng)行情不好,客戶越來(lái)越難談,獲客成本也越來(lái)越高了等等 但是我還是會(huì)經(jīng)常提醒:有嘗試過(guò)升級(jí)轉(zhuǎn)型嗎,比如啟用高效開(kāi)發(fā)客戶方法、提高跟進(jìn)技巧等等 最近火爆出圈的 ChatGPT 也是越來(lái)越多外貿(mào)人知道了,已經(jīng)被應(yīng)用于很

    2023年04月23日
    瀏覽(25)
  • 【大數(shù)據(jù)模型】讓chatgpt為開(kāi)發(fā)增速(開(kāi)發(fā)專用提示詞)

    【大數(shù)據(jù)模型】讓chatgpt為開(kāi)發(fā)增速(開(kāi)發(fā)專用提示詞)

    汝之觀覽,吾之幸也!本文主要聊聊怎樣才能更好的使用提示詞,給開(kāi)發(fā)提速,大大縮減我們的開(kāi)發(fā)時(shí)間,比如在開(kāi)發(fā)中使用生成表結(jié)構(gòu)腳本的提示詞,生成代碼的提示詞等等。 一、準(zhǔn)備 本文主要根據(jù)Claude進(jìn)行演示,關(guān)于如何使用Claude技術(shù)(主要是免費(fèi)),請(qǐng)參考文章 【大

    2024年02月10日
    瀏覽(13)
  • 不加班,最高20天全薪年假在微軟做程序員究竟有多爽?

    不加班,最高20天全薪年假在微軟做程序員究竟有多爽?

    66歲的比爾·蓋茨離婚了… 前段時(shí)間,微軟聯(lián)合創(chuàng)始人比爾·蓋茨和妻子梅琳達(dá)·蓋茨雙雙發(fā)文官宣離婚,長(zhǎng)達(dá)27年的婚姻正式宣告解體。聲明中寫(xiě)道,兩人認(rèn)為繼續(xù)保持婚姻關(guān)系已經(jīng)無(wú)法讓彼此繼續(xù)提升。 兩人的聲明都設(shè)置為禁止評(píng)論。 根據(jù)福布斯實(shí)時(shí)富豪榜,截至當(dāng)?shù)貢r(shí)間

    2024年02月05日
    瀏覽(30)
  • 【回答問(wèn)題】ChatGPT上線了!給我推薦20個(gè)比較流行的AI作畫(huà)模型!

    【回答問(wèn)題】ChatGPT上線了!給我推薦20個(gè)比較流行的AI作畫(huà)模型!

    好的,下面是20個(gè)比較流行的AI作畫(huà)模型: DALL-E GAN Deep Dream CycleGAN StyleGAN pix2pix SketchRNN BigGAN ProGAN ESRGAN SPADE BigVAE StackGAN VQ-VAE 3D-GAN SinGAN Text2Image StarGAN FunGAN Image2StyleGAN 這些模型的具體應(yīng)用可以結(jié)合你的需求來(lái)進(jìn)行選擇。 當(dāng)然,以下是20個(gè)比較流行的AI作畫(huà)模型的代碼: StyleG

    2024年02月09日
    瀏覽(20)

覺(jué)得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請(qǐng)作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包