国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

生成式 AI 分析:大模型 + 大量數(shù)據(jù)的神奇效果

這篇具有很好參考價值的文章主要介紹了生成式 AI 分析:大模型 + 大量數(shù)據(jù)的神奇效果。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點(diǎn)擊"舉報違法"按鈕提交疑問。

前言

如果你對這篇文章感興趣,可以點(diǎn)擊「【訪客必讀 - 指引頁】一文囊括主頁內(nèi)所有高質(zhì)量博客」,查看完整博客分類與對應(yīng)鏈接。


大模型的涌現(xiàn)能力 (Emergent Ability)

下圖是模型性能(Loss for next token prediction)與「參數(shù)量」和「數(shù)據(jù)集大小」之間的關(guān)系,可以看出隨著「參數(shù)量」和「數(shù)據(jù)集大小」不斷變大,模型性能不斷增強(qiáng),仿佛不會遇到瓶頸。

生成式 AI 分析:大模型 + 大量數(shù)據(jù)的神奇效果

下圖展現(xiàn)了大模型的涌現(xiàn)能力,即語言模型的性能隨著參數(shù)量增加并不是線性關(guān)系,而是突然躍升,即涌現(xiàn)。在未達(dá)到門檻之前,性能一直在隨機(jī)的水平徘徊。
生成式 AI 分析:大模型 + 大量數(shù)據(jù)的神奇效果
生成式 AI 分析:大模型 + 大量數(shù)據(jù)的神奇效果
生成式 AI 分析:大模型 + 大量數(shù)據(jù)的神奇效果

Calibration

在上面的實驗圖中,Calibration 指「模型置信度」與「真實概率」之間的關(guān)系,即滿足「置信度高 -> 正確」、「置信度低 -> 可能錯誤」的模型,其 Calibration 指標(biāo)越好。

因此 Calibration 實際上對應(yīng)著「模型是否知道自己錯了」這件事,如下圖所示,不同參數(shù)量的模型對應(yīng)不同的顏色,可以看到模型越大,其對自己是否出錯的把握越大,即「模型置信度」與「真實概率」更為貼合。

生成式 AI 分析:大模型 + 大量數(shù)據(jù)的神奇效果

Inverse Scaling Prize

一個比賽,獎金懸賞,尋找能讓「模型越大,性能越差」的任務(wù)。

生成式 AI 分析:大模型 + 大量數(shù)據(jù)的神奇效果
在這個比賽的任務(wù)中,許多之前的 “大模型” 隨著參數(shù)量變大,其性能確實變差了,但當(dāng)拿出更大的模型之后,其性能又好了起來,并產(chǎn)生了一段 U 型曲線。

生成式 AI 分析:大模型 + 大量數(shù)據(jù)的神奇效果
這個比賽中的任務(wù),一般都是「具體誤導(dǎo)性的」,例如下述這個例子:

生成式 AI 分析:大模型 + 大量數(shù)據(jù)的神奇效果
因此對于上述這種 U 型曲線,一種猜測是:這些任務(wù)里通常包含著一些誤導(dǎo)任務(wù),例如上述的 5 元,當(dāng)模型還沒有很大的時候,由于一知半解,就會接受被誤導(dǎo)的方法,進(jìn)而使其比隨機(jī)效果還要差,但當(dāng)其變得足夠大時,就會得到真正的結(jié)果,類似于上述的計算期望值。

生成式 AI 分析:大模型 + 大量數(shù)據(jù)的神奇效果

Switch Transformer

Switch Transformer 模型參數(shù)量為 1.6T(GPT-3 為 1750 億,GPT-3.5 為 2000 億),其使用了 Mixture-of-expert 的結(jié)構(gòu),即在模型推斷(Inference)的時候,選取不同的 Module,進(jìn)而加快推斷速度。

生成式 AI 分析:大模型 + 大量數(shù)據(jù)的神奇效果


大數(shù)據(jù)的重要性

足夠大量的數(shù)據(jù)才能讓模型學(xué)會「常識,即世界知識」,如下圖所示,橫坐標(biāo)為數(shù)據(jù)量。
生成式 AI 分析:大模型 + 大量數(shù)據(jù)的神奇效果
數(shù)據(jù)集準(zhǔn)備過程:

  • 過濾有害內(nèi)容(google 安全搜索)
  • 去除 HTML 標(biāo)簽
  • 用規(guī)則去除低品質(zhì)數(shù)據(jù)
  • 去除重復(fù)數(shù)據(jù)
  • 過濾出測試集(例如 GPT-3 就未過濾出測試集)

生成式 AI 分析:大模型 + 大量數(shù)據(jù)的神奇效果

「大模型」還是「大數(shù)據(jù)」

在固定的運(yùn)算資源時,應(yīng)該優(yōu)先「大模型」還是「大數(shù)據(jù)」?看目前的趨勢,模型大小越來越大,但訓(xùn)練數(shù)據(jù)量并沒有明顯變化。

生成式 AI 分析:大模型 + 大量數(shù)據(jù)的神奇效果

根據(jù)下圖(顏色代表固定的運(yùn)算資源,橫坐標(biāo)為參數(shù)量,參數(shù)量越大,數(shù)據(jù)量越?。梢园l(fā)現(xiàn)「大模型」和「大數(shù)據(jù)」需要取得平衡,只增加模型大小,不增加算力,只會讓訓(xùn)練結(jié)果變得更差。

生成式 AI 分析:大模型 + 大量數(shù)據(jù)的神奇效果

每個 U 型曲線取一個最低點(diǎn),得到下圖所示的算力與參數(shù)量(Parameters)和數(shù)據(jù)量(Tokens)之間的關(guān)系。

生成式 AI 分析:大模型 + 大量數(shù)據(jù)的神奇效果
根據(jù)上述估計圖,Google 重新估計了 Gopher(參數(shù)量為 280 Billion,數(shù)據(jù)量為 300 Billion) 對應(yīng)的算力下,應(yīng)該采取的參數(shù)量和數(shù)據(jù)量方案,于是訓(xùn)練得到了 Chinchilla(參數(shù)量為 63 Billon,數(shù)據(jù)量為 1.4 Trillion)。對比之后,發(fā)現(xiàn) Chinchilla 大勝 Gopher。

生成式 AI 分析:大模型 + 大量數(shù)據(jù)的神奇效果
根據(jù)上述結(jié)果,進(jìn)一步給出了具體的「參數(shù)量」與「數(shù)據(jù)量」之間的關(guān)系:

生成式 AI 分析:大模型 + 大量數(shù)據(jù)的神奇效果

最新的 LLaMA 也采用了這種「減少參數(shù)量,擴(kuò)大數(shù)據(jù)量」的方案:

生成式 AI 分析:大模型 + 大量數(shù)據(jù)的神奇效果


KNN LM

通常來說,語言模型在做一個分類問題,即輸入為「清華大」,輸出為各個候選詞的概率,隨后選出概率最高的詞即可。

如下所示,Transformer 得到 Text 的 Embedding,隨后通過線性層 + softmax 轉(zhuǎn)換為分類問題。
生成式 AI 分析:大模型 + 大量數(shù)據(jù)的神奇效果
與之對比,KNN LM 在得到 Repesentation 后,不僅訓(xùn)練了一個分類器,還將測試 Text 的 Repesentation 與訓(xùn)練數(shù)據(jù)得到的 Repesentation 進(jìn)行距離計算,并根據(jù)距離得到下一個詞的預(yù)測概率,再與原始分類器結(jié)合起來,得到最終結(jié)果。

生成式 AI 分析:大模型 + 大量數(shù)據(jù)的神奇效果
另外,KNN LM 可以拿任意資料與測試 Text 的 Representation 計算距離,并不局限于訓(xùn)練數(shù)據(jù)。因此 KNN LM 這種機(jī)制可以使模型訓(xùn)練時更專注于一些難度更高的問題,對于一些僅需記憶的問題則可以通過這種方式解決。文章來源地址http://www.zghlxwxcb.cn/news/detail-434507.html


參考資料

  • Hung-yi Lee:生成式 AI(一)
  • Scaling Laws for Neural Language Models
  • Emergent Abilities of Large Language Models
  • Inverse scaling can become U-shaped
  • Switch Transformers: Scaling to Trillion Parameter Models with Simple and Efficient Sparsity
  • When Do You Need Billions of Words of Pretraining Data?
  • Scaling Language Models: Methods, Analysis & Insights from Training Gopher
  • Deduplicating Training Data Makes Language Models Better
  • Training Compute-Optimal Large Language Models
  • Scaling Instruction-Finetuned Language Models
  • Introduction of ChatGPT
  • Training language models to follow instructions with human feedback
  • Learning to summarize from human feedback
  • Ggeneralization Through Memorization: Nearest Neighbor Language Models
  • Language Is Not All You Need: Aligning Perception with Language Models

到了這里,關(guān)于生成式 AI 分析:大模型 + 大量數(shù)據(jù)的神奇效果的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實不符,請點(diǎn)擊違法舉報進(jìn)行投訴反饋,一經(jīng)查實,立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • pinokio讓你在本地輕松跑多種AI模型的神奇瀏覽器

    pinokio讓你在本地輕松跑多種AI模型的神奇瀏覽器

    想要探索生成式人工智能的前沿進(jìn)展嗎?訂閱我們的中文簡報,深入解析最新的技術(shù)突破、實際應(yīng)用案例和未來的趨勢。與全球數(shù)同行一同,從行業(yè)內(nèi)部的深度分析和實用指南中受益。不要錯過這個機(jī)會,成為AI領(lǐng)域的領(lǐng)跑者。點(diǎn)擊訂閱,與未來同行!點(diǎn)擊訂閱,https://rengo

    2024年02月03日
    瀏覽(16)
  • 【花雕學(xué)AI】超級提問模型大全!150個ChatGPT神奇示例,讓你的聊天更有趣!

    【花雕學(xué)AI】超級提問模型大全!150個ChatGPT神奇示例,讓你的聊天更有趣!

    你是否想要成為聊天高手,讓你的對話更加有趣和深入?你是否想要掌握一些超級提問模型,讓你的聊天更加有創(chuàng)意和挑戰(zhàn)?你是否想要借助人工智能的力量,生成一些適合你的超級提問模型? 如果你的答案是肯定的,那么你一定不能錯過這篇文章。在這里,我們將為你揭秘

    2024年02月07日
    瀏覽(27)
  • 隨機(jī)生成工具類---主要目的是為了造大量數(shù)據(jù)準(zhǔn)備

    有時候需要造大量數(shù)據(jù)進(jìn)行測試,或者是用于學(xué)習(xí),當(dāng)然了這個工具類的目的就是為了后面測試easyExcel與 easyPoi 兩者性能準(zhǔn)備的 需要引入一個 hutool工具類 hutool 工具類在此工具類上的影響并不多,好像就一個隨機(jī)生成年齡的地方,才用到了,如果不想引入可以直接刪除即可

    2024年02月04日
    瀏覽(18)
  • 大數(shù)據(jù):AI大模型對數(shù)據(jù)分析領(lǐng)域的顛覆(文末送書)

    大數(shù)據(jù):AI大模型對數(shù)據(jù)分析領(lǐng)域的顛覆(文末送書)

    隨著數(shù)字化時代的到來,大數(shù)據(jù)已經(jīng)成為了各行各業(yè)中不可或缺的資源。然而,有效地分析和利用大數(shù)據(jù)仍然是一個挑戰(zhàn)。在這個背景下,OpenAI推出的Code Interpreter正在對數(shù)據(jù)分析領(lǐng)域進(jìn)行顛覆性的影響。 如何顛覆數(shù)據(jù)分析領(lǐng)域?帶著這個問題,我們一起來探討一下。 什么是

    2024年02月11日
    瀏覽(24)
  • 構(gòu)建你自己的 AI 輔助編碼助手:從 IDE 插件、代碼數(shù)據(jù)生成和模型微調(diào)(萬字長文)...

    構(gòu)建你自己的 AI 輔助編碼助手:從 IDE 插件、代碼數(shù)據(jù)生成和模型微調(diào)(萬字長文)...

    我們會在 GitHub 上持續(xù)更新這個教程: https://github.com/phodal/build-ai-coding-assistant,歡迎在 GitHub 上討論。 2023 年,生成式 AI 的火爆,讓越來越多的組織開始引入 AI 輔助編碼。與在 2021 年發(fā)布的 GitHub Copilot 稍有差異的是,代碼補(bǔ)全只是重多場景中的一個。大量的企業(yè)內(nèi)部在探索結(jié)

    2024年01月20日
    瀏覽(31)
  • ORACLE 10G版本數(shù)據(jù)庫系統(tǒng)產(chǎn)生大量歸檔日志問題的分析

    ORACLE 10G版本數(shù)據(jù)庫系統(tǒng)產(chǎn)生大量歸檔日志問題的分析

    近期接到用戶告知 數(shù)據(jù)庫歸檔暴增,導(dǎo)致生產(chǎn)庫歸檔空間滿,手動刪除后,歸檔空間很快就會滿。 立即登陸數(shù)據(jù)庫系統(tǒng),查詢發(fā)現(xiàn)歸檔日志異常增長,從以前的每小時產(chǎn)生3 00M ,增長到每小時產(chǎn)生5 9150M 。拉取問題時段的A WR 報告,將問題S QL 提交給應(yīng)用運(yùn)維人員,應(yīng)用修復(fù)

    2024年02月03日
    瀏覽(97)
  • AI Stable Diffusion Prompt參數(shù)【二】之 生成效果查驗

    AI Stable Diffusion Prompt參數(shù)【二】之 生成效果查驗

    ENSD: 31337, Size: 776x1000, Seed: 2846440556, 3Guofeng3_v33 30 DPM++ 2M Karras 7.5 2 4078eb4174 2 Latent 0.82

    2024年02月10日
    瀏覽(42)
  • 【動畫進(jìn)階】神奇的 3D 磨砂玻璃透視效果

    【動畫進(jìn)階】神奇的 3D 磨砂玻璃透視效果

    最近,群友分享了一個很有意思的效果: 原效果的網(wǎng)址:frosted-glass。該效果的幾個核心點(diǎn): 毛玻璃磨砂效果 卡片的 3D 旋轉(zhuǎn)跟隨效果 整體透明度和磨砂感、以及卡片的 3D 形態(tài)會隨著用戶移動鼠標(biāo)而進(jìn)行動態(tài)變化 原效果實現(xiàn)的較為復(fù)雜,并且實際體驗卡頓感較強(qiáng)。本文,我

    2024年02月14日
    瀏覽(17)
  • AI大語言模型GPT & R 生態(tài)環(huán)境領(lǐng)域數(shù)據(jù)統(tǒng)計分析

    ??自2022年GPT(Generative Pre-trained Transformer)大語言模型的發(fā)布以來,它以其卓越的自然語言處理能力和廣泛的應(yīng)用潛力,在學(xué)術(shù)界和工業(yè)界掀起了一場革命。在短短一年多的時間里,GPT已經(jīng)在多個領(lǐng)域展現(xiàn)出其獨(dú)特的價值,特別是在數(shù)據(jù)統(tǒng)計分析領(lǐng)域。GPT的介入為數(shù)據(jù)處理、

    2024年03月14日
    瀏覽(24)
  • 基于AI大模型的電商商家端自定義報表分析診斷經(jīng)營數(shù)據(jù)

    基于AI大模型的電商商家端自定義報表分析診斷經(jīng)營數(shù)據(jù)

    隨著電商市場的不斷發(fā)展和壯大,各個電商平臺上的商家需要更加精細(xì)化、定制化的數(shù)據(jù)分析和診斷。但是,目前市面上尚未有一款能夠滿足商家對于自定義報表的需求的電商數(shù)據(jù)分析工具,且可視化展示效果也不夠靈活、直觀,無法幫助商家快速發(fā)現(xiàn)問題和解決問題。 在這

    2024年02月07日
    瀏覽(27)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包