最強(qiáng)開(kāi)源大模型Llama 3發(fā)布!我們看下重點(diǎn):
- 今天,我們介紹Meta Llama 3,這是我們最先進(jìn)的開(kāi)源大型語(yǔ)言模型的下一代。
- Llama 3模型很快將在AWS、Databricks、Google Cloud、Hugging Face、Kaggle、IBM WatsonX、Microsoft Azure、NVIDIA NIM和Snowflake上提供,并得到AMD、AWS、戴爾、英特爾、NVIDIA和高通等硬件平臺(tái)的支持。
- 我們致力于以負(fù)責(zé)任的方式開(kāi)發(fā)Llama 3,并提供各種資源來(lái)幫助其他人負(fù)責(zé)任地使用它。這包括推出新的信任和安全工具,如Llama Guard 2、Code Shield和CyberSec Eval 2。
- 在未來(lái)幾個(gè)月里,我們預(yù)計(jì)將推出新的功能、更長(zhǎng)的上下文窗口、額外的模型大小以及增強(qiáng)的性能,并將分享Llama 3的研究論文。
- 使用Llama 3技術(shù)構(gòu)建的Meta AI現(xiàn)在是世界上領(lǐng)先的人工智能助手之一,可以提升您的智能并減輕您的負(fù)擔(dān)——幫助您學(xué)習(xí)、完成任務(wù)、創(chuàng)建內(nèi)容和連接,以充分利用每一刻。您可以在這里嘗試Meta AI。
詳細(xì)請(qǐng)看下文:
介紹 Meta Llama 3:迄今為止最具能力的開(kāi)放LLM
推薦閱讀:
- 使用Llama 2入門(mén)的5個(gè)步驟
- Llama生態(tài)系統(tǒng):過(guò)去、現(xiàn)在和未來(lái)
- 推出Code Llama,這是一款用于編碼的最先進(jìn)的大型語(yǔ)言模型
- Meta和微軟推出下一代Llama
今天,我們很高興地宣布Meta Llama 3的第一批模型已經(jīng)推出,可供廣泛使用。此次發(fā)布的模型具有8B和70B參數(shù)的預(yù)訓(xùn)練和指導(dǎo)微調(diào)語(yǔ)言模型,可以支持廣泛的用例。這一代Llama展示了在廣泛的行業(yè)基準(zhǔn)測(cè)試中的最先進(jìn)性能,并提供了改進(jìn)的推理等新功能。我們相信這些是同類(lèi)中最優(yōu)秀的開(kāi)源模型。為了支持我們長(zhǎng)期以來(lái)的開(kāi)放式方法,我們將Llama 3交到了社區(qū)的手中。我們希望推動(dòng)AI在整個(gè)技術(shù)棧上的下一波創(chuàng)新——從應(yīng)用程序到開(kāi)發(fā)者工具再到評(píng)估和推理優(yōu)化等方面。我們迫不及待地想看到您的構(gòu)建,并期待您的反饋。
我們對(duì)Llama 3的目標(biāo)
通過(guò)Llama 3,我們致力于構(gòu)建與當(dāng)今最優(yōu)秀的專(zhuān)有模型相媲美的最佳開(kāi)源模型。我們希望解決開(kāi)發(fā)者的反饋,提高Llama 3的整體實(shí)用性,同時(shí)繼續(xù)在負(fù)責(zé)任使用和部署LLM方面發(fā)揮領(lǐng)導(dǎo)作用。我們秉持著開(kāi)源精神,提前釋放模型,讓社區(qū)在其開(kāi)發(fā)過(guò)程中獲得訪問(wèn)權(quán)。今天發(fā)布的基于文本的模型是Llama 3模型系列的首批模型。我們未來(lái)的目標(biāo)是使Llama 3具備多語(yǔ)言和多模態(tài)能力,具有更長(zhǎng)的上下文,并持續(xù)提升核心LLM功能,如推理和編碼的整體性能。
最先進(jìn)的性能
我們的新型8B和70B參數(shù)的Llama 3模型是對(duì)Llama 2的重大飛躍,為這些規(guī)模的LLM模型建立了一個(gè)新的最先進(jìn)水平。由于預(yù)訓(xùn)練和后訓(xùn)練的改進(jìn),我們的預(yù)訓(xùn)練和指導(dǎo)微調(diào)模型是目前8B和70B參數(shù)規(guī)模下最優(yōu)秀的模型。我們后訓(xùn)練程序的改進(jìn)大幅降低了虛假拒絕率,改善了模型對(duì)齊,并增加了模型響應(yīng)的多樣性。我們還看到了推理、代碼生成和指導(dǎo)遵循等能力的極大改進(jìn),使得Llama 3更加可控。
在Llama 3的開(kāi)發(fā)過(guò)程中,我們查看了模型在標(biāo)準(zhǔn)基準(zhǔn)上的性能,并試圖優(yōu)化其在實(shí)際場(chǎng)景中的表現(xiàn)。為此,我們開(kāi)發(fā)了一個(gè)新的高質(zhì)量人工評(píng)估集。該評(píng)估集包含1800個(gè)提示,涵蓋了12個(gè)關(guān)鍵用例:尋求建議、頭腦風(fēng)暴、分類(lèi)、封閉式問(wèn)題回答、編碼、創(chuàng)意寫(xiě)作、提取、扮演角色/人物、開(kāi)放式問(wèn)題回答、推理、改寫(xiě)和總結(jié)。為了防止我們的模型在此評(píng)估集上出現(xiàn)意外過(guò)擬合,甚至我們自己的建模團(tuán)隊(duì)也無(wú)法訪問(wèn)它。下面的圖表顯示了我們?cè)谶@些類(lèi)別和提示上對(duì)Claude Sonnet、Mistral Medium和GPT-3.5的人工評(píng)估結(jié)果的匯總。
根據(jù)這一評(píng)估集,由人類(lèi)標(biāo)注者進(jìn)行的偏好排名突顯了我們的70B指導(dǎo)遵循模型在實(shí)際場(chǎng)景中相比規(guī)模相近的競(jìng)爭(zhēng)模型表現(xiàn)強(qiáng)勁。
我們的預(yù)訓(xùn)練模型還為這些規(guī)模的LLM模型確立了一個(gè)新的最先進(jìn)水平。
為了開(kāi)發(fā)出一個(gè)優(yōu)秀的語(yǔ)言模型,我們認(rèn)為創(chuàng)新、擴(kuò)展和優(yōu)化簡(jiǎn)潔至關(guān)重要。我們?cè)谡麄€(gè)Llama 3項(xiàng)目中采用了這一設(shè)計(jì)理念,重點(diǎn)關(guān)注四個(gè)關(guān)鍵要素:模型架構(gòu)、預(yù)訓(xùn)練數(shù)據(jù)、擴(kuò)大預(yù)訓(xùn)練規(guī)模和指導(dǎo)微調(diào)。
模型架構(gòu)
根據(jù)我們的設(shè)計(jì)理念,在Llama 3中我們選擇了相對(duì)標(biāo)準(zhǔn)的僅解碼器transformer架構(gòu)。與Llama 2相比,我們進(jìn)行了幾個(gè)關(guān)鍵改進(jìn)。Llama 3使用了一個(gè)詞匯表為128K標(biāo)記的分詞器,更高效地編碼語(yǔ)言,大大提高了模型性能。為了提高Llama 3模型的推理效率,我們采用了組合查詢(xún)注意力(GQA)技術(shù),覆蓋了8B和70B規(guī)模。我們以8,192個(gè)標(biāo)記的序列為訓(xùn)練樣本,使用掩碼確保自注意力不會(huì)跨越文檔邊界。
訓(xùn)練數(shù)據(jù)
為了訓(xùn)練出最佳的語(yǔ)言模型,構(gòu)建一個(gè)大規(guī)模、高質(zhì)量的訓(xùn)練數(shù)據(jù)集至關(guān)重要。按照我們的設(shè)計(jì)原則,我們大量投入預(yù)訓(xùn)練數(shù)據(jù)。Llama 3使用了來(lái)自公開(kāi)可用來(lái)源的超過(guò)15T個(gè)標(biāo)記進(jìn)行預(yù)訓(xùn)練。我們的訓(xùn)練數(shù)據(jù)集比Llama 2使用的大七倍,其中包含四倍的代碼。為了準(zhǔn)備即將到來(lái)的多語(yǔ)言用例,超過(guò)5%的Llama 3預(yù)訓(xùn)練數(shù)據(jù)集包含覆蓋30多種語(yǔ)言的高質(zhì)量非英語(yǔ)數(shù)據(jù)。然而,我們不指望這些語(yǔ)言的性能水平與英語(yǔ)相同。
為確保Llama 3在最高質(zhì)量的數(shù)據(jù)上進(jìn)行訓(xùn)練,我們開(kāi)發(fā)了一系列數(shù)據(jù)過(guò)濾管道。這些管道包括使用啟發(fā)式過(guò)濾器、不安全內(nèi)容過(guò)濾器、語(yǔ)義去重方法和文本分類(lèi)器來(lái)預(yù)測(cè)數(shù)據(jù)質(zhì)量。我們發(fā)現(xiàn),以前版本的Llama在識(shí)別高質(zhì)量數(shù)據(jù)方面表現(xiàn)出驚人的能力,因此我們使用Llama 2生成了用于驅(qū)動(dòng)Llama 3的文本質(zhì)量分類(lèi)器的訓(xùn)練數(shù)據(jù)。
我們還進(jìn)行了大量實(shí)驗(yàn),評(píng)估了在最終的預(yù)訓(xùn)練數(shù)據(jù)集中混合不同來(lái)源數(shù)據(jù)的最佳方法。這些實(shí)驗(yàn)使我們能夠選擇一種數(shù)據(jù)混合方式,確保Llama 3在各種用例中表現(xiàn)良好,包括瑣事問(wèn)題、STEM、編碼、歷史知識(shí)等。
擴(kuò)大預(yù)訓(xùn)練規(guī)模
為了有效地利用Llama 3模型的預(yù)訓(xùn)練數(shù)據(jù),我們付出了大量努力來(lái)擴(kuò)大預(yù)訓(xùn)練規(guī)模。具體來(lái)說(shuō),我們制定了一系列詳細(xì)的下游基準(zhǔn)評(píng)估的規(guī)模定律。這些規(guī)模定律使我們能夠選擇最佳的數(shù)據(jù)混合方式,并做出明智的決策,以最佳方式利用我們的訓(xùn)練計(jì)算資源。重要的是,規(guī)模定律使我們能夠在實(shí)際訓(xùn)練模型之前預(yù)測(cè)最大型號(hào)模型在關(guān)鍵任務(wù)上的性能(例如,在上面提到的HumanEval基準(zhǔn)評(píng)估上評(píng)估的代碼生成),這有助于確保我們最終模型在各種用例和功能中表現(xiàn)出色。
在開(kāi)發(fā)Llama 3過(guò)程中,我們對(duì)規(guī)模行為進(jìn)行了幾項(xiàng)新的觀察。例如,雖然對(duì)于8B參數(shù)模型來(lái)說(shuō),Chinchilla-optimal的訓(xùn)練計(jì)算量對(duì)應(yīng)約200B標(biāo)記,但我們發(fā)現(xiàn),即使在模型訓(xùn)練了兩個(gè)數(shù)量級(jí)的數(shù)據(jù)后,模型性能仍然會(huì)持續(xù)提高。我們的8B和70B參數(shù)模型在訓(xùn)練了高達(dá)15T標(biāo)記后仍然呈對(duì)數(shù)線性改善。較大的模型可以通過(guò)更少的訓(xùn)練計(jì)算量達(dá)到這些較小模型的性能水平,但一般更喜歡較小模型,因?yàn)樗鼈冊(cè)谕评磉^(guò)程中更加高效。
為了訓(xùn)練我們最大的Llama 3模型,我們結(jié)合了三種并行化方式:數(shù)據(jù)并行化、模型并行化和流水線并行化。我們最有效的實(shí)現(xiàn)在同時(shí)使用16K個(gè)GPU進(jìn)行訓(xùn)練時(shí),每個(gè)GPU的計(jì)算利用率超過(guò)400 TFLOPS。我們?cè)趦蓚€(gè)定制的24K GPU集群上進(jìn)行了訓(xùn)練。為了最大程度地提高GPU的正常運(yùn)行時(shí)間,我們開(kāi)發(fā)了一個(gè)先進(jìn)的新訓(xùn)練堆棧,自動(dòng)化錯(cuò)誤檢測(cè)、處理和維護(hù)。我們還大大提高了硬件的可靠性,并針對(duì)無(wú)聲數(shù)據(jù)損壞開(kāi)發(fā)了新的可擴(kuò)展存儲(chǔ)系統(tǒng),減少了檢查點(diǎn)和回滾的開(kāi)銷(xiāo)。這些改進(jìn)使得我們的訓(xùn)練時(shí)間的整體有效率超過(guò)95%。綜合來(lái)看,這些改進(jìn)使得Llama 3的訓(xùn)練效率相比Llama 2提高了大約三倍。
指導(dǎo)微調(diào)
為了充分釋放我們預(yù)訓(xùn)練模型在聊天用例中的潛力,我們也對(duì)指導(dǎo)微調(diào)的方法進(jìn)行了創(chuàng)新。我們的后訓(xùn)練方法是監(jiān)督微調(diào)(SFT)、拒絕抽樣、近端策略?xún)?yōu)化(PPO)和直接策略?xún)?yōu)化(DPO)的組合。在SFT中使用的提示質(zhì)量以及在PPO和DPO中使用的偏好排名對(duì)齊模型的表現(xiàn)有著極大的影響。我們?cè)谀P唾|(zhì)量方面的一些最大改進(jìn)來(lái)自于精心策劃這些數(shù)據(jù),并對(duì)人類(lèi)標(biāo)注者提供的注釋進(jìn)行多輪質(zhì)量保證。
通過(guò)PPO和DPO學(xué)習(xí)偏好排名也極大地提高了Llama 3在推理和編碼任務(wù)上的表現(xiàn)。我們發(fā)現(xiàn),如果向模型提出它難以回答的推理問(wèn)題,模型有時(shí)會(huì)產(chǎn)生正確的推理追蹤:模型知道如何產(chǎn)生正確的答案,但不知道如何選擇它。通過(guò)偏好排名的訓(xùn)練,模型可以學(xué)會(huì)如何選擇正確的答案。
利用Llama 3構(gòu)建
我們的愿景是讓開(kāi)發(fā)者能夠定制Llama 3以支持相關(guān)的用例,并使采用最佳實(shí)踐和改進(jìn)開(kāi)放生態(tài)系統(tǒng)變得更加容易。通過(guò)這一發(fā)布,我們提供了新的信任和安全工具,包括更新的組件,其中包括Llama Guard 2和Cybersec Eval 2,以及Code Shield的引入——這是一個(gè)推理時(shí)的護(hù)欄,用于過(guò)濾LLM生成的不安全代碼。
我們還與torchtune共同開(kāi)發(fā)了Llama 3,這是一個(gè)新的PyTorch原生庫(kù),用于輕松編寫(xiě)、微調(diào)和實(shí)驗(yàn)LLM。torchtune提供了內(nèi)存高效和可修改的訓(xùn)練配方,完全由PyTorch編寫(xiě)。該庫(kù)與Hugging Face、Weights & Biases和EleutherAI等流行平臺(tái)集成,甚至支持Executorch,以在各種移動(dòng)和邊緣設(shè)備上運(yùn)行高效推理。無(wú)論是從提示工程到使用LangChain與Llama 3,我們都有全面的入門(mén)指南,引導(dǎo)您從下載Llama 3一直到在您的生成式AI應(yīng)用程序中實(shí)現(xiàn)規(guī)模化部署。
責(zé)任的系統(tǒng)級(jí)方法
我們?cè)O(shè)計(jì)Llama 3模型旨在最大程度地提供幫助,同時(shí)確保在負(fù)責(zé)任地部署它們方面處于行業(yè)領(lǐng)先地位。為實(shí)現(xiàn)這一目標(biāo),我們采用了一種新的、系統(tǒng)級(jí)的方法來(lái)負(fù)責(zé)任地開(kāi)發(fā)和部署Llama。我們將Llama模型視為更廣泛系統(tǒng)的一部分,這個(gè)系統(tǒng)讓開(kāi)發(fā)者掌控主導(dǎo)權(quán)。Llama模型將作為開(kāi)發(fā)者根據(jù)其獨(dú)特的終極目標(biāo)設(shè)計(jì)的系統(tǒng)的基礎(chǔ)部分。
指導(dǎo)微調(diào)在確保我們模型安全性方面也起著重要作用。我們通過(guò)內(nèi)部和外部努力對(duì)我們的指導(dǎo)微調(diào)模型進(jìn)行了紅隊(duì)測(cè)試以確保安全。我們的紅隊(duì)測(cè)試方法利用人類(lèi)專(zhuān)家和自動(dòng)化方法生成試圖引發(fā)問(wèn)題響應(yīng)的對(duì)抗提示。例如,我們應(yīng)用全面的測(cè)試來(lái)評(píng)估與化學(xué)、生物、網(wǎng)絡(luò)安全和其他風(fēng)險(xiǎn)領(lǐng)域相關(guān)的濫用風(fēng)險(xiǎn)。所有這些努力都是迭代的,并用于指導(dǎo)發(fā)布模型的安全微調(diào)。您可以在模型卡中了解更多關(guān)于我們努力的信息。
Llama Guard模型旨在成為提示和響應(yīng)安全的基礎(chǔ),并可以根據(jù)應(yīng)用需求輕松進(jìn)行微調(diào)以創(chuàng)建新的分類(lèi)法。作為起點(diǎn),新的Llama Guard 2使用了最近宣布的MLCommons分類(lèi)法,以支持這一重要領(lǐng)域的行業(yè)標(biāo)準(zhǔn)的出現(xiàn)。此外,CyberSecEval 2通過(guò)增加對(duì)LLM允許濫用其代碼解釋器的傾向、攻擊性網(wǎng)絡(luò)安全能力以及易受提示注入攻擊的度量,擴(kuò)展了其前身。最后,我們引入了Code Shield,它增加了對(duì)由LLM生成的不安全代碼的推理時(shí)間過(guò)濾支持。這提供了對(duì)不安全代碼建議、代碼解釋器濫用預(yù)防以及安全命令執(zhí)行的風(fēng)險(xiǎn)的緩解。
隨著生成式AI領(lǐng)域的發(fā)展速度,我們認(rèn)為開(kāi)放式方法是將生態(tài)系統(tǒng)匯聚在一起并減輕這些潛在危害的重要方式。作為其中的一部分,我們正在更新我們的負(fù)責(zé)任使用指南(RUG),該指南提供了使用LLM進(jìn)行負(fù)責(zé)任開(kāi)發(fā)的綜合指南。正如我們?cè)赗UG中概述的那樣,我們建議根據(jù)應(yīng)用程序的內(nèi)容指南檢查和過(guò)濾所有輸入和輸出。此外,許多云服務(wù)提供商提供內(nèi)容審查API和其他工具,用于負(fù)責(zé)任的部署,我們鼓勵(lì)開(kāi)發(fā)人員也考慮使用這些選項(xiàng)。
規(guī)?;渴餖lama 3
Llama 3將很快在包括云服務(wù)提供商、模型API提供商等在內(nèi)的所有主要平臺(tái)上提供。Llama 3將無(wú)處不在。
我們的基準(zhǔn)測(cè)試顯示,與Llama 2相比,分詞器提供了改進(jìn)的標(biāo)記效率,產(chǎn)生的標(biāo)記數(shù)量減少了多達(dá)15%。此外,現(xiàn)在已將Group Query Attention(GQA)添加到Llama 3的8B模型中。因此,盡管與Llama 2 7B相比,該模型參數(shù)多出了10億個(gè),但改進(jìn)的分詞器效率和GQA有助于保持與Llama 2 7B相當(dāng)?shù)耐评硇省?/p>
要了解如何利用所有這些功能的示例,請(qǐng)查看Llama Recipes,其中包含了我們所有的開(kāi)源代碼,可以用于從微調(diào)到部署再到模型評(píng)估的各個(gè)方面。
Llama 3的下一步是什么?
Llama 3的8B和70B模型標(biāo)志著我們計(jì)劃為L(zhǎng)lama 3發(fā)布的開(kāi)始。而且還有更多的內(nèi)容即將推出。
我們最大的模型超過(guò)了400B參數(shù),雖然這些模型仍在訓(xùn)練中,但我們的團(tuán)隊(duì)對(duì)它們的發(fā)展趨勢(shì)感到興奮。在未來(lái)幾個(gè)月,我們將發(fā)布多個(gè)具有新功能的模型,包括多模態(tài)、能夠使用多種語(yǔ)言進(jìn)行對(duì)話、更長(zhǎng)的上下文窗口以及更強(qiáng)大的整體功能。一旦Llama 3的訓(xùn)練完成,我們還將發(fā)布一份詳細(xì)的研究論文。
為了讓您提前了解這些模型在繼續(xù)訓(xùn)練時(shí)的情況,我們想與您分享我們最大的LLM模型的一些趨勢(shì)快照。請(qǐng)注意,這些數(shù)據(jù)基于Llama 3的早期檢查點(diǎn),該模型仍在訓(xùn)練中,并且這些功能不是今天發(fā)布的模型的一部分。
我們致力于持續(xù)發(fā)展和建設(shè)開(kāi)放的人工智能生態(tài)系統(tǒng),以負(fù)責(zé)任地發(fā)布我們的模型。我們長(zhǎng)期以來(lái)堅(jiān)信,開(kāi)放性能夠帶來(lái)更好、更安全的產(chǎn)品,促進(jìn)更快的創(chuàng)新,也有利于整個(gè)市場(chǎng)的健康發(fā)展。這對(duì)Meta來(lái)說(shuō)是一件好事,也是對(duì)社會(huì)的福祉有益的。我們采取了以社區(qū)為先的方法來(lái)處理Llama 3,從今天開(kāi)始,這些模型將在領(lǐng)先的云、托管和硬件平臺(tái)上提供,并將有更多的平臺(tái)加入。
立即體驗(yàn)Meta Llama 3
我們已將最新的模型集成到Meta AI中,我們相信它是世界領(lǐng)先的人工智能助手?,F(xiàn)在它采用了Llama 3技術(shù),并在我們的應(yīng)用程序中更多國(guó)家可用。
您可以在Facebook、Instagram、WhatsApp、Messenger和Web上使用Meta AI來(lái)完成任務(wù)、學(xué)習(xí)、創(chuàng)造,并與對(duì)您重要的事物進(jìn)行連接。您可以在此了解更多關(guān)于Meta AI的體驗(yàn)。
訪問(wèn)Llama 3網(wǎng)站下載模型,并參考入門(mén)指南,獲取所有可用平臺(tái)的最新列表。
您也將很快能夠在我們的Ray-Ban Meta智能眼鏡上測(cè)試多模式Meta AI。文章來(lái)源:http://www.zghlxwxcb.cn/news/detail-855855.html
像往常一樣,我們期待著看到您用Meta Llama 3構(gòu)建的所有精彩產(chǎn)品和體驗(yàn)。文章來(lái)源地址http://www.zghlxwxcb.cn/news/detail-855855.html
- https://huggingface.co/blog/llama3)
- https://ai.meta.com/blog/meta-llama-3/
- https://llama.meta.com/llama3/
- https://github.com/meta-llama/llama3
- 本文
- 博客 - 從零開(kāi)始學(xué)AI
- 微信 - 從零開(kāi)始學(xué)AI
- CSDN - 從零開(kāi)始學(xué)AI
- 知乎 - 從零開(kāi)始學(xué)AI
- 阿里云 - 從零開(kāi)始學(xué)AI
- 騰訊云 - 從零開(kāi)始學(xué)AI
到了這里,關(guān)于[AI Meta Llama-3] 最強(qiáng)開(kāi)源大模型Llama 3發(fā)布!的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!