国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

Meta語(yǔ)音達(dá)LLaMA級(jí)里程碑!開(kāi)源MMS模型可識(shí)別1100+語(yǔ)言

這篇具有很好參考價(jià)值的文章主要介紹了Meta語(yǔ)音達(dá)LLaMA級(jí)里程碑!開(kāi)源MMS模型可識(shí)別1100+語(yǔ)言。希望對(duì)大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請(qǐng)大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問(wèn)。

【新智元導(dǎo)讀】Meta的大規(guī)模多語(yǔ)言語(yǔ)音 (MMS) 項(xiàng)目將徹底改變語(yǔ)音技術(shù),使用wav2vec 2.0的自監(jiān)督學(xué)習(xí),MMS將語(yǔ)音技術(shù)擴(kuò)展到1100到4000種語(yǔ)言。

在語(yǔ)音方面,Meta又達(dá)到了另一個(gè)LLaMA級(jí)的里程碑。

今天,Meta推出了一個(gè)名為MMS的大規(guī)模多語(yǔ)言語(yǔ)音項(xiàng)目,它將徹底改變語(yǔ)音技術(shù)。

MMS支持1000多種語(yǔ)言,用圣經(jīng)訓(xùn)練,錯(cuò)誤率僅為Whisper數(shù)據(jù)集的一半。

只憑一個(gè)模型,Meta就建起了一座巴別塔。

并且,Meta選擇將所有模型和代碼開(kāi)源,希望為保護(hù)世界語(yǔ)種的多樣性做出貢獻(xiàn)。

Meta語(yǔ)音達(dá)LLaMA級(jí)里程碑!開(kāi)源MMS模型可識(shí)別1100+語(yǔ)言

在此之前的模型可以覆蓋大約100種語(yǔ)言,而這次,MMS直接把這個(gè)數(shù)字增加了10-40倍!

具體來(lái)說(shuō),Meta開(kāi)放了1100多種語(yǔ)言的多語(yǔ)種語(yǔ)音識(shí)別/合成模型,以及4000多種語(yǔ)言的語(yǔ)音識(shí)別模型。

與OpenAI Whisper相比,多語(yǔ)言ASR模型支持11倍以上的語(yǔ)言,但在54種語(yǔ)言上的平均錯(cuò)誤率還不到FLEURS的一半。

而且,將ASR擴(kuò)展到如此多語(yǔ)言之后,只造成了非常小的性能下降。

Meta語(yǔ)音達(dá)LLaMA級(jí)里程碑!開(kāi)源MMS模型可識(shí)別1100+語(yǔ)言

論文地址:https://research.facebook.com/publications/scaling-speech-technology-to-1000-languages/

保護(hù)消失語(yǔ)種,MMS把語(yǔ)音識(shí)別增加40倍

讓機(jī)器具備識(shí)別和產(chǎn)生語(yǔ)音的能力,可以讓更多人獲得信息。

然而,為這些任務(wù)生成高質(zhì)量的機(jī)器學(xué)習(xí)模型,就需要大量的標(biāo)記數(shù)據(jù),比如數(shù)千小時(shí)的音頻以及轉(zhuǎn)錄——對(duì)于大多數(shù)語(yǔ)言來(lái)說(shuō),這種數(shù)據(jù)根本就不存在。

現(xiàn)有的語(yǔ)音識(shí)別模型,只涵蓋了大約100種語(yǔ)言,在地球上的7000多種已知語(yǔ)言中,這只占很小一部分。令人擔(dān)憂的是,在我們有生之年,這些語(yǔ)言中有一半都面臨著消失的危險(xiǎn)。

在Massively Multilingual Speech(MMS)項(xiàng)目中,研究者通過(guò)結(jié)合wav2vec 2.0(Meta在自監(jiān)督學(xué)習(xí)方面的開(kāi)創(chuàng)性工作)和一個(gè)新的數(shù)據(jù)集來(lái)克服了一些挑戰(zhàn)。

這個(gè)數(shù)據(jù)集提供了超過(guò)1100種語(yǔ)言的標(biāo)記數(shù)據(jù),和近4000種語(yǔ)言的未標(biāo)記數(shù)據(jù)。

Meta語(yǔ)音達(dá)LLaMA級(jí)里程碑!開(kāi)源MMS模型可識(shí)別1100+語(yǔ)言

通過(guò)跨語(yǔ)言訓(xùn)練,wav2vec 2.0學(xué)習(xí)了多種語(yǔ)言中使用的語(yǔ)音單元

其中一些語(yǔ)言,如Tatuyo語(yǔ),只有幾百個(gè)使用者,而數(shù)據(jù)集中的大多數(shù)語(yǔ)言,以前根本就不存在語(yǔ)音技術(shù)。

而結(jié)果顯示,MMS模型的性能優(yōu)于現(xiàn)有的模型,覆蓋語(yǔ)言的數(shù)量是現(xiàn)有模型的10倍。

Meta一向?qū)W⒂诙嗾Z(yǔ)言工作:在文本上,Meta的NLLB項(xiàng)目將多語(yǔ)言翻譯擴(kuò)展到了200種語(yǔ)言,而MMS項(xiàng)目,則將語(yǔ)音技術(shù)擴(kuò)展到更多語(yǔ)言。

Meta語(yǔ)音達(dá)LLaMA級(jí)里程碑!開(kāi)源MMS模型可識(shí)別1100+語(yǔ)言

MMS支持1,107種語(yǔ)言的語(yǔ)音轉(zhuǎn)文本和文本轉(zhuǎn)語(yǔ)音,支持4,000多種語(yǔ)言的識(shí)別

圣經(jīng)解決語(yǔ)音數(shù)據(jù)集難題

收集數(shù)千種語(yǔ)言的音頻數(shù)據(jù)并不是一件簡(jiǎn)單的事情,這也是Meta的研究人員面臨的第一個(gè)挑戰(zhàn)。

要知道,現(xiàn)有的最大語(yǔ)音數(shù)據(jù)集最多也只涵蓋了100種語(yǔ)言。為了克服這個(gè)問(wèn)題,研究人員轉(zhuǎn)向了宗教文本,如《圣經(jīng)》。

這類(lèi)文本已經(jīng)被翻譯成許多不同的語(yǔ)言,被用于廣泛的研究,還有各種公開(kāi)的錄音。

為此,Meta的研究者專(zhuān)門(mén)創(chuàng)建了一個(gè)超過(guò)1100種語(yǔ)言的《新約》閱讀數(shù)據(jù)集,平均每種語(yǔ)言提供32小時(shí)的數(shù)據(jù)。

再加上其他各種宗教讀物的無(wú)標(biāo)簽錄音,研究者將可用的語(yǔ)言數(shù)量增加到了4000多種。

Meta語(yǔ)音達(dá)LLaMA級(jí)里程碑!開(kāi)源MMS模型可識(shí)別1100+語(yǔ)言

在MMS數(shù)據(jù)上訓(xùn)練的自動(dòng)語(yǔ)音識(shí)別模型,在FLEURS基準(zhǔn)測(cè)試中,對(duì)男性和女性說(shuō)話者具有相似的錯(cuò)誤率

這些數(shù)據(jù)通常是由男性朗讀的,但模型對(duì)男性和女性的聲音表現(xiàn)得同樣好。

并且,雖然錄音的內(nèi)容是宗教性的,但這并沒(méi)有使模型過(guò)度偏向于產(chǎn)生更多的宗教語(yǔ)言。

研究人員分析認(rèn)為,這是因?yàn)樗麄兪褂昧诉B接主義時(shí)間分類(lèi)方法,與用于語(yǔ)音識(shí)別的大語(yǔ)言模型或序列對(duì)序列模型相比,它的約束性要大得多。

模型越大,越能打?

研究人員首先對(duì)數(shù)據(jù)進(jìn)行了預(yù)處理,以提高數(shù)據(jù)的質(zhì)量,并使其能被機(jī)器學(xué)習(xí)算法所利用。

為此,研究人員在100多種語(yǔ)言的現(xiàn)有數(shù)據(jù)上訓(xùn)練了一個(gè)對(duì)齊模型,并將這個(gè)模型與一個(gè)高效的強(qiáng)制對(duì)齊算法一起使用,而該算法可以處理大約20分鐘或更長(zhǎng)時(shí)間的錄音。

研究人員多次重復(fù)了這個(gè)過(guò)程,并根據(jù)模型的準(zhǔn)確性進(jìn)行了最后的交叉驗(yàn)證過(guò)濾步驟,為的是去除潛在的錯(cuò)誤對(duì)齊數(shù)據(jù)。

為了使其他研究人員能夠創(chuàng)建新的語(yǔ)音數(shù)據(jù)集,研究人員將對(duì)齊算法添加到了PyTorch中并發(fā)布了對(duì)齊模型。

目前,每種語(yǔ)言都有32小時(shí)的數(shù)據(jù),但這并不足以訓(xùn)練傳統(tǒng)的監(jiān)督式語(yǔ)音識(shí)別模型。

這也就是為什么研究人員在wav2vec 2.0上訓(xùn)練模型,這樣可以大大減少訓(xùn)練一個(gè)模型所需的標(biāo)注數(shù)據(jù)量。

具體來(lái)說(shuō),研究人員在超過(guò)1400種語(yǔ)言的約50萬(wàn)小時(shí)的語(yǔ)音數(shù)據(jù)上訓(xùn)練了自監(jiān)督模型——這個(gè)量比過(guò)去多了近5倍。

然后針對(duì)特定的語(yǔ)音任務(wù),如多語(yǔ)言語(yǔ)音識(shí)別或語(yǔ)言識(shí)別,研究人員再對(duì)模型進(jìn)行微調(diào)即可。

為了更好地了解在大規(guī)模多語(yǔ)言語(yǔ)音數(shù)據(jù)上訓(xùn)練的模型的表現(xiàn),研究人員在現(xiàn)有的基準(zhǔn)數(shù)據(jù)集上對(duì)它們進(jìn)行了評(píng)估。

研究人員使用一個(gè)1B參數(shù)的wav2vec 2.0模型對(duì)超過(guò)1100種語(yǔ)言進(jìn)行多語(yǔ)言語(yǔ)音識(shí)別模型的訓(xùn)練。

隨著語(yǔ)言數(shù)量的增加,性能確實(shí)有所下降,但這種下降比較輕微——從61種語(yǔ)言到1107種語(yǔ)言,字符錯(cuò)誤率只增加了約0.4%,但語(yǔ)言覆蓋率卻增加了18倍以上。

Meta語(yǔ)音達(dá)LLaMA級(jí)里程碑!開(kāi)源MMS模型可識(shí)別1100+語(yǔ)言

將每個(gè)系統(tǒng)支持的語(yǔ)言數(shù)量從61增加到1,107 時(shí),使用MMS數(shù)據(jù)訓(xùn)練的多語(yǔ)言識(shí)別系統(tǒng)的61種FLEURS語(yǔ)言的錯(cuò)誤率。錯(cuò)誤率越高表示性能越低

在與OpenAI的Whisper進(jìn)行同類(lèi)比較時(shí),研究人員發(fā)現(xiàn),在Massively Multilingual Speech數(shù)據(jù)上訓(xùn)練的模型有將近一半的單詞錯(cuò)誤率,但Massively Multilingual Speech涵蓋的語(yǔ)言是Whisper的11倍。

從數(shù)據(jù)中我們可以看出,與目前最好的語(yǔ)音模型相比,Meta的模型表現(xiàn)的真的非常不錯(cuò)。

Meta語(yǔ)音達(dá)LLaMA級(jí)里程碑!開(kāi)源MMS模型可識(shí)別1100+語(yǔ)言

OpenAI Whisper與Massively Multilingual Speech在54種FLEURS語(yǔ)言上的單詞錯(cuò)誤率對(duì)比

接下來(lái),研究人員使用自己的以及現(xiàn)有的數(shù)據(jù)集,如FLEURS和CommonVoice,為超過(guò)4000種語(yǔ)言訓(xùn)練了一個(gè)語(yǔ)言識(shí)別(LID)模型,并在FLEURS LID任務(wù)上對(duì)其進(jìn)行了評(píng)估。

事實(shí)證明,哪怕支持了將近40倍的語(yǔ)言數(shù)量,性能依然很能打。

Meta語(yǔ)音達(dá)LLaMA級(jí)里程碑!開(kāi)源MMS模型可識(shí)別1100+語(yǔ)言

在現(xiàn)有工作的VoxLingua-107基準(zhǔn)上的語(yǔ)言識(shí)別準(zhǔn)確性,支持的語(yǔ)言剛剛超過(guò)100種,而MMS則支持超過(guò)4000種語(yǔ)言

研究人員還為超過(guò)1100種語(yǔ)言建立了文本轉(zhuǎn)語(yǔ)音的系統(tǒng)。

大規(guī)模多語(yǔ)種語(yǔ)音數(shù)據(jù)有一個(gè)局限性,那就是對(duì)于許多語(yǔ)言來(lái)說(shuō),它包含的不同說(shuō)話者數(shù)量相對(duì)較少,通常只有一個(gè)說(shuō)話者。

然而,這個(gè)特點(diǎn)對(duì)于建立文本到語(yǔ)音系統(tǒng)來(lái)說(shuō)是一個(gè)優(yōu)勢(shì),因此研究人員為超過(guò)1100種語(yǔ)言訓(xùn)練了類(lèi)似系統(tǒng)。

結(jié)果表明,這些系統(tǒng)產(chǎn)生的語(yǔ)音質(zhì)量還算不錯(cuò)。

,時(shí)長(zhǎng)00:44

未來(lái)屬于單一模型

Meta的研究人員對(duì)這個(gè)結(jié)果感到很滿意,但與所有新興的AI技術(shù)一樣,Meta目前的模型并不算完美。

比方說(shuō),語(yǔ)音到文本模型可能會(huì)誤寫(xiě)選定的單詞或短語(yǔ),可能會(huì)導(dǎo)致冒犯性的或者不準(zhǔn)確的輸出結(jié)果。

同時(shí),Meta認(rèn)為,AI巨頭的合作對(duì)于負(fù)責(zé)任的AI技術(shù)的發(fā)展至關(guān)重要。

世界上的許多語(yǔ)言都有消失的危險(xiǎn),而目前語(yǔ)音識(shí)別和語(yǔ)音生成技術(shù)的局限性只會(huì)加速這一趨勢(shì)。

研究人員設(shè)想一個(gè)技術(shù)產(chǎn)生相反效果的世界,鼓勵(lì)人們保持其語(yǔ)言的活力,因?yàn)樗麄兛梢酝ㄟ^(guò)說(shuō)自己喜歡的語(yǔ)言來(lái)獲取信息和使用技術(shù)。

大規(guī)模多語(yǔ)言語(yǔ)音項(xiàng)目是朝著這個(gè)方向邁出的重要一步。

在未來(lái),研究人員希望進(jìn)一步增加語(yǔ)言的覆蓋面,支持更多的語(yǔ)言,甚至還會(huì)想辦法搞定方言。要知道,方言對(duì)現(xiàn)有的語(yǔ)音技術(shù)來(lái)說(shuō)可不簡(jiǎn)單。

Meta的最終目標(biāo)是讓人們能更容易地用自己喜歡的語(yǔ)言獲取信息、使用設(shè)備。

最后,Meta的研究人員還設(shè)想了這樣一個(gè)未來(lái)場(chǎng)景——靠一個(gè)單一的模型就可以解決所有語(yǔ)言的幾個(gè)語(yǔ)音任務(wù)。

目前雖然Meta為語(yǔ)音識(shí)別、語(yǔ)音合成和語(yǔ)言識(shí)別訓(xùn)練了單獨(dú)的模型,但研究人員相信,在未來(lái),只需一個(gè)模型就能完成所有這些任務(wù),甚至不止。

參考資料:

https://ai.facebook.com/blog/multilingual-model-speech-recognition/文章來(lái)源地址http://www.zghlxwxcb.cn/news/detail-489779.html

到了這里,關(guān)于Meta語(yǔ)音達(dá)LLaMA級(jí)里程碑!開(kāi)源MMS模型可識(shí)別1100+語(yǔ)言的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來(lái)自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場(chǎng)。本站僅提供信息存儲(chǔ)空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請(qǐng)注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請(qǐng)點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • ChatGPT:開(kāi)啟智能新紀(jì)元的里程碑

    ChatGPT:開(kāi)啟智能新紀(jì)元的里程碑

    在人工智能領(lǐng)域,每一次技術(shù)的飛躍都預(yù)示著一次新的革命。而ChatGPT的出現(xiàn),無(wú)疑是這場(chǎng)革命中的一道亮麗風(fēng)景線。它不僅代表了當(dāng)前人工智能語(yǔ)言處理能力的巔峰,更標(biāo)志著一個(gè)全新智能時(shí)代的開(kāi)端。那么,我們是否可以將其譽(yù)為“未來(lái)人工智能的開(kāi)山之作”呢? ? 從技

    2024年02月22日
    瀏覽(19)
  • 超級(jí)國(guó)際象棋:第二個(gè)里程碑已完成

    超級(jí)國(guó)際象棋:第二個(gè)里程碑已完成

    獲取Cartesi資助的項(xiàng)目的最新進(jìn)展,現(xiàn)在將完全去中心化的Web3國(guó)際象棋帶到你的手中 “Ultrachess是一個(gè)完全基于區(qū)塊鏈的國(guó)際象棋應(yīng)用程序,由Cartesi Rollup技術(shù)支持,允許用戶將真實(shí)價(jià)值投入到比賽中,不僅僅是他們的Elo分?jǐn)?shù)。 nbsp; 此外,Ultrachess引入了一個(gè)在當(dāng)前國(guó)際象棋范

    2024年02月12日
    瀏覽(18)
  • 人工智能里程碑ChatGPT之最全詳解圖解

    人工智能里程碑ChatGPT之最全詳解圖解

    2022年11月30日,美國(guó)硅谷的初創(chuàng)公司OpenAI推出了名為ChatGPT的AI聊天機(jī)器人,已經(jīng)擁有超過(guò)一百萬(wàn)的用戶,受到熱烈的討論,短短幾天就火爆全網(wǎng)。它既能完成包括寫(xiě)代碼,查BUG,翻譯文獻(xiàn),寫(xiě)小說(shuō),寫(xiě)商業(yè)文案,寫(xiě)游戲策劃,作詩(shī)等一系列常見(jiàn)文字輸出型任務(wù),也可以在和用

    2023年04月08日
    瀏覽(34)
  • 3.0里程碑:Topomel Box 現(xiàn)已在微軟商店可用

    3.0里程碑:Topomel Box 現(xiàn)已在微軟商店可用

    猿友好! 我的程序 Topomel Box 的第三個(gè)版本(3.0)正式上架微軟商店。通過(guò)微軟商店這個(gè)統(tǒng)一的分發(fā)渠道,Topomel Box 有望與更多國(guó)家的用戶見(jiàn)面并提供服務(wù)。 安裝方法很簡(jiǎn)單,只需要打開(kāi)微軟商店(Microsoft Store),并搜索”topomel”,即可找到它。 搜索到 Topomel Box: 點(diǎn)擊

    2024年02月09日
    瀏覽(33)
  • 3DES算法的起源與演進(jìn):保障信息安全的重要里程碑

    3DES算法的起源與演進(jìn):保障信息安全的重要里程碑

    3DES算法是DES算法的增強(qiáng)版,由IBM公司在上世紀(jì)90年代初提出。DES算法的密鑰長(zhǎng)度只有56位,隨著計(jì)算機(jī)計(jì)算能力的提升,其安全性逐漸受到威脅。為了增強(qiáng)數(shù)據(jù)的安全性,3DES算法采用了三次DES算法的迭代加密過(guò)程,使得密鑰長(zhǎng)度增加到168位。這一改進(jìn)大大提高了數(shù)據(jù)的安全性

    2024年03月09日
    瀏覽(21)
  • 甘特圖組件DHTMLX Gantt用例 - 如何拆分任務(wù)和里程碑項(xiàng)目路線圖

    甘特圖組件DHTMLX Gantt用例 - 如何拆分任務(wù)和里程碑項(xiàng)目路線圖

    創(chuàng)建一致且引人注意的視覺(jué)樣式是任何項(xiàng)目管理應(yīng)用程序的重要要求,這就是為什么我們會(huì)在這個(gè)系列中繼續(xù)探索DHTMLX Gantt圖庫(kù)的自定義。在本文中我們將考慮一個(gè)新的甘特圖定制場(chǎng)景,DHTMLX Gantt組件如何創(chuàng)建一個(gè)項(xiàng)目路線圖。 DHTMLX Gantt正式版下載 用例 - 帶有自定義時(shí)間尺

    2024年02月05日
    瀏覽(33)
  • Nautilus Chain測(cè)試網(wǎng)迎階段性里程碑,模塊化區(qū)塊鏈拉開(kāi)新序幕

    Nautilus Chain測(cè)試網(wǎng)迎階段性里程碑,模塊化區(qū)塊鏈拉開(kāi)新序幕

    Nautilus?Chain?是目前行業(yè)內(nèi)少有的真實(shí)實(shí)踐的?Layer3?模塊化鏈,該鏈曾在幾個(gè)月前上線了測(cè)試網(wǎng),并接受用戶測(cè)試交互。該鏈目前正處于測(cè)試網(wǎng)階段,并即將在不久上線主網(wǎng),這也將是行業(yè)內(nèi)首個(gè)正式上線的模塊化區(qū)塊鏈底層。 而在上個(gè)月,Nautilus?Chain?測(cè)試網(wǎng)迎來(lái)了階段性

    2024年02月09日
    瀏覽(22)
  • Covalent Network(CQT)發(fā)展新里程碑:SOC 2 數(shù)據(jù)安全認(rèn)證通過(guò),進(jìn)一步加強(qiáng)了其人工智能支持

    Covalent Network(CQT)發(fā)展新里程碑:SOC 2 數(shù)據(jù)安全認(rèn)證通過(guò),進(jìn)一步加強(qiáng)了其人工智能支持

    Covalent Network(CQT)現(xiàn)已完成并通過(guò)了嚴(yán)格的 Service Organization Control(SOC) 2 Type II 的合規(guī)性審計(jì),通過(guò)由備受行業(yè)認(rèn)可的機(jī)構(gòu)執(zhí)行,進(jìn)一步證明了 Covalent Network(CQT)團(tuán)隊(duì)堅(jiān)定不移地致力于遵守最嚴(yán)格的 AICPA 信任服務(wù)標(biāo)準(zhǔn),涵蓋了安全性、機(jī)密性、可用性和隱私領(lǐng)域。 Covalent

    2024年02月22日
    瀏覽(23)
  • [AI Meta Llama-3] 最強(qiáng)開(kāi)源大模型Llama 3發(fā)布!

    [AI Meta Llama-3] 最強(qiáng)開(kāi)源大模型Llama 3發(fā)布!

    最強(qiáng)開(kāi)源大模型Llama 3發(fā)布!我們看下重點(diǎn): 今天,我們介紹Meta Llama 3,這是我們最先進(jìn)的開(kāi)源大型語(yǔ)言模型的下一代。 Llama 3模型很快將在AWS、Databricks、Google Cloud、Hugging Face、Kaggle、IBM WatsonX、Microsoft Azure、NVIDIA NIM和Snowflake上提供,并得到AMD、AWS、戴爾、英特爾、NVIDIA和高

    2024年04月23日
    瀏覽(32)
  • Meta發(fā)布升級(jí)大模型LLaMA 2:開(kāi)源可商用

    Meta發(fā)布升級(jí)大模型LLaMA 2:開(kāi)源可商用

    論文地址 :https://ai.meta.com/research/publications/llama-2-open-foundation-and-fine-tuned-chat-models/? Github 地址 :https://github.com/facebookresearch/llama LLaMA 2介紹 ? ? ??Meta之前發(fā)布自了半開(kāi)源的大模型LLaMA,自從LLaMA發(fā)布以來(lái),基于它的擴(kuò)展模型就層出不窮,尤其是羊駝系列,我最近正在總結(jié)這

    2024年02月16日
    瀏覽(17)

覺(jué)得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請(qǐng)作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包