每周跟蹤AI熱點新聞動向和震撼發(fā)展 想要探索生成式人工智能的前沿進展嗎?訂閱我們的簡報,深入解析最新的技術(shù)突破、實際應(yīng)用案例和未來的趨勢。與全球數(shù)同行一同,從行業(yè)內(nèi)部的深度分析和實用指南中受益。不要錯過這個機會,成為AI領(lǐng)域的領(lǐng)跑者。點擊訂閱,與未來同行! 訂閱:https://rengongzhineng.io/
來這里看看: https://huggingface.co/microsoft/phi-2
當我們談?wù)撆c生成性人工智能(AI)相關(guān)的語言模型時,我們通常首先想到的是大型語言模型(LLM),這些模型驅(qū)動了大多數(shù)流行的聊天機器人,例如ChatGPT、Bard和Copilot。然而,微軟的新型語言模型Phi-2展示了小型語言模型(SLM)在生成性AI領(lǐng)域也有巨大的潛力。
微軟于周三發(fā)布了Phi-2,這是一款能夠進行常識推理和語言理解的小型語言模型,現(xiàn)已在Azure AI Studio模型目錄中提供。盡管Phi-2被稱為“小型”,但它在模型中包含了27億參數(shù),遠超過Phi-1.5的13億參數(shù)。Phi-2在不到130億參數(shù)的語言模型中展現(xiàn)了“最先進的性能”,甚至在復(fù)雜基準測試中超越了規(guī)模大25倍的模型。Phi-2在多個不同的基準測試中超越了包括Meta的Llama-2、Mistral以及谷歌的Gemini Nano 2在內(nèi)的模型,Gemini Nano 2是谷歌最強大LLM的最小版本。
Phi-2的性能結(jié)果與微軟開發(fā)具有突破性能力和與大規(guī)模模型相當性能的SLM的目標一致。
微軟在訓練Phi-2時非常挑剔地選擇了數(shù)據(jù)。公司首先使用了所謂的“教科書質(zhì)量”數(shù)據(jù)。微軟隨后通過添加精心挑選的網(wǎng)絡(luò)數(shù)據(jù)來增強語言模型數(shù)據(jù)庫,這些數(shù)據(jù)在教育價值和內(nèi)容質(zhì)量上經(jīng)過了篩選。
那么,為什么微軟專注于SLM?
SLM是LLM的一種成本效益較高的替代品。在不需要LLM的強大能力來完成任務(wù)時,較小的模型也很有用。文章來源:http://www.zghlxwxcb.cn/news/detail-763302.html
此外,運行SLM所需的計算能力遠低于LLM。這種降低的要求意味著用戶不必投資昂貴的GPU來滿足他們的數(shù)據(jù)處理需求。文章來源地址http://www.zghlxwxcb.cn/news/detail-763302.html
到了這里,關(guān)于微軟近日推出了Phi-2,這是一款小型語言模型,但其性能卻十分強大的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!