?? AI新聞
?? Google DeepMind發(fā)布Imagen 2文字到圖像生成模型
摘要:谷歌的Imagen 2是一種先進(jìn)的文本到圖像技術(shù),可以生成與用戶提示緊密對(duì)齊的高質(zhì)量、逼真的圖像。它通過使用訓(xùn)練數(shù)據(jù)的自然分布來(lái)生成更逼真的圖像,而不是采用預(yù)先編程的風(fēng)格。該技術(shù)還改善了圖像-標(biāo)題的理解,通過增加圖像標(biāo)題的描述,使模型更好地理解上下文和細(xì)微差別。Imagen 2還具備靈活的風(fēng)格控制、高質(zhì)量圖像生成和圖像編輯能力。為了確保技術(shù)的安全性,谷歌在設(shè)計(jì)、開發(fā)和部署過程中設(shè)置了強(qiáng)大的安全措施,包括數(shù)字水印和安全過濾器等。
?? ChatGPT 偷懶事件引發(fā)關(guān)注
摘要:近期,ChatGPT偷懶事件引發(fā)了網(wǎng)友的廣泛關(guān)注。有人通過測(cè)試發(fā)現(xiàn),ChatGPT在12月的輸出平均少了200字符,引起了模仿人類放寒假的猜測(cè)。此外,還有研究表明ChatGPT的行為可能受到時(shí)間和溫度設(shè)置的影響。盡管還沒有確鑿的證據(jù)支持,但網(wǎng)友們對(duì)這一事件仍舊興趣高漲,并進(jìn)行了進(jìn)一步的探討和驗(yàn)證。整體評(píng)分為80分。
?? 微軟的Phi-2模型優(yōu)于谷歌的Gemini Nano-2模型
摘要:微軟公司發(fā)布的Phi-2 2.7B模型在性能方面優(yōu)于谷歌發(fā)布的Gemini Nano-2 3.2B。Phi-2擁有27億參數(shù),相較于之前版本有明顯提升,性能高出同類模型10倍。該模型基于高質(zhì)量數(shù)據(jù)進(jìn)行訓(xùn)練,在邏輯推理和安全性方面表現(xiàn)出顯著改進(jìn)。相比于其他主流語(yǔ)言模型雖然小很多,但通過正確微調(diào)和定制,小型語(yǔ)言模型仍然是云和邊緣應(yīng)用程序的強(qiáng)大工具。對(duì)比谷歌的Gemini Nano-2模型,Phi-2在多項(xiàng)性能上均表現(xiàn)優(yōu)越,甚至已經(jīng)超過了其他參數(shù)較大的模型。微軟的Phi-2模型在語(yǔ)言模型領(lǐng)域具有重要的新穎性和影響力。
?? 美圖推出移動(dòng)端 AI 生圖工具 WHEE,提供一站式 AI 視覺創(chuàng)作服務(wù)
摘要:美圖公司的移動(dòng)端AI生圖工具WHEE已經(jīng)上線,基于美圖MiracleVision大模型,提供了一站式的AI視覺創(chuàng)作服務(wù)。WHEE是一款在線生成的AI視覺創(chuàng)作工具,面向大眾用戶和專業(yè)視覺創(chuàng)作者,提供文生圖、圖生圖、畫面拓展及局部修改等AIGC圖像服務(wù)。此前,美圖公司推出了AI模型MiracleVision 4.0版本,新版本將于2024年1月陸續(xù)應(yīng)用于美圖旗下產(chǎn)品。這次推出的WHEE工具將進(jìn)一步豐富用戶的視覺創(chuàng)作體驗(yàn)。
?? 谷歌推出AI驅(qū)動(dòng)的代碼補(bǔ)全和生成工具Duet AI for Developers
摘要:谷歌宣布全面推出AI驅(qū)動(dòng)的代碼補(bǔ)全和生成工具Duet AI for Developers。該工具集成了來(lái)自25家合作伙伴公司的數(shù)據(jù)集,幫助開發(fā)人員完成特定平臺(tái)的應(yīng)用構(gòu)建等任務(wù)。Duet AI還整合了來(lái)自合作伙伴的文檔和知識(shí),幫助開發(fā)人員進(jìn)行測(cè)試自動(dòng)化、問題解決和漏洞修復(fù)等工作。此舉被谷歌定位為對(duì)開發(fā)人員編碼技能的補(bǔ)充,旨在提高生產(chǎn)力。Duet AI的使用者Turing在使用后收入增長(zhǎng)了33%。該工具目前支持20多種語(yǔ)言,提供了多項(xiàng)功能。Duet AI for Developers目前免費(fèi)提供,之后每月收費(fèi)19美元。
?? AI知識(shí)
?? 微軟在 HuggingFace 上發(fā)布了 Phi-2 的模型
Phi-2 的訓(xùn)練數(shù)據(jù)有 1.4 T 個(gè) token,在 96 塊 A100 GPU 上訓(xùn)練了 14 天。
Phi-2 是一個(gè)基礎(chǔ)模型,沒有經(jīng)過人類反饋強(qiáng)化學(xué)習(xí)(RLHF)的校準(zhǔn),也沒有進(jìn)行過指令式微調(diào)。
從能力上來(lái)說(shuō),據(jù)微軟自己公布的數(shù)據(jù):2.7B 的 Phi-2 超過了目前開源領(lǐng)域表現(xiàn)最好的 Mistral 和 Llama-2 7B 和 13B,編程能力甚至超過了 Llama-2-70B。
?? LLM API市場(chǎng)的競(jìng)爭(zhēng)與發(fā)展
這篇文章提到了LLM API市場(chǎng)的競(jìng)爭(zhēng)和發(fā)展趨勢(shì)。過去一年中,LLM市場(chǎng)出現(xiàn)了更多的競(jìng)爭(zhēng)對(duì)手,導(dǎo)致OpenAI失去了壟斷地位。在未來(lái),LLM市場(chǎng)將出現(xiàn)高端和低端兩個(gè)市場(chǎng),價(jià)格將逐漸趨于最低成本。隨著開源社區(qū)不斷提高模型的質(zhì)量和降低成本,大型實(shí)驗(yàn)室的利潤(rùn)空間將受到壓力。隨著工具的改進(jìn),開發(fā)者將選擇最低成本的模型來(lái)完成任務(wù)。此外,成功的公司可能會(huì)開始自己訓(xùn)練模型,以降低API費(fèi)用??偟膩?lái)說(shuō),LLM API市場(chǎng)將向最低成本趨近,除非任務(wù)需要最佳模型,否則其他公司可以選擇更便宜的模型。文章來(lái)源:http://www.zghlxwxcb.cn/news/detail-766550.html
更多AI工具,參考國(guó)內(nèi)AiBard123,Github-AiBard123文章來(lái)源地址http://www.zghlxwxcb.cn/news/detail-766550.html
到了這里,關(guān)于Google DeepMind發(fā)布Imagen 2文字到圖像生成模型;微軟在 HuggingFace 上發(fā)布了 Phi-2 的模型的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!