MBTI+大模型=甜甜的戀愛?美國新年AI裁員潮;中國大模型人才分布圖;20分鐘覽盡NLP百年;Transformer新手入門教程 | ShowMeAI日?qǐng)?bào)
日?qǐng)?bào)&周刊合集 | ??生產(chǎn)力工具與行業(yè)應(yīng)用大全 | ?? 點(diǎn)贊關(guān)注評(píng)論拜托啦!
?? GenAI 是美國「2024 年裁員潮」罪魁禍?zhǔn)讍??來看幾組數(shù)據(jù)
www.trueup.io/layoffs
補(bǔ)充一份背景:?? 上方鏈接是 TrueUp 網(wǎng)站關(guān)于科技行業(yè)裁員、招聘、股票等信息的匯總頁面,其中「The Tech Layoff Tracker」實(shí)時(shí)密切追蹤著全球科技公司的裁員信息,覆蓋大型科技公司、科技獨(dú)角獸和初創(chuàng)公司等
最近美國科技公司出現(xiàn)了新一輪的「裁員潮」。據(jù) TrueUp 匯總,2024年到目前為止,科技公司的裁員信息已經(jīng)有92條之多,影響人數(shù)多達(dá) 17,191 (平均每天裁員 1,011) 。2023年這些數(shù)據(jù)是,科技公司裁員信息共 1,996條,影響人數(shù) 428,384 (平均每天裁員 1,174) 。
進(jìn)入生成式AI浪潮的第二年,科技公司的每輪裁員都跟 AI 相關(guān)嗎?下拉網(wǎng)頁可以看到每條裁員的詳細(xì)信息,根據(jù)統(tǒng)計(jì)信息來看,只有6條裁員消息明確說明與AI有關(guān):
- 2024年1月16日
- 裁員數(shù)百人
- 谷歌廣告部門轉(zhuǎn)向由AI驅(qū)動(dòng)的銷售模式
Apple
- 2024年1月13日
- 裁員 121 人
- 蘋果在重組中關(guān)閉了位于圣地亞哥的121人AI團(tuán)隊(duì)
InMobi | 移動(dòng)廣告
- 2024年1月11日
- 裁員 125 人 (占公司人數(shù) 5%)
- InMobi 將重心向AI轉(zhuǎn)移,裁員風(fēng)險(xiǎn)繼續(xù)增加
Humane | 消費(fèi)硬件
- 2024年1月9日
- 裁員 10 人 (占公司人數(shù) 4%)
- Humane 在發(fā)布 AI Pin 之前進(jìn)行了一輪裁員
BenchSci | 藥物研發(fā)
- 2024年1月8日
- 裁員 70 人 (占公司人數(shù) 17%)
- BenchSci 因?yàn)樯墒紸I和經(jīng)濟(jì)狀況雙重因素進(jìn)行裁員
Duolingo | 語言學(xué)習(xí)
- 2024年1月8日
- 削減 10% 承包商
- 多鄰國轉(zhuǎn)為使用AI翻譯和創(chuàng)建內(nèi)容,少量人工輔助進(jìn)行審核
www.imf.org/en/Blogs/Ar…
AI會(huì)讓今年的就業(yè)形勢雪上加霜嗎? ?? 上圖左,1月14日,國際貨幣基金組織 IMF 在發(fā)布的一項(xiàng)研究成果顯示,AI對(duì)發(fā)達(dá)國家、新興市場、低收入國家的工作崗位影響度分別為 60%、40%、25%;也就是說,在發(fā)達(dá)經(jīng)濟(jì)體中,約有 60% 的工作崗位會(huì)受到AI的影響。
好消息是,這其中有一半的工作可能受益于AI來提升生產(chǎn)效率;壞消息是,另一半可能會(huì)裁員甚至直接消失 ??
?? 上圖右,普華永道在本周達(dá)沃斯經(jīng)濟(jì)論壇的一項(xiàng) CEO 調(diào)研顯示,預(yù)計(jì)受生成式AI影響,今年公司的員工人數(shù)將減少 5% 以上,其中媒體/娛樂、銀行、保險(xiǎn)、物流等行業(yè)首當(dāng)其中 (高清圖見社群)。
?? 中國的大模型人才在哪里?這份研究報(bào)告給出了答案
研究背景和數(shù)據(jù)來源:在國家知識(shí)產(chǎn)權(quán)局和全球科學(xué)引文數(shù)據(jù)庫中,以北京、上海、深圳、杭州這四座大模型落地項(xiàng)目與機(jī)構(gòu)最集聚的城市為樣本,搜集并清洗出了近三年來與大模型相關(guān)的3.68萬篇高水準(zhǔn)學(xué)術(shù)論文和3萬余項(xiàng)專利成果
- 以機(jī)構(gòu)為單位,中國科學(xué)院、中國科學(xué)院大學(xué)和清華大學(xué)分別是大模型相關(guān)論文數(shù)量最多的三家機(jī)構(gòu)
- 在專利領(lǐng)域,百度以6000余項(xiàng)專利的絕對(duì)領(lǐng)先優(yōu)勢超越了所有高校與科研院所排在第一位;國家電網(wǎng)、中國平安等大型企業(yè)也憑借自身的行業(yè)地位積極布局創(chuàng)新業(yè)務(wù)
- 盡管行業(yè)應(yīng)用遍地開花,大模型的基礎(chǔ)研究以及聚焦視覺、語言和跨模態(tài)模型訓(xùn)練的成果模態(tài)研究等通用型技術(shù)框架研發(fā),實(shí)際上仍是高層次大模型人才密度最高的科研產(chǎn)出領(lǐng)域
- 大模型創(chuàng)業(yè)熱潮的推動(dòng),出現(xiàn)了許多來自高校、科研院所背景的明星學(xué)者:除了騰訊、阿里、華為、百度等互聯(lián)網(wǎng)企業(yè),聯(lián)影醫(yī)療、商湯科技等人工智能領(lǐng)域的頭部企業(yè)都已經(jīng)與各類高校建立了緊密的科研協(xié)作關(guān)系
- 在高校、科研院所、企業(yè)三方共同協(xié)作完成的研究關(guān)鍵詞中,深度學(xué)習(xí)依然是三方協(xié)同攻關(guān)頻率最高的領(lǐng)域;此外,在微觀研究主題上,遙感、機(jī)器人、氣象學(xué)、蛋白質(zhì)等各個(gè)垂直領(lǐng)域的算法獲得了更多的關(guān)注
- 從產(chǎn)出成果的應(yīng)用領(lǐng)域來看,京滬深杭目前集聚的大模型人才類型已表現(xiàn)出了各自的特色,這與各城市擁有的高校與科研資源稟賦往往密切相關(guān)
- 京滬深杭這四座城市的論文跨國協(xié)作,目前已輻射到全球126個(gè)國家和地區(qū),與美國、英國、澳大利亞和新加坡這四個(gè)國家的協(xié)作最為緊密 ? 查看詳情
?? 2023年最受歡迎的 GenAI 工具排行榜,一圖覽盡 300+ 常用工具
view.genial.ly/658ce60a6f9…
GenAI 是生成式人工智能 (Generative AI) 的英文簡寫,國內(nèi)更常使用的詞是 AIGC (AI Generated Content,人工智能生成內(nèi)容)
這是一份GenAI 最受歡迎 & 最常使用的工具清單,根據(jù)網(wǎng)站訪問數(shù)據(jù)排名,收錄整理了 300+ AI工具。而且!訪問 ?? 上方網(wǎng)站,將鼠標(biāo)懸停在工具 Logo 上方,就會(huì)出現(xiàn)對(duì)應(yīng)工具的詳細(xì)介紹哦!!日?qǐng)?bào)整理了這份清單的工具分類信息,看看有你感興趣的領(lǐng)域沒 ( ̄︶ ̄*))
- Dev tools / 開發(fā)工具
- Chat with document / 文檔聊天
- Workflow / 工作流
- Summarize / 總結(jié)
- Prompts / 提示
- Video Generation / 視頻生成
- Social Media / 社交媒體
- SEO / 搜索引擎優(yōu)化
- Voice / 語音
- Presentations / 演示文稿
- News / 新聞
- Logo / 標(biāo)志
- Legal Assistant / 法律助手
- Image Edit / 圖像編輯
- Analytics / 分析
- Image Generation / 圖像生成
- Design / 設(shè)計(jì)
- Customer Support / 客戶支持
- Others / 其他
- Chat / 聊天
- Podcasting / 播客
- Model Generation / 模型生成
- Productivity / 生產(chǎn)力
- Video Editing & + / 視頻編輯及其他
- ChatBot / 聊天機(jī)器人
- Text To Speech / 文本轉(zhuǎn)語音
- Website building / 網(wǎng)站構(gòu)建
- Sales & Marketing / 銷售與市場
- Meeting Notes / 會(huì)議記錄
- Speech / 語音
- Text to Video / 文本轉(zhuǎn)視頻
- Email Tools / 電子郵件工具
- API / 應(yīng)用程序編程接口
- Chrome extension / Chrome 擴(kuò)展
- Writing / 寫作
- Search / 搜索
- Copywriting / 廣告文案
- Research & Science / 研究與科學(xué)
- Photo Editing / 照片編輯
- Coding / 編程
- Audio Editing / 音頻編輯
?? 大模型戀愛神器!自由定制16種 MBTI 人格,深度聊天停不下來
補(bǔ)充一份背景:MBTI 是一種心理測量工具,通過四個(gè)維度將人的性格劃分為 16 種基本類型;了解自己的 MBTI 分類一定程度上有助于探索自己的性格和偏好
MBTI 最近兩年突然爆火并逐漸成為新一代社交符號(hào),現(xiàn)在常說的 i 人 (內(nèi)向型) 和 e 人(外向型) 就是出自這個(gè)體系;感興趣可以搜題庫自測一下
www.modelscope.cn/studios/Far…
FarReel AI Lab (前身是 ChatLaw 項(xiàng)目) 和北大深研院合作研發(fā),賦予了開源模型性格。訪問 ?? 上方鏈接,就可以和帶有 MBTI 性格的大模型進(jìn)行深度對(duì)話了!上方左圖就是于 ENFP 模型對(duì)話的詳細(xì)步驟~ 根據(jù)我與這類朋友的溝通體驗(yàn)來說,這幾輪對(duì)話還挺有感覺的?。?/p>
吶!節(jié)日送禮摸底、聊天反復(fù)練習(xí)、生氣原因分析、道歉策略嘗試…… 大模型真的能幫我們談戀愛了 ???
github.com/PKU-YuanGro…
團(tuán)隊(duì)在 GitHub 發(fā)布了論文鏈接,并且開放下載所有的訓(xùn)練數(shù)據(jù)集 ??????
團(tuán)隊(duì)自主構(gòu)建了十萬條大規(guī)模 MBTI 數(shù)據(jù),然后通過多階段預(yù)訓(xùn)練、微調(diào)、DPO訓(xùn)練方法為它注入性格。通過一個(gè)兩階段的有監(jiān)督訓(xùn)練微調(diào)過程,最后可以得到對(duì)應(yīng)人格的大模型。
?? 上圖以訓(xùn)練一個(gè) INFP 大模型為例,在第一階段的有監(jiān)督微調(diào)中,利用行為數(shù)據(jù)集中 I、N、F、P 四個(gè)數(shù)據(jù)集;在第二階段的有監(jiān)督微調(diào)中,再使用一個(gè)額外的自我意識(shí)數(shù)據(jù)集。
?? 00后AI創(chuàng)業(yè)者:很遺憾!2023年我們沒能成為風(fēng)口上的豬
補(bǔ)充一份背景:一個(gè)AI初創(chuàng)團(tuán)隊(duì)2023年毅然轉(zhuǎn)型AI賽道,做失敗了所有項(xiàng)目,現(xiàn)金流出現(xiàn)問題,團(tuán)隊(duì)也由最初的60多人縮減至現(xiàn)在的4人。而他們是4位在讀的大四本科生
這是一份來自 00 后AI創(chuàng)業(yè)團(tuán)隊(duì)的真誠總結(jié)。在過去10個(gè)月的時(shí)間里,他們嘗試了大量的 AIGC 項(xiàng)目,可以說是琳瑯滿目:
第一階段 | 用信息差或認(rèn)知差做項(xiàng)目
- 圖像和視頻賽道:AI寫真、AI換裝,打造AI女友
- 新媒體賽道:運(yùn)營AI短視頻、公眾號(hào)、AI社群、小紅書、B站、知識(shí)星球
第二階段 | 做套殼項(xiàng)目
- 搭建 ChatGPT 套殼小程序、AI工具集合庫、Gpts集合網(wǎng)站
第三階段 | To b 場景業(yè)務(wù)探索
- 為知識(shí)博主開發(fā)數(shù)字人分身應(yīng)用,和B端醫(yī)美企業(yè)合作生成人像海報(bào),建立醫(yī)生知識(shí)庫…
第四階段:打造AI原生應(yīng)用
- 正在嘗試中……
他們?cè)谖恼吕镌敿?xì)介紹了各個(gè)階段的業(yè)務(wù)思考、業(yè)務(wù)發(fā)展情況、市場反饋、停止的原因,并且詳細(xì)總結(jié)了經(jīng)驗(yàn)。寫得樸實(shí)且真誠~
AI創(chuàng)業(yè)新手和老手都可以看看,新手可以嘗試把每條總結(jié)「讀厚」,老手們可以找找難覓的純真 ? 有空就閱讀原文呀
年輕真好 (づ ̄ 3 ̄)づ 祝福他們
?? 敢問路在何方?!2024年 AI 工具發(fā)展趨勢預(yù)測
generativeai.pub/top-ai-tool…
補(bǔ)充一份背景:昨天日?qǐng)?bào) 提到 Sam Altman 近期出席 Y Combinator W24 啟動(dòng)會(huì),反復(fù)提及 GPT-5 的能力飛躍及其對(duì)現(xiàn)有公司和產(chǎn)品的巨大沖擊
- GPT-5 相較于于 GPT-4 可能會(huì)有一個(gè)指數(shù)級(jí)的飛躍,盡管 GPT-4 已經(jīng)領(lǐng)先近兩年且至今無人超越
- 大多數(shù) GPT-4 當(dāng)前的限制都將在 GPT-5 中得到修復(fù),這一巨大進(jìn)步會(huì)給現(xiàn)有大大小小的公司帶來了諸多挑戰(zhàn) → AGI將覆蓋一大批創(chuàng)業(yè)者
- 建議使用最先進(jìn)的模型 (State of the Art, SOTA) ,而不是花費(fèi)太多時(shí)間進(jìn)行微調(diào)和優(yōu)化 → 徒勞無功
那……產(chǎn)品開發(fā)者將如何提早布局應(yīng)對(duì)呢?AI工具選擇那條發(fā)展路徑最有可能得以存活乃至爆發(fā)呢?這篇文章作者提出的 2024年AI工具的8類發(fā)展趨勢,或許可以加入思考和討論:
- 服務(wù)速度提升:隨著計(jì)算能力的提升和算法的優(yōu)化,AI服務(wù)將實(shí)現(xiàn)更快的響應(yīng)速度,這將催生更多創(chuàng)新應(yīng)用
- 視頻生成技術(shù)的普及:視頻創(chuàng)作工具如Pika、RunWayML和Leonardo等的興起,將使視頻制作變得更加便捷,但用戶仍需掌握如何編寫有效的提示來獲得最佳效果
- 個(gè)性化服務(wù)深化:AI通過分析用戶數(shù)據(jù)提供定制化服務(wù),隨著大數(shù)據(jù)和用戶行為分析技術(shù)的進(jìn)步,未來將出現(xiàn)更加個(gè)性化的服務(wù)體驗(yàn)
- 智能聊天機(jī)器人的革新:開源語言模型 (LLMs) 的興起,如Hugging Face的開放LLM排行榜,將推動(dòng)智能文本服務(wù)的創(chuàng)新,并可能與能夠表達(dá)真實(shí)情感的聲音結(jié)合
- 動(dòng)畫虛擬影響者的興起:繼2023年虛擬影響者如Aitana的成功之后,預(yù)計(jì)2024年將出現(xiàn)更多帶有聲音的全動(dòng)畫影響者,未來可能發(fā)展為能夠識(shí)別情感的個(gè)性化影響者
- 智能機(jī)器人工具的發(fā)展:智能聊天機(jī)器人與機(jī)器人技術(shù)的結(jié)合將帶來可編程的智能機(jī)器人,隨著LLMs的普及、計(jì)算能力的增強(qiáng)和3D算法的掌握,機(jī)器人技術(shù)將更加普及
- 多AI集成工具:2024年的工具將集成多個(gè)AI,以更有效地滿足用戶需求,同時(shí)管理算法復(fù)雜性將成為重點(diǎn)
- 輸出質(zhì)量的持續(xù)提升:AI工具的輸出質(zhì)量將持續(xù)改進(jìn),如Midjourney的版本迭代所示,AI技術(shù)將隨著時(shí)間不斷進(jìn)化
?? 優(yōu)質(zhì)科普視頻!20分鐘講清楚自然語言處理的「古往」和「今來」
www.bilibili.com/video/BV1yi…
補(bǔ)充一份背景:自然語言處理 (Natural Language Processing,NLP) 是人工智能的一個(gè)分支,主要任務(wù)是使計(jì)算機(jī)理解、生成和處理人類語言
自然語言處理是一門涉及廣泛的復(fù)雜技術(shù),其發(fā)展歷程上出現(xiàn)過眾多值得稱贊的想法。這個(gè)視頻選取了每個(gè)時(shí)期最具代表性的方法,將自然語言的百年發(fā)展演進(jìn)主千串成一條邏輯清晰的線條。
00:00 - 05:27 晦暗中的摸索
- 預(yù)定論認(rèn)為上帝已經(jīng)決定了每個(gè)人的救贖或放逐,個(gè)人無法改變;并衍生了對(duì)這一定理的眾多補(bǔ)充
- 帕維爾利克拉索夫用大數(shù)定理證明了自由意志的存在
- 馬爾可夫選擇研究文學(xué)作品中元音和輔音的規(guī)律,客觀上為隨機(jī)過程的研究開創(chuàng)了道路,但因?yàn)榭菰锏仍蛲V沽搜芯?/li>
05:27 - 09:28 香農(nóng)的研究以及 n-gram 模型在自然語言處理中的應(yīng)用
- 香農(nóng)在信息論中描述了自然語言中的馬爾可夫隨機(jī)過程,包括n-gram模型
- 語言學(xué)家認(rèn)為,自然語言的研究需要一套非常完備的系統(tǒng),而這是一項(xiàng)浩大而繁雜的工程
09:28 - 14:09 統(tǒng)計(jì)學(xué)和神經(jīng)網(wǎng)絡(luò)出現(xiàn)了
- 自然語言處理的本質(zhì)是語義,而非符號(hào)規(guī)則本身
- 統(tǒng)計(jì)學(xué)方法在算力和數(shù)據(jù)上的客觀障礙逐漸被克服,成為自然語言處理的主流方法
- 神經(jīng)網(wǎng)絡(luò)技術(shù)從上個(gè)世紀(jì)40年代開始發(fā)展,逐漸成為自然語言處理的研究方向
14:09 - 18:52 詞向量、Word2Vec、注意力機(jī)制
- 模型使用充足的語料數(shù)據(jù)經(jīng)過充分的訓(xùn)練后,可以預(yù)測下一個(gè)詞的概率分布
- 訓(xùn)練過程中,詞向量會(huì)被更新,使得相似的詞變得更近、疏遠(yuǎn)的詞變得更遠(yuǎn)
18:52 - 23:40 Transformer 模型在自然語言處理中的應(yīng)用
- 使用注意力機(jī)制在上下文處理中十分有效
- 研究者們嘗試不同的網(wǎng)絡(luò)結(jié)構(gòu) (循環(huán)神經(jīng)網(wǎng)絡(luò)、Transformer等) 來加強(qiáng)向量對(duì)語義的表達(dá)能力
- GPT 模型的原理與古老的 n-gram 模型類似,但顯示出了令人驚訝的語義理解能力
?? 絕佳新手教程:公式+代碼+講解,一文帶你徹底搞懂 Transformer
aicoco.net/s/80
補(bǔ)充一份背景:上方視頻提到了對(duì)于大模型發(fā)展至關(guān)重要的 Transformer。Transformer 的工作原理到底是什么?有沒有一篇文章可以簡單且清晰地講明白 Transformer?
這篇文章對(duì)新手非常友好,用一個(gè)案例貫穿全文,來講解 Transformer 的工作原理,并且配了大量的圖解、代碼段和公式推導(dǎo)過程??炊疚模憔涂梢愿闱宄蠄D中的每一個(gè)細(xì)節(jié)啦??!
而且,為了降低理解和演示難度,比如與 Transformer 論文「Attention is all you need」的數(shù)據(jù)相比,文章在維度和參數(shù)量方面做了一定程度的簡化處理:
- 嵌入維度:512 (文章示例是4)
- 編碼器數(shù)量:6 (文章示例是6)
- 解碼器數(shù)量:6 (文章示例是6)
- 前饋維度:2048 (文章示例是8)
- 注意力頭數(shù)量:8 (文章示例是2)
- 注意力維度:64 (文章示例是3)
?? Encoder (編碼器)
- Tokenization (分詞):將輸入文本分割成標(biāo)記 (tokens) ,并為每個(gè)標(biāo)記分配一個(gè)唯一的ID
- Embedding the text (文本嵌入):將標(biāo)記ID轉(zhuǎn)換為具有語義含義的固定大小向量 (嵌入)
- Positional encoding (位置編碼):為嵌入向量添加位置信息,以便模型能夠理解單詞在句子中的位置
- Add positional encoding and embedding (添加位置編碼和嵌入):將位置編碼向量與嵌入向量相加,為編碼器的輸入做好準(zhǔn)備
- Self-attention (自注意力):定義了用于多頭自注意力的權(quán)重矩陣 → 計(jì)算查詢 (Q) 、鍵 (K) 和值 (V) 矩陣 → 計(jì)算注意力分?jǐn)?shù)并應(yīng)用softmax函數(shù) → 將注意力分?jǐn)?shù)與值矩陣相乘以獲得加權(quán)的值
- Feed-forward layer (前饋層):包含兩個(gè)線性變換和一個(gè)ReLU激活函數(shù),用于進(jìn)一步處理自注意力層的輸出
- Residual and Layer Normalization (殘差和層歸一化):使用殘差連接和層歸一化來穩(wěn)定訓(xùn)練過程,防止梯度消失或爆炸
?? Decoder (解碼器)
- Embedding the text (文本嵌入):與編碼器類似,將輸入標(biāo)記轉(zhuǎn)換為嵌入向量
- Positional encoding (位置編碼):為解碼器的嵌入向量添加位置編碼
- Add positional encoding and embedding (添加位置編碼和嵌入):將位置編碼向量與嵌入向量相加
- Self-attention (自注意力):在解碼器中執(zhí)行自注意力,但與編碼器的自注意力不同,這里使用了掩碼來防止未來信息的泄漏
- Residual connection and layer normalization (殘差連接和層歸一化):與編碼器類似,使用殘差連接和層歸一化來穩(wěn)定解碼器的輸出
- Encoder-decoder attention (編碼器-解碼器注意力):在解碼器中引入編碼器-解碼器注意力,允許解碼器關(guān)注輸入序列的相關(guān)部分
- Residual connection and layer normalization (殘差連接和層歸一化):再次使用殘差連接和層歸一化來穩(wěn)定輸出
- Feed-forward layer (前饋層):與編碼器類似,包含兩個(gè)線性變換和一個(gè)ReLU激活函數(shù)
- Encapsulating everything: The Random Decoder (封裝一切:隨機(jī)解碼器):將解碼器的各個(gè)部分組合在一起,形成一個(gè)完整的解碼器塊
?? Generating the output sequence (生成輸出序列)
- Linear layer (線性層):在解碼器的輸出上應(yīng)用線性層,以生成下一個(gè)標(biāo)記的預(yù)測
- Softmax (softmax):對(duì)線性層的輸出應(yīng)用softmax函數(shù),以獲得下一個(gè)標(biāo)記的概率分布
- The Random Encoder-Decoder Transformer (隨機(jī)編碼器-解碼器Transformer):將編碼器和解碼器結(jié)合起來,形成一個(gè)完整的Transformer模型,用于生成輸出序列
感謝貢獻(xiàn)一手資訊、資料與使用體驗(yàn)的 ShowMeAI 社區(qū)同學(xué)們!
? 點(diǎn)擊 ??日?qǐng)?bào)&周刊合集,訂閱話題 #ShowMeAI日?qǐng)?bào),一覽AI領(lǐng)域發(fā)展前沿,抓住最新發(fā)展機(jī)會(huì)!文章來源:http://www.zghlxwxcb.cn/news/detail-835044.html
? 點(diǎn)擊 ??生產(chǎn)力工具與行業(yè)應(yīng)用大全,一起在信息浪潮里撲騰起來吧!文章來源地址http://www.zghlxwxcb.cn/news/detail-835044.html
到了這里,關(guān)于MBTI+大模型=甜甜的戀愛?美國新年AI裁員潮;中國大模型人才分布圖;20分鐘覽盡NLP百年;Transformer新手入門教程 | ShowMeAI日?qǐng)?bào)的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!