作者 |?辰紋
來源 |?洞見新研社
大模型的“涌現(xiàn)”還在持續(xù)。
5月底舉行的中關(guān)村論壇上,有專家披露,中國10億級參數(shù)規(guī)模以上的大模型已經(jīng)發(fā)布了79個,剛剛結(jié)束的世界人工智能大會上,又有一批大模型批量發(fā)布。
大模型的熱度居高不下,世界人工智能大會甚至還設(shè)置了一個“邁向通用人工智能”主題的展區(qū),集中展示國內(nèi)外總計30多款大模型。
我們看到的大模型“涌現(xiàn)”是表面,背后到底是什么促成了大模型的“涌現(xiàn)”呢?
昇騰人工智能產(chǎn)業(yè)高峰論壇上,科大訊飛高級副總裁、認知智能全國重點實驗室主任胡國平現(xiàn)場演示了星火大模型的各項能力,由星火大模型再進行延伸,算力底座的支撐作用成為大模型競爭的焦點。
1.后發(fā)先至,星火大模型擠進第一陣營
不得不說,科大訊飛的嗅覺還是很敏銳的。
OpenAI去年11月30日發(fā)布ChatGPT后僅僅15天(12月15日),科大訊飛就啟動了“1+N”認知智能大模型的專項攻關(guān),5個多月后(5月6日),星火認知大模型正式發(fā)布,一個月后的6月9日,星火認知大模型V1.5發(fā)布。
根據(jù)科大訊飛的計劃,今年內(nèi)星火大模型還將有兩次重大升級,分別是:
8月15日,代碼能力升級以及多模態(tài)交互能力提升;
10月24日,實現(xiàn)通用模型對標ChatGPT,中文超越ChatGPT的當前版本,英文能做到相當水平,并在教育、醫(yī)療等領(lǐng)域做到業(yè)界領(lǐng)先。
一個值得關(guān)注的點,與其他大模型有所不同,星火認知大模型采用“1+N”的架構(gòu),其中“1”指的是通用認知智能大模型,“N”就是大模型在垂直領(lǐng)域的落地。
根據(jù)胡國平的分享,目前星火大模型已經(jīng)在教育、辦公、汽車、醫(yī)療、工業(yè)等領(lǐng)域落地,在多個行業(yè)場景實現(xiàn)了從0到1的創(chuàng)新應(yīng)用。
光說不練假把式,星火大模型的實際表現(xiàn)到底如何,我們一起來看看胡國平的現(xiàn)場演示。
首先測試的是星火大模型的文本生成能力,胡國平出了一個“用詩歌的方式暢想通用人工智能實現(xiàn)后的世界”的任務(wù),大模型隨即給出回答——“通用人工智能來臨日,世界改變?nèi)顼L起,智慧無邊觸手可及,人類生活煥然一新,自動駕駛馳騁天地……”
語言理解方面,星火大模型不僅能夠理順上下文的關(guān)系,甚至對于類似“寧死不屈”和“能屈能伸”這類詞匯,也能夠清楚的進行辯證理解和場景化的應(yīng)用。
知識問答維度,星火大模型能夠基于搜索結(jié)果之上,運用大模型的語言理解和綜合表達能力給出更有針對性的回答。
邏輯推理是考驗大模型智慧水平的關(guān)鍵任務(wù),訊飛星火經(jīng)過兩個版本的迭代,現(xiàn)在對于“農(nóng)夫帶著狼、羊、菜一起過河”這種組合限制下的復(fù)雜推理都能非常好的完成。
根據(jù)胡國平的介紹,星火大模型的數(shù)學(xué)能力和代碼能力在發(fā)布后也有了長足進步,其中數(shù)學(xué)能力對于高中階段涉及到的幾何和代數(shù)問題都能按照步驟準確的給出答案,代碼能力也有了新的突破,特別是Python的代碼生成能力已經(jīng)達到了比較高的水平。
最后演示的多模態(tài)能力,根據(jù)胡國平的任務(wù)指令,星火大模型很快生成了一段散文文本,同時使用一個女生形象的虛擬人主播朗誦這篇散文。
很顯然,星火大模型的表現(xiàn)非常出色,經(jīng)科學(xué)、系統(tǒng)地評測,“訊飛星火認知大模型”在國內(nèi)可測的現(xiàn)有系統(tǒng)中處于領(lǐng)先水平。
星火大模型從立項到發(fā)布,再到迭代,每個節(jié)點留給研發(fā)訓(xùn)練的時間都非常短,但就其展現(xiàn)出來的能力和效果來看,卻能穩(wěn)居中國主要大模型的第一梯隊,在其背后到底藏著哪些秘密呢?
2.驚艷之余,看清昇騰算力底座的成色
除了科大訊飛多年來在認知智能領(lǐng)域形成了深厚的技術(shù)儲備和積累之外,由昇騰AI支撐的算力底座尤為關(guān)鍵。
大模型訓(xùn)練首先要求滿足的條件就是大算力。
有行業(yè)專家做過測算,完成一個千億參數(shù)級別的大模型,例如GPT-3需要314 ZFLOPs算力的模型訓(xùn)練,當單卡只有312 TFLOPS算力時,用一張卡訓(xùn)練一個模型要耗時32年。
因而引入分布式訓(xùn)練解決方案,通過建立AI芯片集群的方式來加速模型訓(xùn)練成為當前行業(yè)的主流。
可是,當芯片集群越來越大,由于大模型被并行切分到集群,模型切片間會產(chǎn)生大量的多卡通信、節(jié)點通信,此時對集群的通信能力也提出了更高的要求。
由此可見,大模型訓(xùn)練既考驗算力的大小,還考驗算力集群工程化、系統(tǒng)化的能力。
還是以星火大模型為例,整個模型訓(xùn)練的時間很短,而其迭代的速度又很快,這也意味著在算力之外,模型訓(xùn)練的穩(wěn)定性和可擴展性也要有很好的表現(xiàn)。
我們來看看昇騰AI集群是如何做到的。
首先,整機系統(tǒng)升級后,把計算、存儲、網(wǎng)絡(luò)、能源這些要素全部整合在一起,相當于把AI數(shù)據(jù)中心打造成一臺AI超級計算機,實現(xiàn)了能效的倍增。
其次,基于背板總線的架構(gòu)設(shè)計,實現(xiàn)全節(jié)點盲插和精準液冷散熱,具備更大的算力密度,以及低于1.15的PUE,讓算力中心更加綠色,并可實現(xiàn)更加靈活的擴展和部署。
最后,通過節(jié)點、機柜、集群、作業(yè)級的多級可靠設(shè)計,實現(xiàn)了系統(tǒng)級故障的可診斷、可預(yù)測、可衡量、可恢復(fù),能保持30天以上的穩(wěn)定訓(xùn)練周期,實現(xiàn)高可用性。
其實,早在2019年,昇騰AI就已經(jīng)開始了千卡集群的探索,當時只有4000張卡的規(guī)模,于2020年落地商用;剛剛結(jié)束的昇騰人工智能產(chǎn)業(yè)高峰論壇上,華為宣布昇騰AI集群全面升級,集群規(guī)模已經(jīng)擴展到16000張卡,這也是說,一個1750億參數(shù),100B數(shù)據(jù)的大模型,大概半天時間就可以完成一次訓(xùn)練。
事實上,支持星火大模型研發(fā)和訓(xùn)練只是昇騰AI能力的一個縮影,更高層級中,昇騰AI還廣泛參與到全國20多個人工智能計算中心的建設(shè),包括武漢、北京、西安、成都、大連、沈陽等在內(nèi),已經(jīng)有7個城市獲得了國家的認可,成為科技部首批國家新一代人工智能公共算力開放創(chuàng)新平臺。
與此同時,昇騰AI還支持了近一半的中國原創(chuàng)模型的開發(fā),根據(jù)今年5月份發(fā)布的《中國人工智能大模型地圖研究報告》統(tǒng)計,國內(nèi)10億參數(shù)規(guī)模以上的大模型,有30多個是基于昇騰原生的開源和適配,覆蓋了NLP、多模態(tài)、云、語音等多個領(lǐng)域。
如此多的項目,讓昇騰AI積累了大量的經(jīng)驗,因而在推動大模型應(yīng)用落地方面,昇騰AI不光是算力提供者,還從效率出發(fā),成為大模型開發(fā)流程的塑造者。
大模型的開發(fā)模式,最開始時是傳統(tǒng)的API-based,昇騰AI通過提供一系列的大模型開發(fā)套件,走向了model-based,在這套開發(fā)模式下,只需要幾十行代碼就可以實現(xiàn)全流程的腳本開發(fā),降低大模型開發(fā)門檻。
很顯然,面對大模型開發(fā)訓(xùn)練的諸多難點和挑戰(zhàn),昇騰AI迎難而上,選擇了正面硬鋼,于昇騰AI自身而言,是大模型時代算力競爭的提前占位;于大模型行業(yè)整體而言,則是國產(chǎn)大模型架構(gòu)在自主創(chuàng)新的軟硬件基礎(chǔ)之上,是國家科技實力的真實表現(xiàn)。
3.創(chuàng)新路上,中國AI需要更多同行者
大模型時代才剛剛開啟,未來還有很多不確定性,唯一確定的是,對算力會有著持續(xù)的需求。
胡國平預(yù)測了大模型發(fā)展的三個趨勢。
第一個是,未來會有更多新的大模型出現(xiàn),現(xiàn)有的大模型在不斷迭代之后,數(shù)據(jù)規(guī)模會有更大的增長,加之應(yīng)用端的用戶數(shù)量的增加,由此會帶來更大的算力需求。
第二個是,隨著大模型能力的提升,能夠與更多的傳感器、執(zhí)行器產(chǎn)生數(shù)據(jù)和智慧的輸入與輸出,大模型的邊界會進一步擴散,此時對算力會有更大的消耗。
第三個是,未來或?qū)⒚總€人都會擁有自己的專屬大模型或者助理,圍繞著個人的學(xué)習和生活,個人助理每時每刻都在進化和同步升級,這對極低功耗的芯片和系統(tǒng)解決方案提出了挑戰(zhàn)。
不難看出,這三個趨勢都與算力密切關(guān)聯(lián),在胡國平看來,大模型與大腦的原理層類似,都通過超千億神經(jīng)元組合在一起,接受輸入的刺激,再產(chǎn)生智慧的輸出,有著相似的智能激發(fā)和運行機制。
這也意味著,“大腦能做的事情,大模型也能實現(xiàn)”,大模型具有無限的潛力,算力底座的探索也就沒有止境。
當然,要做好大模型,光有算力也不行。
中國科學(xué)院院士、清華大學(xué)計算機系教授、清華大學(xué)人工智能研究院名譽院長張鈸院士認為,Chat GPT的成功并不是僅僅歸功于數(shù)據(jù)、算力和算法三個要素,而是要強調(diào)四個要素,分別是知識、數(shù)據(jù)、算法和算力。
也就是說,我們要從文本中獲取數(shù)據(jù),然后從數(shù)據(jù)中獲取到知識,出現(xiàn)這個轉(zhuǎn)變才有了現(xiàn)在的ChatGPT,而這些都建立在“基于詞嵌入的文本語意表示””基于注意機制的轉(zhuǎn)換器”“基于預(yù)測下一個詞的自監(jiān)督學(xué)習”這三項技術(shù)的突破才得以實現(xiàn)的。
由此看來,數(shù)據(jù)、算法、算力這三個要素看似獨立,但在大模型中又關(guān)聯(lián)緊密,因而產(chǎn)業(yè)生態(tài)建設(shè)的重要性凸顯出來。
昇騰AI產(chǎn)業(yè)生態(tài)發(fā)展迅速,截至目前為止,已經(jīng)發(fā)展了30多家硬件伙伴、1200多家ISV,聯(lián)合推出了2500多個行業(yè)AI解決方案,這套生態(tài)體系是可以直接搬運到大模型產(chǎn)業(yè)的。
人才培養(yǎng)方面,有超過300家高校院所與昇騰AI開展合作,每年培養(yǎng)了超過10萬名專業(yè)的AI人才,昇騰AI開發(fā)者的數(shù)量也在高速增長,今年已經(jīng)突破了180萬人。
也正因為有如此根基,昇騰AI在此次大會論壇上宣布,聯(lián)合科大訊飛、智譜AI、云從科技和面壁智能四家生態(tài)伙伴共同發(fā)布大模型訓(xùn)推一體化解決方案,加快大模型的落地速度,讓大模型在智慧城市、智慧金融、智慧煤礦、智慧制造等更多細分行業(yè)中發(fā)揮出價值。
毫無疑問,大模型肯定會迎來屬于自己的時代,假如時代已經(jīng)來臨,那么它的決勝期絕對不是剛剛起步的第一年,和其他顛覆性的新產(chǎn)業(yè)技術(shù)一樣,大模型的發(fā)展注定會是一場時間與耐力的長跑。文章來源:http://www.zghlxwxcb.cn/news/detail-543565.html
當然,在子彈飛的這個過程中,在大模型時代的決勝時刻到來之前,我們需要更多的科大訊飛,也迫切需要能提供強大算力的昇騰AI。文章來源地址http://www.zghlxwxcb.cn/news/detail-543565.html
到了這里,關(guān)于GPT時代,尋找訊飛星火大模型的算力支點的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!