近期,一直猶抱琵琶半遮面的國內(nèi)各路AI相關(guān)廠商,扎堆發(fā)布大模型。一時間,百“模”大戰(zhàn),魚龍混雜。
此前,作為全球第一個正式發(fā)布大模型的大廠,百度文心一言的一舉一動,成為業(yè)界關(guān)注的焦點(diǎn)。
就在4月19日,時隔文心一言發(fā)布1個月又3天,一張“百度飛槳對文心一言定制優(yōu)化例會會議紀(jì)要”的截圖,被曝光出來,吸睛無數(shù)。
三個數(shù)據(jù),表現(xiàn)搶眼
從這份會議紀(jì)要,可以看到,百度飛槳在文心一言開啟邀測后,一個月內(nèi)迭代4次,目前已迭代至3.5版本,在業(yè)內(nèi)首創(chuàng)支持動態(tài)插入的分布式推理引擎,單機(jī)QPS(每秒查詢率)相對線上版本提升123%。飛槳與文心一言聯(lián)合優(yōu)化的效果,具體到數(shù)據(jù)表現(xiàn)上,有三個:
1. 模型推理效率提升10倍:相對于第一版大模型推理服務(wù),單機(jī)QPS累計提升近10倍,這意味著大模型推理的成本降低為原來1/10,換句話說,可以并發(fā)為原來10倍數(shù)量的用戶提供服務(wù);
2. 模型推理性能提升50%:性能的提升意味著模型效果的提升,這也印證了文心一言進(jìn)化更快了,學(xué)習(xí)又快又好了;
3. 模型算力利用率提升1倍:表明飛槳框架一方面與大模型的訓(xùn)練和部署進(jìn)行協(xié)同優(yōu)化,同時,框架向下承接芯片,相當(dāng)于芯片的“指令集”,適配優(yōu)化后得以激發(fā)芯片的潛力,模型算力的利用率才能夠有所提升。
所有這些,是文心一言與飛槳深度學(xué)習(xí)框架協(xié)作的結(jié)果。而透過這些數(shù)據(jù)表現(xiàn),我們還能發(fā)現(xiàn)兩個更深層次的內(nèi)涵,也許那就是各家的大模型最終要拼刺刀的地方。
全棧布局,自主安全
技術(shù)指標(biāo)好壞,在一定程度上會反映出背后技術(shù)頂層設(shè)計策略的重要性。在人工智能時代,IT技術(shù)棧發(fā)生了根本性變革,從三層架構(gòu)轉(zhuǎn)變?yōu)椤靶酒?框架-模型-應(yīng)用”四層架構(gòu)。與此同時,大模型作為公認(rèn)的人工智能時代的核心資產(chǎn),如何保障其安全性,成為重中之重。做好四層架構(gòu)的自主、自研,成為一條可行的路徑。
在全球范圍內(nèi),在四層架構(gòu)的每一層都有領(lǐng)先產(chǎn)品的公司幾乎沒有。擁有了四層全棧布局,就可以把大模型可持續(xù)發(fā)展的主動權(quán)完全掌握在自己手里,也就意味著筑起了一道技術(shù)的護(hù)城河。
百度從高端芯片昆侖芯,到飛槳深度學(xué)習(xí)框架,再到文心一言,到搜索、智能云、自動駕駛、小度等應(yīng)用,每一層都有布局,而且還擁有豐富的終端應(yīng)用場景。全棧布局,全端覆蓋,為大模型的學(xué)習(xí)、生長、安全可持續(xù),提供了充足的養(yǎng)分和土壤。
模框一體,天作之合
借用發(fā)動機(jī),打個比方。如果大模型是發(fā)動機(jī)的話,框架則是發(fā)動機(jī)制造者,可以讓發(fā)動機(jī)整體各個部件的組合更精密、動力更強(qiáng),還可以自主迭代演進(jìn)。反之,如果沒有框架做訓(xùn)練、推理,協(xié)同優(yōu)化,大模型就像是無法自主演進(jìn)的發(fā)動機(jī),動力不一定強(qiáng)。
AI框架之于大模型的重要性,在業(yè)內(nèi)亦早有跡象。原美團(tuán)聯(lián)合創(chuàng)始人王慧文創(chuàng)立的大模型公司光年之外與 AI框架創(chuàng)業(yè)公司一流科技 Oneflow達(dá)成并購意向,就意在補(bǔ)齊框架層面的短板。
業(yè)界同時擁有大模型和框架的,屈指可數(shù),大多數(shù)廠商或者框架用的是Tensorflow、PyTorch,或者沒有自己的大模型。而據(jù)說谷歌、Meta等深度學(xué)習(xí)框架并沒有基于大模型進(jìn)行設(shè)計,導(dǎo)致當(dāng)出現(xiàn)大模型需求時無法直接應(yīng)用 TensorFlow 和 PyTorch,而是要在其基礎(chǔ)上開發(fā)插件。
像百度這樣,文心一言、飛槳深度學(xué)習(xí)框架,系出同門,協(xié)同配合,相得益彰。
一方面,文心一言的快速迭代,對框架層和芯片層,甚至應(yīng)用層的發(fā)展是一種刺激和反哺。
另一方面,除了前面提到的發(fā)動機(jī)的比方,飛槳作為百度2016年推出的開源分布式架構(gòu),就是為應(yīng)對并行GPU訓(xùn)練而生。大規(guī)模分布式訓(xùn)練歷來是飛槳非常有特色的一個功能,實(shí)現(xiàn)了千億稀疏特征、萬億參數(shù)、數(shù)百節(jié)點(diǎn)并行訓(xùn)練技術(shù)。比如,支持包括模型并行、流水線并行在內(nèi)的廣泛并行模式和加速策略,推出業(yè)內(nèi)首個通用異構(gòu)參數(shù)服務(wù)器架構(gòu)、4D混合并行策略和端到端自適應(yīng)分布式訓(xùn)練技術(shù),這都引領(lǐng)了大規(guī)模分布式訓(xùn)練技術(shù)的發(fā)展趨勢。
百度在深度學(xué)習(xí)框架上的提前布局,眼光獨(dú)到,為大模型發(fā)展先人一步提供了保障。文章來源:http://www.zghlxwxcb.cn/news/detail-426892.html
面向未來,可以遇見的是千“?!薄⑷f“?!眰冞€會繼續(xù)、快速涌現(xiàn),而誰是笑到最后的“模王”,且看全棧布局、自主安全、模型框架協(xié)同等能力。文章來源地址http://www.zghlxwxcb.cn/news/detail-426892.html
到了這里,關(guān)于QPS提升近10倍!解讀飛槳加持下的文心一言滿月成績單的文章就介紹完了。如果您還想了解更多內(nèi)容,請?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!