国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

AI 大底座,大模型時(shí)代的答卷

這篇具有很好參考價(jià)值的文章主要介紹了AI 大底座,大模型時(shí)代的答卷。希望對(duì)大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請(qǐng)大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問(wèn)。

  1. 文心一言的誕生

“文心一言就是在這個(gè)全國(guó) AI 領(lǐng)域規(guī)模最大的高性能 GPU 集群上完成訓(xùn)練的。”

早在 2021 年 6 月,為了滿足未來(lái)的大模型訓(xùn)練任務(wù),百度智能云開(kāi)始規(guī)劃全新的高性能 GPU 集群的建設(shè),聯(lián)合 NVIDIA 共同完成了可以容納萬(wàn)卡以上規(guī)模的 IB 網(wǎng)絡(luò)架構(gòu)設(shè)計(jì),集群中節(jié)點(diǎn)間的每張 GPU 卡都通過(guò) IB 網(wǎng)絡(luò)連接, 并在 2022 年 4 月將集群建設(shè)完成,提供單集群 EFLOPS 級(jí)別的算力。

2023 年 3 月,文心一言在這個(gè)高性能集群上誕生,并不斷迭代出新的能力。目前,這個(gè)集群的規(guī)模還在不斷擴(kuò)大。

NVIDIA 中國(guó)區(qū)解決方案與工程總經(jīng)理賴俊杰博士:高速 IB 網(wǎng)絡(luò)互聯(lián)的 GPU 集群是大模型時(shí)代的關(guān)鍵基礎(chǔ)設(shè)施。NVIDIA
和百度智能云共同建成的這個(gè)國(guó)內(nèi)云計(jì)算市場(chǎng)最大規(guī)模的高性能 GPU/IB 集群,將加速百度在大模型領(lǐng)域獲得更大突破。

  1. 高性能集群設(shè)計(jì)

高性能集群并不是算力的簡(jiǎn)單堆積,還需要經(jīng)過(guò)專門的設(shè)計(jì)和優(yōu)化,才能發(fā)揮出集群的整體算力。

在分布式訓(xùn)練中 GPU 會(huì)在機(jī)間和機(jī)內(nèi)不斷地進(jìn)行通信。在利用 IB 、RoCE 等高性能網(wǎng)絡(luò)為機(jī)間通信提供高吞吐、低時(shí)延的服務(wù)同時(shí),還需要對(duì)服務(wù)器的內(nèi)部網(wǎng)絡(luò)連接,以及集群網(wǎng)絡(luò)中的通信拓?fù)溥M(jìn)行專門設(shè)計(jì),滿足大模型訓(xùn)練對(duì)通信的要求。

做到極致的設(shè)計(jì)優(yōu)化,需要對(duì) AI 任務(wù)中的各項(xiàng)操作都對(duì)基礎(chǔ)設(shè)施意味著什么有深刻理解。分布式訓(xùn)練中不同的并行策略,即模型、數(shù)據(jù)、參數(shù)如何進(jìn)行拆分,會(huì)產(chǎn)生不同的數(shù)據(jù)通信需求,比如數(shù)據(jù)并行和模型并行會(huì)分別引入大量的機(jī)內(nèi)和機(jī)間 Allreduce 操作,專家并行會(huì)產(chǎn)生機(jī)間 All2All 操作,4D 混合并行則會(huì)將各類并行策略產(chǎn)生的通信操作都引入。

為此,百度智能云從單機(jī)服務(wù)器和集群網(wǎng)絡(luò)兩個(gè)方面優(yōu)化設(shè)計(jì),構(gòu)建高性能 GPU 集群。

在單機(jī)服務(wù)器方面,百度智能云的超級(jí) AI 計(jì)算機(jī) X-MAN,目前已經(jīng)進(jìn)化到第 4 代。X-MAN 4.0 為 GPU 建立起了高性能的卡間通信,提供單機(jī)內(nèi)部 134 GB/s 的 Allreduce 帶寬。這是目前百度定制化程度最高,專用物料最多的服務(wù)器產(chǎn)品。在 MLCommons 1.1 榜單中,X-MAN 4.0 在同配置單機(jī)硬件性能名列 TOP2。

在集群網(wǎng)絡(luò)方面,專門設(shè)計(jì)了面向大模型訓(xùn)練優(yōu)化過(guò)的三層 Clos 架構(gòu),確保在大規(guī)模訓(xùn)練時(shí)集群的性能和加速比。和傳統(tǒng)方式相比,該架構(gòu)經(jīng)過(guò)八導(dǎo)軌的優(yōu)化,讓任一同號(hào)卡在不同機(jī)器中的通信中的跳步數(shù)盡可能少,為 AI 訓(xùn)練中網(wǎng)絡(luò)流量占比最大的同號(hào)卡 Allreduce 操作提供高吞吐和低延時(shí)的網(wǎng)絡(luò)服務(wù)。

該網(wǎng)絡(luò)架構(gòu)可以最大能支持到 16000 卡的超大規(guī)模集群,這個(gè)規(guī)模是現(xiàn)階段全 IB 網(wǎng)絡(luò)盒式組網(wǎng)的最大規(guī)模。該集群的網(wǎng)絡(luò)性能穩(wěn)定一致性能做到了 98% 的水平,接近一直在穩(wěn)定通信的狀態(tài)。經(jīng)大模型算法團(tuán)隊(duì)驗(yàn)證,在此超大規(guī)模集群上提交千億模型訓(xùn)練作業(yè),同等機(jī)器規(guī)模下整體訓(xùn)練效率是上一代集群的 3.87 倍。

但是,建設(shè)大規(guī)模高性能異構(gòu)集群,只是大模型成功落地的第一步。確保 AI 大模型訓(xùn)練任務(wù)的順利完成,還需要更多系統(tǒng)性軟硬一體的優(yōu)化。

  1. 大模型訓(xùn)練的挑戰(zhàn)

過(guò)去幾年,大模型的參數(shù)規(guī)模將達(dá)到每年增長(zhǎng) 10 倍的速度。2020 年左右,億級(jí)別參數(shù)才是大模型,2022 年,已經(jīng)是需要千億參數(shù)規(guī)模才能叫大模型了。

在大模型之前,一個(gè) AI 模型的訓(xùn)練,通常單機(jī)單卡、或者單機(jī)多卡就可以滿足,訓(xùn)練周期在小時(shí)到數(shù)天之間?,F(xiàn)在,為了完成千億參數(shù)大模型的訓(xùn)練,幾百臺(tái)服務(wù)器、數(shù)千張 GPU/XPU 卡的大集群分布式訓(xùn)練成為必選項(xiàng),訓(xùn)練周期也擴(kuò)展到以月為單位。

為了訓(xùn)練 1750 億參數(shù)的 GPT-3 (3000 億 token 數(shù)據(jù)),1 塊 A100 按半精度峰值計(jì)算性能折算需要 32 年, 1024 塊 A100 按資源利用率 45% 計(jì)算需要 34 天時(shí)間。當(dāng)然,即使不考慮時(shí)間問(wèn)題,1 塊 A100 也是無(wú)法訓(xùn)練千億參數(shù)規(guī)模的模型的,因?yàn)槟P蛥?shù)已經(jīng)超過(guò)單卡顯存容量。

在分布式訓(xùn)練的環(huán)境下進(jìn)行大模型訓(xùn)練,訓(xùn)練周期從單卡幾十年縮短到幾十天,需要突破計(jì)算墻、顯存墻、通信墻等各種挑戰(zhàn),使得集群內(nèi)的所有資源都能被充分利用,加速訓(xùn)練過(guò)程,縮短訓(xùn)練周期。

計(jì)算墻,指的是單卡算力和模型總算力之間的巨大差異。A100 的單卡算力只有 312 TFLOPS,而 GPT-3 則需要 314 ZFLOPs 的總算力,兩者相差了 9 個(gè)數(shù)量級(jí)。

顯存墻,指的是單卡無(wú)法完整存儲(chǔ)一個(gè)大模型的參數(shù)。GPT-3 的 1750 億參數(shù)本身就需要 700 GB 的顯存空間(每個(gè)參數(shù)按照 4 個(gè)字節(jié)計(jì)算),而 NVIDIA A100 GPU 只有 80 GB 顯存。

計(jì)算墻和顯存墻的本質(zhì)是有限的單卡能力和模型的巨大的存儲(chǔ)、計(jì)算需求之間的矛盾。這可以通過(guò)分布式訓(xùn)練的方法解決,但分布式訓(xùn)練之后又會(huì)遇到通信墻的問(wèn)題。

通信墻,主要是分布式訓(xùn)練下集群各計(jì)算單元需要頻繁參數(shù)同步,通信性能將影響整體計(jì)算速度。如果通信墻如果處理的不好,很可能導(dǎo)致集群規(guī)模越大,訓(xùn)練效率反而會(huì)降低。成功的突破通信墻,體現(xiàn)為集群有較強(qiáng)的擴(kuò)展能力,即集群的多卡加速能力和規(guī)模是匹配的。多卡的線性加速比就是評(píng)估集群多卡加速能力的指標(biāo),數(shù)值越高越好。

這幾堵墻在多機(jī)多卡的訓(xùn)練中開(kāi)始出現(xiàn)。隨著大模型的參數(shù)越來(lái)越大,對(duì)應(yīng)的集群規(guī)模也越來(lái)越大,這三堵墻也越來(lái)越高。同時(shí),在大集群長(zhǎng)時(shí)間訓(xùn)練過(guò)程中,還會(huì)出現(xiàn)設(shè)備故障,有可能會(huì)影響或者中斷訓(xùn)練進(jìn)程。

  1. 大模型訓(xùn)練的過(guò)程

一般來(lái)說(shuō),從基礎(chǔ)設(shè)施視角看大模型訓(xùn)練,整個(gè)過(guò)程可以大致分成以下兩個(gè)階段:

階段一:并行策略和訓(xùn)練優(yōu)化

在提交待訓(xùn)練的大模型后,AI 框架會(huì)綜合考慮大模型的結(jié)構(gòu)等信息、以及訓(xùn)練集群的能力,為本次訓(xùn)練任務(wù)制定出一個(gè)并行訓(xùn)練策略,并完成 AI 任務(wù)放置。這個(gè)過(guò)程就是拆開(kāi)模型、放置任務(wù),即大模型應(yīng)該被如何拆解,被拆開(kāi)的各個(gè)部分如何放置到集群的各個(gè) GPU/XPU 中。

針對(duì)放置在 GPU/XPU 中運(yùn)行的 AI 任務(wù),AI 框架會(huì)聯(lián)合訓(xùn)練集群在單卡運(yùn)行時(shí)和集群通信層面進(jìn)行全鏈路優(yōu)化,加速大模型訓(xùn)練過(guò)程中各個(gè) AI 任務(wù)的運(yùn)行效率,包括數(shù)據(jù)加載,算子計(jì)算、通信策略等。比如將 AI 任務(wù)中運(yùn)行的普通算子替換為經(jīng)過(guò)優(yōu)化的高性能算子,提供適配當(dāng)前并行策略和訓(xùn)練集群網(wǎng)絡(luò)能力的通信策略等。

階段二:資源管理和任務(wù)調(diào)度

大模型訓(xùn)練任務(wù)按照上面制定的并行策略開(kāi)始運(yùn)行,訓(xùn)練集群為 AI 任務(wù)提供各類高性能的資源。比如 AI 任務(wù)運(yùn)行在什么環(huán)境中,如何為 AI 任務(wù)提供資源對(duì)接,AI 任務(wù)通過(guò)什么存儲(chǔ)方式讀取和保存數(shù)據(jù),GPU/XPU 通過(guò)什么類型網(wǎng)絡(luò)設(shè)施通信等。

同時(shí),在運(yùn)行過(guò)程中,訓(xùn)練集群會(huì)聯(lián)合 AI 框架通過(guò)彈性容錯(cuò)等方式,為大模型的長(zhǎng)時(shí)間訓(xùn)練提供可靠的環(huán)境。比如如何觀測(cè)和感知集群中各類資源和 AI 任務(wù)的運(yùn)行狀態(tài)等,如何在集群變化時(shí)能夠?qū)Y源和 AI 任務(wù)進(jìn)行調(diào)度等。

從以上兩個(gè)階段的拆解中,我們可以發(fā)現(xiàn)整個(gè)大模型訓(xùn)練的過(guò)程,都依賴 AI 框架和訓(xùn)練集群的密切配合,完成對(duì)三堵墻的突破,共同確保大模型訓(xùn)練的高效和穩(wěn)定。

  1. 全棧融合,「AI 大底座」加速大模型訓(xùn)練

結(jié)合多年在 AI 和大模型領(lǐng)域的技術(shù)積累和工程實(shí)踐,百度在 2022 年底推出了全棧自研的 AI 基礎(chǔ)設(shè)施「AI 大底座」,包括「芯片 – 框架 – 模型 」三層技術(shù)棧,在各個(gè)層面都擁有關(guān)鍵自研技術(shù)和領(lǐng)先產(chǎn)品,分別對(duì)應(yīng)昆侖芯、飛槳 (PaddlePaddle)、文心大模型。

在這三層技術(shù)棧的基礎(chǔ)上,百度智能云推出了兩大 AI 工程平臺(tái),「AI 中臺(tái)」和「百度百舸· AI 異構(gòu)計(jì)算平臺(tái)」,分別在開(kāi)發(fā)和資源層面進(jìn)行提效,完成對(duì)三堵墻的突破,加速訓(xùn)練過(guò)程。

其中,「AI 中臺(tái)」依托 AI 框架為大模型訓(xùn)練過(guò)程制定并行策略和優(yōu)化過(guò)的環(huán)境,覆蓋訓(xùn)練的全生命周期。「百度百舸 」實(shí)現(xiàn)了高效的芯片使能,提供各類 AI 資源的管理和任務(wù)調(diào)度的能力。

AI 大底座,大模型時(shí)代的答卷

百度「AI 大底座」對(duì)各層的技術(shù)棧進(jìn)行了全棧融合、系統(tǒng)優(yōu)化,完成了云和智的技術(shù)一體化建設(shè),可以實(shí)現(xiàn)對(duì)大模型訓(xùn)練的端到端優(yōu)化和加速。

百度集團(tuán)副總裁侯震宇:大模型訓(xùn)練是一個(gè)系統(tǒng)工程,集群規(guī)模、訓(xùn)練時(shí)間、花費(fèi)金額,相比過(guò)去都提高了很多。如果不是全棧優(yōu)化,很難保證大模型訓(xùn)練的順利完成。百度多年來(lái)在大模型上的技術(shù)投入和工程實(shí)踐,使得我們建立起了一套完整的軟件棧能力,用來(lái)加速大模型的訓(xùn)練。

接下來(lái),我們將結(jié)合上文提到的大模型訓(xùn)練過(guò)程的兩階段,講述「AI 大底座」的各層技術(shù)棧是如何相互融合、系統(tǒng)優(yōu)化,實(shí)現(xiàn)大模型訓(xùn)練的端到端優(yōu)化和加速。

5.1 并行策略和訓(xùn)練優(yōu)化

模型拆分
飛槳可以為大模型訓(xùn)練提供數(shù)據(jù)并行、模型并行、流水并行、參數(shù)分組切片、專家并行等豐富的并行策略。這些并行策略可以滿足從十億到千億、甚至萬(wàn)億參數(shù)規(guī)模大模型的訓(xùn)練,實(shí)現(xiàn)對(duì)計(jì)算墻和顯存墻的突破。2021 年 4 月,飛槳在業(yè)界第一個(gè)提出 4D 混合并行策略,可支持千億級(jí)大模型的訓(xùn)練在月級(jí)別完成。

拓?fù)涓兄?br> 百度百舸擁有專為大模型訓(xùn)練場(chǎng)景準(zhǔn)備的集群拓?fù)涓兄芰?,包括?jié)點(diǎn)內(nèi)架構(gòu)感知、節(jié)點(diǎn)間架構(gòu)感知等,比如每臺(tái)服務(wù)器內(nèi)部的算力大小、 CPU 和 GPU/XPU、GPU/XPU 和 GPU/XPU 鏈接方式,以及服務(wù)器之間 GPU/XPU 和 GPU/XPU 網(wǎng)絡(luò)鏈接方式等信息。

自動(dòng)并行
在大模型訓(xùn)練任務(wù)開(kāi)始運(yùn)行前,飛槳可以依據(jù)百度百舸平臺(tái)的拓?fù)涓兄芰?,?duì)集群形成統(tǒng)一分布式資源圖。同時(shí),飛槳根據(jù)待訓(xùn)練的大模型形成的統(tǒng)一邏輯計(jì)算視圖。

綜合這兩張圖,飛槳自動(dòng)化地為模型搜索出最優(yōu)的模型切分和硬件組合策略,將模型參數(shù)、梯度、優(yōu)化器狀態(tài)按照最優(yōu)策略分配到不同的 GPU/XPU 上,完成 AI 任務(wù)的放置以提升訓(xùn)練性能。

比如將模型并行的 AI 任務(wù)都放置在同一臺(tái)服務(wù)器的不同 GPU 上,這些 GPU 通過(guò)服務(wù)器內(nèi)部的 NVSwitch 鏈接。將數(shù)據(jù)并行、流水線并行的 AI 任務(wù)放置在不同服務(wù)器的同號(hào) GPU 上,這些 GPU 通過(guò) IB 或者 RoCE 鏈接。通過(guò)這種依據(jù) AI 任務(wù)的類型進(jìn)行 AI 任務(wù)放置的的方法,使得集群資源能夠被高效使用,加速大模型訓(xùn)練。

端到端自適應(yīng)訓(xùn)練
在訓(xùn)練任務(wù)運(yùn)行過(guò)程中,如果集群發(fā)生了變化,比如有資源出現(xiàn)了故障,或者集群規(guī)模有變化,百度百舸會(huì)進(jìn)行容錯(cuò)的替換或者彈性擴(kuò)縮容。由于參與計(jì)算的節(jié)點(diǎn)所在位置發(fā)生了變化,它們之間的通信模式也許已經(jīng)不是最優(yōu)。飛槳能夠依據(jù)最新的集群信息,自動(dòng)調(diào)整模型切分和 AI 任務(wù)放置策略。同時(shí),百度百舸完成相應(yīng)的任務(wù)和資源的調(diào)度。

飛槳統(tǒng)一的資源和計(jì)算視圖以及自動(dòng)并行能力,再結(jié)合百度百舸的彈性調(diào)度能力,實(shí)現(xiàn)了大模型的端到端自適應(yīng)分布式訓(xùn)練,可以覆蓋集群訓(xùn)練的全生命周期。

這是 AI 框架和 AI 異構(gòu)算力平臺(tái)的深入交互,實(shí)現(xiàn)了算力、框架、算法三位一體的系統(tǒng)優(yōu)化,支持大模型自動(dòng)彈性的進(jìn)行訓(xùn)練,端到端實(shí)測(cè)有 2.1 倍的性能提升,保證了大規(guī)模訓(xùn)練的高效性。

訓(xùn)練優(yōu)化
完成模型的拆分和 AI 任務(wù)的放置后,在訓(xùn)練過(guò)程中為了確保算子在飛槳、Pytorch 等各類主流 AI 框架和各類計(jì)算卡上可以加速計(jì)算,百度百舸平臺(tái)中內(nèi)置了 AI 加速套件。AI 加速套件包括了數(shù)據(jù)層存儲(chǔ)加速、訓(xùn)練和推理加速庫(kù) AIAK ,分別從數(shù)據(jù)加載、模型計(jì)算、分布式通信等維度進(jìn)行了全鏈路優(yōu)化。

其中,數(shù)據(jù)加載和模型計(jì)算的優(yōu)化可以有效提高單卡的運(yùn)行效率;分布式通信的優(yōu)化,結(jié)合集群的 IB 或者 RoCE 等高性能網(wǎng)絡(luò)和專門優(yōu)化的通信拓?fù)?,以及合理?AI 任務(wù)放置策略,共同解決通信墻問(wèn)題。

百度百舸在千卡規(guī)模集群中的多卡加速比達(dá)到了 90%,使得集群擁有的整體算力可以被充分釋放出來(lái)。

在 2022 年 11 月發(fā)布的 MLPerf Trainning v2.1 測(cè)試結(jié)果中,百度使用飛槳加百度百舸提交的模型訓(xùn)練性能結(jié)果,位列同等 GPU 配置下世界第一,端到端訓(xùn)練時(shí)間和訓(xùn)練吞吐均超越 NGC PyTorch 框架。

5.2 資源管理和任務(wù)調(diào)度
百度百舸通過(guò)容器引擎 CCE 承載所有 AI 任務(wù)的運(yùn)行,并通過(guò)相關(guān)容器插件的方式提供各類 AI 資源管理、架構(gòu)感知、彈性容錯(cuò)等能力,在資源效能層面完成計(jì)算墻、顯存墻、通信墻的突破。
資源管理
百度百舸可以提供各類計(jì)算、網(wǎng)絡(luò)、存儲(chǔ)等 AI 資源,包括百度太行·彈性裸金屬服務(wù)器 BBC、IB 網(wǎng)絡(luò)、RoCE 網(wǎng)絡(luò)、并行文件存儲(chǔ) PFS、對(duì)象存儲(chǔ) BOS、數(shù)據(jù)湖存儲(chǔ)加速 RapidFS 等各類適合大模型訓(xùn)練的云計(jì)算資源。

在任務(wù)運(yùn)行時(shí),可以將這些高性能資源進(jìn)行合理的組合,進(jìn)一步提升 AI 作業(yè)的效率,全流程實(shí)現(xiàn) AI 任務(wù)的計(jì)算加速。在 AI 任務(wù)開(kāi)始前可以預(yù)熱對(duì)象存儲(chǔ) BOS 中的訓(xùn)練數(shù)據(jù),通過(guò)彈性 RDMA 網(wǎng)絡(luò)將數(shù)據(jù)加載至數(shù)據(jù)湖存儲(chǔ)加速 RapidFS 中。彈性 RDMA 網(wǎng)絡(luò)相比傳統(tǒng)網(wǎng)絡(luò)可以降低 2 至 3 倍通信時(shí)延,在高性能存儲(chǔ)的基礎(chǔ)上,加速 AI 任務(wù)數(shù)據(jù)的讀取。最后通過(guò)高性能的百度太行·彈性裸金屬服務(wù)器 BBC 或者云服務(wù)器 BCC,進(jìn)行 AI 任務(wù)的計(jì)算。

彈性容錯(cuò)
AI 任務(wù)運(yùn)行時(shí),不僅需要高性能的資源,還需要確保集群的穩(wěn)定,最大程度降低資源故障發(fā)生率以免打斷訓(xùn)練。但是,資源的故障不能絕對(duì)避免,AI 框架和訓(xùn)練集群需要聯(lián)合保證訓(xùn)練任務(wù)被打斷后能夠從最近的狀態(tài)恢復(fù),從而為大模型的長(zhǎng)時(shí)間訓(xùn)練提供可靠環(huán)境。

百度自研的異構(gòu)集合通庫(kù) ECCL ,支持昆侖芯和其他異構(gòu)芯片的通信,支持慢節(jié)點(diǎn)和故障節(jié)點(diǎn)的感知。通過(guò)百度百舸的資源彈性和容錯(cuò)策略,將慢節(jié)點(diǎn)和故障節(jié)點(diǎn)剔除,并將最新的架構(gòu)拓?fù)浞答伣o飛槳,重新進(jìn)行任務(wù)布置,對(duì)應(yīng)訓(xùn)練任務(wù)調(diào)配至其他 XPU/GPU 上,確保訓(xùn)練的平滑高效運(yùn)行。

  1. 大模型時(shí)代的 AI 普惠
    大模型是人工智能邁向通用智能的里程碑技術(shù),駕馭好大模型是完成智能化升級(jí)路徑上的必答題。超大規(guī)模的算力、全棧融合的軟件優(yōu)化,是對(duì)這道必答題的最好回答。

為了幫助社會(huì)和產(chǎn)業(yè)快速訓(xùn)練出自己的大模型,搶占時(shí)代先機(jī),2022 年底百度智能云發(fā)布了陽(yáng)泉智算中心,搭載百度「AI 大底座」的全棧能力,可以提供 4 EFLOPS 的異構(gòu)算力。這是目前亞洲單體規(guī)模最大、技術(shù)最先進(jìn)的數(shù)據(jù)中心。

目前,百度智能云已經(jīng)將「AI 大底座」的全部能力對(duì)外開(kāi)放,實(shí)現(xiàn)大模型時(shí)代的 AI 普惠,通過(guò)各個(gè)地域的中心云、邊緣云 BEC、本地計(jì)算集群 LCC、私有云 ABC Stack 等多種形式進(jìn)行交付,使得社會(huì)和產(chǎn)業(yè)可以方便的獲得智能服務(wù)。

– - - - - - - - - END - - - - - - - - - -文章來(lái)源地址http://www.zghlxwxcb.cn/news/detail-449567.html

到了這里,關(guān)于AI 大底座,大模型時(shí)代的答卷的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來(lái)自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場(chǎng)。本站僅提供信息存儲(chǔ)空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請(qǐng)注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請(qǐng)點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • 體驗(yàn)百度文心一言AI模型生成姚明簡(jiǎn)介

    體驗(yàn)百度文心一言AI模型生成姚明簡(jiǎn)介

    姚明(Yao Ming),男,漢族,無(wú)黨派人士,1980年9月12日出生于上海市徐匯區(qū),祖籍江蘇省蘇州市吳江區(qū)震澤鎮(zhèn),前中國(guó)職業(yè)籃球運(yùn)動(dòng)員,司職中鋒,現(xiàn)任亞洲籃球聯(lián)合會(huì)主席、中國(guó)籃球協(xié)會(huì)主席、中職聯(lián)公司董事長(zhǎng)兼總經(jīng)理,十三屆全國(guó)青聯(lián)副主席,改革先鋒獎(jiǎng)?wù)芦@得者。第

    2024年01月16日
    瀏覽(31)
  • 體驗(yàn)文心一言AI模型董宇輝簡(jiǎn)介

    體驗(yàn)文心一言AI模型董宇輝簡(jiǎn)介

    董宇輝,男,1993年出生于陜西省渭南市潼關(guān)縣,祖籍湖北省十堰市鄖西縣。2015年畢業(yè)于西安外國(guó)語(yǔ)大學(xué)。現(xiàn)為東方甄選高級(jí)合伙人、新東方教育科技集團(tuán)董事長(zhǎng)文化助理、兼任新東方文旅集團(tuán)副總裁、與輝同行(北京)科技有限公司法定代表人。 2016年,董宇輝加入西安新東

    2024年01月19日
    瀏覽(22)
  • 【AI語(yǔ)言大模型】文心一言功能使用介紹

    【AI語(yǔ)言大模型】文心一言功能使用介紹

    文心一言是一個(gè)知識(shí)增強(qiáng)的大語(yǔ)言模型,基于飛槳深度學(xué)習(xí)平臺(tái)和文心知識(shí)增強(qiáng)大模型,持續(xù)從海量數(shù)據(jù)和大規(guī)模知識(shí)中融合學(xué)習(xí)具備知識(shí)增強(qiáng)、檢索增強(qiáng)和對(duì)話增強(qiáng)的技術(shù)特色。 最近收到百度旗下產(chǎn)品【文心一言】的產(chǎn)品,抱著試一試的心態(tài)體驗(yàn)了一下,整體感覺(jué):還行!

    2024年02月07日
    瀏覽(16)
  • 體驗(yàn)文心一言AI大模型生成中國(guó)城市簡(jiǎn)介

    體驗(yàn)文心一言AI大模型生成中國(guó)城市簡(jiǎn)介

    宿遷,江蘇省省轄市,位于江蘇省北部、地處長(zhǎng)江三角洲地區(qū),是長(zhǎng)三角城市群成員城市,也是淮海經(jīng)濟(jì)圈、沿海經(jīng)濟(jì)帶、沿江經(jīng)濟(jì)帶的交叉輻射區(qū)。宿遷獲評(píng)全國(guó)文明城市,榮獲國(guó)家衛(wèi)生城市、國(guó)家環(huán)保模范城市、國(guó)家園林城市、中國(guó)優(yōu)秀旅游城市、全國(guó)雙擁模范城市、全

    2024年02月10日
    瀏覽(22)
  • 【AI接口】語(yǔ)音版、文心一言大模型和AI繪圖、圖片檢測(cè)API

    【AI接口】語(yǔ)音版、文心一言大模型和AI繪圖、圖片檢測(cè)API

    基于國(guó)內(nèi)主流AI大模型如阿里通義千問(wèn)、百度文心一言等的語(yǔ)音版智能對(duì)話AI機(jī)器人API。該API支持多種功能,包括聊天對(duì)話、行業(yè)咨詢、語(yǔ)言學(xué)習(xí)等,并且可以自定義真人音色。 1、接口 重要提示:建議使用https協(xié)議,當(dāng)https協(xié)議無(wú)法使用時(shí)再嘗試使用http協(xié)議。 請(qǐng)求方式:PO

    2024年01月19日
    瀏覽(24)
  • 體驗(yàn)文心一言AI大模型生成淄博和山東理工大學(xué)簡(jiǎn)介

    體驗(yàn)文心一言AI大模型生成淄博和山東理工大學(xué)簡(jiǎn)介

    淄博,簡(jiǎn)稱“淄”,位于中國(guó)華東地區(qū)、山東省中部,北緯35°55′20″~37°17′14″,東經(jīng)117°32′15″~118°31′00″,市域面積為5965平方公里。淄博市地處黃河三角洲高效生態(tài)經(jīng)濟(jì)區(qū)、山東半島藍(lán)色經(jīng)濟(jì)區(qū)兩大國(guó)家戰(zhàn)略經(jīng)濟(jì)區(qū)與山東省會(huì)城市群經(jīng)濟(jì)圈交匯處,南依沂蒙山區(qū)與

    2024年02月15日
    瀏覽(21)
  • AI百度文心一言大語(yǔ)言模型接入使用(中國(guó)版ChatGPT)

    AI百度文心一言大語(yǔ)言模型接入使用(中國(guó)版ChatGPT)

    基于百度文心一言語(yǔ)言大模型的智能文本對(duì)話AI機(jī)器人API,支持聊天對(duì)話、行業(yè)咨詢、語(yǔ)言學(xué)習(xí)、代碼編寫等功能. 重要提示:建議使用https協(xié)議,當(dāng)https協(xié)議無(wú)法使用時(shí)再嘗試使用http協(xié)議 請(qǐng)求方式: POST 序號(hào) 參數(shù) 是否必須 說(shuō)明 1 ques 是 你的問(wèn)題 2 appKey 是 唯一驗(yàn)證AppKey, 可前往官

    2024年02月12日
    瀏覽(35)
  • 體驗(yàn)文心一言AI大模型生成寧波、紹興、織里和南寧報(bào)告

    體驗(yàn)文心一言AI大模型生成寧波、紹興、織里和南寧報(bào)告

    寧波,簡(jiǎn)稱“甬”,別稱甬上、四明、明州,是浙江省轄地級(jí)市、副省級(jí)市、計(jì)劃單列市、Ⅰ型大城,上海大都市圈重要城市。 寧波歷史悠久,有7000余年的文明史、2100余年的建城史和1000余年的建縣史,唐代以來(lái),寧波對(duì)外通商口岸,海上絲綢之路和陸上絲綢之路的起點(diǎn)之一

    2024年02月11日
    瀏覽(34)
  • 體驗(yàn)百度文心一言AI大模型、通義千問(wèn)AI大模型和訊飛星火AI大模型生成莊小威biography

    體驗(yàn)百度文心一言AI大模型、通義千問(wèn)AI大模型和訊飛星火AI大模型生成莊小威biography

    莊小威,1972年1月出生于中國(guó)江蘇省如皋市,是一位生物物理學(xué)家,現(xiàn)為哈佛大學(xué)化學(xué)與化學(xué)生物、物理學(xué)雙聘教授。在她的職業(yè)生涯中,莊小威獲得了許多國(guó)內(nèi)外獎(jiǎng)項(xiàng),展現(xiàn)了她的才華和風(fēng)格。 她是美國(guó)國(guó)家科學(xué)院院士、美國(guó)藝術(shù)與科學(xué)學(xué)院院士、美國(guó)國(guó)家醫(yī)學(xué)科學(xué)院院士

    2024年01月16日
    瀏覽(30)
  • 體驗(yàn)文心一言AI大模型生成馬云、馬化騰和馬東敏簡(jiǎn)介

    體驗(yàn)文心一言AI大模型生成馬云、馬化騰和馬東敏簡(jiǎn)介

    馬云,男,漢族,中共黨員,1964年9月10日生于浙江省杭州市,祖籍浙江省嵊州市谷來(lái)鎮(zhèn), 阿里巴巴集團(tuán)主要?jiǎng)?chuàng)始人。現(xiàn)任日本軟銀董事、大自然保護(hù)協(xié)會(huì)中國(guó)理事會(huì)主席兼全球董事會(huì)成員、華誼兄弟董事、生命科學(xué)突破獎(jiǎng)基金會(huì)董事、聯(lián)合國(guó)數(shù)字合作高級(jí)別小組聯(lián)合主席,

    2024年02月15日
    瀏覽(24)

覺(jué)得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請(qǐng)作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包