目錄
1 引言
2 選取常見的大模型作為對(duì)比項(xiàng)
2.1什么是大模型
2.2 常見大模型
3 相關(guān)的大模型介紹和功能
3.1 ChatGPT
3.1.1 ChatGPT的介紹
3.1.2 ChatGPT的原理
3.1.3 ChatGPT的特點(diǎn)
3.2 Newbing
3.2.1 Newbing的介紹
3.2.2 GPT-4的原理
3.2.3 Newbing的特點(diǎn)
3.3 ChatGLM-6B
3.3.1 ChatGLM的介紹
3.3.2 ChatGLM的原理
3.3.3 ChatGLM-6B的特點(diǎn)
3.4 文心一言
3.4.1 文心一言的介紹
3.4.2 文心一言的原理
3.4.3 文心一言的特點(diǎn)
3.5 訊飛星火認(rèn)知大模型
3.5.1 訊飛星火認(rèn)知大模型的介紹
3.5.2 訊飛星火認(rèn)知大模型的原理
3.5.3 訊飛星火認(rèn)知大模型的特點(diǎn)
3.6 Bard
3.6.1 Bard的介紹
3.6.2 Bard的原理
3.6.3Bard的特點(diǎn)
3.7 系統(tǒng)比較
4 性能對(duì)比分析
4.1 系統(tǒng)性能比較
4.2語義理解
4.2.1 簡(jiǎn)單語義:列舉3個(gè)中國(guó)海邊旅游地方
?4.2.2 孤立語理解:A大勝B,是誰贏?A大敗B,是誰贏?
4.2.3 上下文理解
4.2.4 文言文理解:燕不救魏,魏王折節(jié)割地,以國(guó)之半與秦,秦必去矣。這句話什么意思?
?4.3 內(nèi)容創(chuàng)造
4.3.1 撰寫郵件:你現(xiàn)在是一名外企員工,請(qǐng)寫一封郵件提醒同事盡快完成流程審批,要求按照商務(wù)英文標(biāo)準(zhǔn)。
?4.3.2 文章續(xù)寫:對(duì)龜兔賽跑這個(gè)故事進(jìn)行續(xù)寫
?4.3.3 撰寫影評(píng):撰寫一份《流浪地球1》的影評(píng)
?4.4 歸納和推理
4.4.1 推理問題:如果A不等于B,B不等于C,則A等于C。這對(duì)不對(duì)?
?4.4.2 邏輯問題:群眾是真正的英雄,我是群眾,所以我是真正的英雄。這句話是正確的嗎?
?4.4.3 歸納總結(jié):
?4.5 數(shù)學(xué)能力
4.5.1 計(jì)算方程能力:2x+9y=81;3x+y=34。解方程組
?4.5.2 年齡問題:我今年6歲,妹妹的年齡是我的一半,那么當(dāng)我90歲時(shí),妹妹多少歲?
?4.5.3 遞歸問題:10階樓梯,每次上1階或2階,問總有多少種走法?
?4.5.4 抽象問題:所有自然數(shù)和所有奇數(shù)哪個(gè)多?
4.6編碼能力
4.6.1 常見算法:用python編寫一個(gè)冒泡算法
?4.6.2 算法糾錯(cuò):
5 結(jié)果分析和討論
1 引言
ChatGPT等大型預(yù)訓(xùn)練模型的出現(xiàn),為自然語言處理領(lǐng)域帶來了新的研究范式和思路,使得研究工作更加高效、準(zhǔn)確和深入。各類大模型的出現(xiàn),推動(dòng)了自然語言處理研究的發(fā)展,也加速了自然語言處理技術(shù)在實(shí)際應(yīng)用中的普及。然而,不同的大模型在性能方面可能存在差異,本文通過對(duì)大模型性能進(jìn)行對(duì)比分析,深入了解不同模型的特點(diǎn)和局限性,來幫助用戶更好地選擇適合自己需求的模型。
2 選取常見的大模型作為對(duì)比項(xiàng)
2.1什么是大模型
2022年7月,李飛飛、PercyLiang等[1]提出“基礎(chǔ)模型”(FoundationModels)的概念:基于自監(jiān)督學(xué)習(xí)的模型在學(xué)習(xí)過程中會(huì)體現(xiàn)出來各個(gè)不同方面的能力,這些能力為下游的應(yīng)用提供了動(dòng)力和理論基礎(chǔ),稱這些大模型為“基礎(chǔ)模型”。2023年2月,劉安平等[2]提出大模型是“大數(shù)據(jù)+大算力+強(qiáng)算法”結(jié)合的產(chǎn)物,凝練了大數(shù)據(jù)內(nèi)在精華的“隱式知識(shí)庫”,是實(shí)現(xiàn)人工智能應(yīng)用的載體。2023年3月,顧玉蓉[3]提出預(yù)訓(xùn)練模型是使自然語言處理由原來的手工調(diào)整參數(shù)、依靠ML專家的階段,進(jìn)入可以大規(guī)模、可復(fù)制的大工業(yè)實(shí)戰(zhàn)階段,從單語言擴(kuò)展到多語、多模態(tài)任務(wù),具備更豐富、更智能的特征。預(yù)訓(xùn)練模型基于遷移學(xué)習(xí)原理,賦予計(jì)算機(jī)聽說讀寫、搜索翻譯、問答對(duì)話和摘要總結(jié)等能力。
綜上所述:我們認(rèn)為大模型是用于解決復(fù)雜的自然語言處理、計(jì)算機(jī)視覺和語音識(shí)別等任務(wù),模型的參數(shù)量規(guī)模在千億級(jí)別的深度學(xué)習(xí)模型。大模型訓(xùn)練面臨計(jì)算、存儲(chǔ)、通信等方面的挑戰(zhàn),需要使用分布式訓(xùn)練、內(nèi)存節(jié)省、模型稀疏等技術(shù)來應(yīng)對(duì)。大模型的出現(xiàn)和發(fā)展,也引發(fā)了一些關(guān)于其機(jī)遇和風(fēng)險(xiǎn)的討論。
2.2 常見大模型
ChatGPT(智能聊天機(jī)器人)、Newbing(必應(yīng))、Bard(巴德)、訊飛星火認(rèn)知大模型(SparkDesk)、文心一言(ERNIE Bot)、ChatGLM-6B,都是自然語言處理領(lǐng)域中的大型語言模型,它們都具有很高的語言理解和生成能力,可以用于各種文本相關(guān)的任務(wù),如機(jī)器翻譯、自然語言生成、對(duì)話系統(tǒng)和文本分類等。
這些模型之間的比較主要基于以下幾個(gè)方面:
1. 模型規(guī)模:這些模型的規(guī)模不同,從幾百萬到千億個(gè)參數(shù)不等,規(guī)模越大,模型的性能和效果通常也越好。
2. 訓(xùn)練數(shù)據(jù):這些模型的訓(xùn)練數(shù)據(jù)也不同,包括不同的語料庫和任務(wù),訓(xùn)練數(shù)據(jù)的質(zhì)量和數(shù)量也會(huì)影響模型的性能和效果。
3. 任務(wù)表現(xiàn):這些模型在不同的任務(wù)上的表現(xiàn)也不同,例如在生成長(zhǎng)文本方面,一些模型可能更加擅長(zhǎng),而在回答復(fù)雜問題方面,另一些模型可能更具優(yōu)勢(shì)。
4. 使用場(chǎng)景:這些模型可以用于不同的場(chǎng)景,例如在對(duì)話系統(tǒng)中,模型需要快速響應(yīng)用戶的輸入,而在機(jī)器翻譯中,模型需要準(zhǔn)確地翻譯不同語言之間的文本。
因此,對(duì)這些模型進(jìn)行比較需要考慮多個(gè)因素,并根據(jù)具體的應(yīng)用場(chǎng)景選擇最適合的模型。
3 相關(guān)的大模型介紹和功能
3.1 ChatGPT
3.1.1 ChatGPT的介紹
ChatGPT(ChatGenerativePre-trainedTransformer)是由OpenAI團(tuán)隊(duì)開發(fā)的多種語言模型。它在GPT-3.5架構(gòu)上進(jìn)行訓(xùn)練,具備廣泛的知識(shí)和語言理解能力。通過接觸大量的文本數(shù)據(jù)進(jìn)行訓(xùn)練,涵蓋了維基百科文章、新聞報(bào)道、小說、論文、對(duì)話等內(nèi)容,這使得它能夠在許多不同領(lǐng)域的知識(shí)上提供幫助。
3.1.2 ChatGPT的原理
下面是關(guān)于ChatGPT的一些模型細(xì)節(jié)的介紹。共有如下5個(gè)方面:
- Transformer架構(gòu):GPT-3.5是一個(gè)基于Transformer架構(gòu)的模型。Transformer是一種強(qiáng)大的神經(jīng)網(wǎng)絡(luò)架構(gòu),特別適用于處理自然語言處理任務(wù)。它由多個(gè)編碼器和解碼器層組成,通過自注意力機(jī)制和前饋神經(jīng)網(wǎng)絡(luò)層來處理輸入數(shù)據(jù)。
- 預(yù)訓(xùn)練和微調(diào):GPT-3.5在大規(guī)模的文本語料庫上進(jìn)行了預(yù)訓(xùn)練。在預(yù)訓(xùn)練階段,模型通過自監(jiān)督學(xué)習(xí)方法來學(xué)習(xí)語言的統(tǒng)計(jì)特性和上下文關(guān)系。然后,模型通過在特定任務(wù)上進(jìn)行微調(diào),如問答、對(duì)話生成等,以適應(yīng)具體的應(yīng)用場(chǎng)景。
- 多層結(jié)構(gòu):GPT-3.5由多個(gè)堆疊的Transformer編碼器層組成,這些層的數(shù)量可以達(dá)到數(shù)十甚至上百層。多層結(jié)構(gòu)有助于模型學(xué)習(xí)更復(fù)雜的語言模式和語義表示。
- 自注意力機(jī)制:Transformer的核心是自注意力機(jī)制。它允許模型在處理輸入時(shí)動(dòng)態(tài)地關(guān)注不同位置的信息,并建立單詞之間的上下文關(guān)系。自注意力機(jī)制使得模型能夠捕捉長(zhǎng)距離的依賴關(guān)系,并更好地理解句子中的語義。
- 多語言支持:GPT-3.5是一個(gè)中英雙語模型,可以處理中文和英文的輸入。在訓(xùn)練過程中,模型接觸了大量的中英文文本數(shù)據(jù),以提高對(duì)不同語言的理解和生成能力。
3.1.3 ChatGPT的特點(diǎn)
ChatGPT基于GPT-3.5架構(gòu),是開源的、支持中英雙語的對(duì)話語言模型,具有以下特點(diǎn):
- 語言理解能力:可以理解和處理自然語言,支持多種語言。
- 語言生成能力:生成自然語言文本,例如回答問題、提供建議、寫作文本等。
- 知識(shí)儲(chǔ)備:儲(chǔ)備了大量的知識(shí),并可以在需要時(shí)將其應(yīng)用到生成的文本中。
- 模型可訓(xùn)練性:可以通過訓(xùn)練讓自己變得更加智能和精確,以更好地滿足用戶的需求。
- 多場(chǎng)景應(yīng)用:可以應(yīng)用于多種場(chǎng)景,例如智能客服、機(jī)器翻譯、自動(dòng)寫作等。
- 自適應(yīng)性:可以根據(jù)用戶輸入的內(nèi)容和上下文進(jìn)行自適應(yīng),以更好地理解用戶的意圖并提供更加準(zhǔn)確的回答。
- 處理大規(guī)模數(shù)據(jù)的能力:可以處理大規(guī)模的數(shù)據(jù),例如分析文本、提取信息、預(yù)測(cè)趨勢(shì)等。
3.2 Newbing
3.2.1 Newbing的介紹
2023.2.8凌晨,微軟推出了由OpenAI提供最新技術(shù)支持的新版搜索引擎必應(yīng)和Edge瀏覽器,整合了ChatGPT的最新技術(shù)(即GPT-4)。接入OpenAI最新語言模型的Newbing,可以使用戶輕松切換到人工智能聊天模式;新版Edge瀏覽器添加了該版本的必應(yīng),可以聊天、編寫文本、匯總網(wǎng)頁并以對(duì)話方式響應(yīng)查詢。答案還提供引用的資料鏈接,使得用戶可以查閱信息的出處。新版必應(yīng)做了大語言模型與搜索引擎的結(jié)合,這對(duì)語言模型結(jié)果的實(shí)時(shí)性和減少事實(shí)的錯(cuò)誤兩方面都有幫助。
3.2.2 GPT-4的原理
1、神經(jīng)網(wǎng)絡(luò)和深度學(xué)習(xí):GPT-4的核心是神經(jīng)網(wǎng)絡(luò),這是一種受人腦啟發(fā)的計(jì)算模型。神經(jīng)網(wǎng)絡(luò)由許多層組成,每層都包含許多神經(jīng)元(節(jié)點(diǎn))。這些神經(jīng)元相互連接,通過傳遞和處理信息來完成任務(wù)。深度學(xué)習(xí)是指使用具有多個(gè)隱含層的神經(jīng)網(wǎng)絡(luò)進(jìn)行學(xué)習(xí),GPT-4也屬于這一類模型。
2、Transformer架構(gòu):GPT-4基于一種名為Transformer的架構(gòu)。Transformer在2017年首次亮相,現(xiàn)已成為自然語言處理領(lǐng)域的主流技術(shù)。與傳統(tǒng)神經(jīng)網(wǎng)絡(luò)相比,Transformer更擅長(zhǎng)處理大量數(shù)據(jù),并能快速學(xué)習(xí)長(zhǎng)距離依賴關(guān)系。這使得GPT-4在理解和生成復(fù)雜文本時(shí)表現(xiàn)出色。
3、自回歸語言模型:GPT-4是一種自回歸語言模型,其主要任務(wù)是預(yù)測(cè)給定文本序列中的下一個(gè)詞。在訓(xùn)練過程中,模型通過觀察大量文本數(shù)據(jù)來學(xué)習(xí)語言的規(guī)律。例如,給定句子"今天天氣真好,我們?nèi)?,GPT-4可能會(huì)預(yù)測(cè)下一個(gè)詞是"公園"。通過逐詞生成,GPT-4可以生成完整的句子、段落甚至文章。
4、數(shù)據(jù)驅(qū)動(dòng)學(xué)習(xí):GPT-4的學(xué)習(xí)過程是數(shù)據(jù)驅(qū)動(dòng)的。這意味著它依賴大量文本數(shù)據(jù)來學(xué)習(xí)語言規(guī)律,而不是依靠預(yù)先編寫的規(guī)則。這使得GPT-4能夠在訓(xùn)練過程中自動(dòng)捕捉語言的復(fù)雜性和多樣性,從而實(shí)現(xiàn)更高水平的語言理解和生成能力。
5、無監(jiān)督學(xué)習(xí)和微調(diào):GPT-4的訓(xùn)練過程主要分為兩個(gè)階段:預(yù)訓(xùn)練和微調(diào)。在預(yù)訓(xùn)練階段,模型使用大量未標(biāo)注的文本數(shù)據(jù)進(jìn)行無監(jiān)督學(xué)習(xí)。這使得GPT-4能夠?qū)W習(xí)到豐富的語言知識(shí)和語義關(guān)系。在預(yù)訓(xùn)練完成后,模型會(huì)進(jìn)入微調(diào)階段。在這個(gè)階段,GPT-4會(huì)使用少量標(biāo)注數(shù)據(jù)(即帶有答案的問題-答案對(duì))來進(jìn)行監(jiān)督學(xué)習(xí)。微調(diào)使得模型能夠更好地適應(yīng)特定任務(wù),如問答、摘要等。
6、上下文敏感性:GPT-4能夠理解和生成具有上下文關(guān)系的文本。這意味著它可以根據(jù)輸入的文本內(nèi)容產(chǎn)生相關(guān)的輸出,而不是簡(jiǎn)單地重復(fù)訓(xùn)練數(shù)據(jù)中的片段。這一特性使得GPT-4在處理各種任務(wù)時(shí)具有很高的靈活性和準(zhǔn)確性。
7、生成能力:作為一個(gè)生成模型,GPT-4能夠自動(dòng)產(chǎn)生各種類型的文本,如文章、詩歌、對(duì)話等。這一能力使得GPT-4可以應(yīng)用于多種場(chǎng)景,如創(chuàng)意寫作、聊天機(jī)器人、智能助手等。
8、知識(shí)圖譜和關(guān)系圖譜:GPT-4可能具備豐富的知識(shí)圖譜和關(guān)系圖譜。這意味著它可以有效地檢索、處理和生成相關(guān)信息。通過知識(shí)圖譜和關(guān)系圖譜,GPT-4可以回答各種問題,并為用戶提供有價(jià)值的洞察。
9、適應(yīng)新知識(shí)和自主學(xué)習(xí):GPT-4可能具有強(qiáng)大的自主學(xué)習(xí)能力,使其能夠通過觀察和互動(dòng)來學(xué)習(xí)新知識(shí)。這種能力使得GPT-4能夠在不依賴于大量標(biāo)注數(shù)據(jù)的情況下,適應(yīng)新的任務(wù)和領(lǐng)域。
10、持續(xù)優(yōu)化和技術(shù)改進(jìn):GPT-4的開發(fā)和優(yōu)化是一個(gè)持續(xù)的過程。隨著算法研究、硬件創(chuàng)新和新數(shù)據(jù)的不斷涌現(xiàn),GPT-4有望在諸如理解力、生成質(zhì)量和計(jì)算效率等方面實(shí)現(xiàn)更大的突破。
3.2.3 Newbing的特點(diǎn)
- 它可以與用戶進(jìn)行聊天,它可以根據(jù)用戶的興趣和偏好,推薦相關(guān)的內(nèi)容和服務(wù),回答各種問題,甚至生成新聞?wù)葍?nèi)容。
- 大語言模型與搜索引擎進(jìn)行結(jié)合,處于聯(lián)網(wǎng)狀態(tài),可以獲取實(shí)時(shí)數(shù)據(jù)。
- 搜索總結(jié)用戶所需答案,并提供答案中所引用的信息鏈接,方便用戶去溯源。
- 提供三種對(duì)話風(fēng)格響應(yīng)語氣:更有創(chuàng)意、更平衡和更精確。
- 文生圖,在更有創(chuàng)意對(duì)話風(fēng)格下,可以實(shí)現(xiàn)輸入文字返回圖像。
- 它可以集成Edge瀏覽器的數(shù)據(jù)資源,提供更加便捷和安全的瀏覽體驗(yàn)。
3.3 ChatGLM-6B
3.3.1 ChatGLM的介紹
ChatGLM(GeneralLanguageModel),是清華大學(xué)KEG實(shí)驗(yàn)室(唐杰教授團(tuán)隊(duì))和清華技術(shù)成果轉(zhuǎn)化的公司智譜AI共同訓(xùn)練的一個(gè)具有問答、多輪對(duì)話和代碼生成功能的中英雙語模型,并針對(duì)中文進(jìn)行了優(yōu)化,多輪和邏輯能力相對(duì)有限,但其仍在持續(xù)迭代進(jìn)化過程中。它參考了ChatGPT的設(shè)計(jì)思路,在千億基座模型GLM-130B中注入了代碼預(yù)訓(xùn)練,通過有監(jiān)督微調(diào)(SupervisedFine-Tuning)等技術(shù)實(shí)現(xiàn)人類意圖對(duì)齊。ChatGLM當(dāng)前版本模型的能力提升主要來源于獨(dú)特的千億基座模型GLM-130B,它是一個(gè)包含多目標(biāo)函數(shù)的自回歸預(yù)訓(xùn)練模型。
ChatGLM-6B是一個(gè)開源的、支持中英雙語的對(duì)話語言模型,基于GLM架構(gòu),具有62億參數(shù)。結(jié)合模型量化技術(shù),用戶可以在消費(fèi)級(jí)的顯卡上進(jìn)行本地部署(INT4量化級(jí)別下最低只需6GB顯存)。經(jīng)過約1T標(biāo)識(shí)符的中英雙語訓(xùn)練,輔以監(jiān)督微調(diào)、反饋?zhàn)灾⑷祟惙答亸?qiáng)化學(xué)習(xí)等技術(shù)的加持,62億參數(shù)的ChatGLM-6B已經(jīng)能生成相當(dāng)符合人類偏好的回答。不過,由于ChatGLM-6B的規(guī)模較小,目前已知其具有相當(dāng)多的局限性,如事實(shí)性/數(shù)學(xué)邏輯錯(cuò)誤,可能生成有害/有偏見內(nèi)容,較弱的上下文能力,自我認(rèn)知混亂,以及對(duì)英文指示生成與中文指示完全矛盾的內(nèi)容。
3.3.2 ChatGLM的原理
ChatGLM是一個(gè)基于GeneralLanguageModel(GLM)架構(gòu)的對(duì)話語言模型,支持中英雙語問答,并針對(duì)中文進(jìn)行了優(yōu)化。GLM是一種預(yù)訓(xùn)練語言模型,使用自回歸空白填充(AutoregressiveBlankInfilling)的方法,可以同時(shí)學(xué)習(xí)單詞級(jí)別和句子級(jí)別的表示。
ChatGLM的架構(gòu)如下圖所示:
ChatGLM的架構(gòu)主要包括以下幾個(gè)部分:
-**輸入層**:將用戶的問題和相關(guān)的文檔內(nèi)容拼接起來,作為模型的輸入。
-**編碼層**:使用GLM模型對(duì)輸入進(jìn)行編碼,得到隱藏層表示。
-**解碼層**:使用GLM模型對(duì)隱藏層表示進(jìn)行解碼,生成回答。
-**輸出層**:將生成的回答格式化為markdown形式,方便展示。
ChatGLM還使用了模型量化技術(shù),降低了推理成本和顯存需求,使得模型可以在消費(fèi)級(jí)顯卡上進(jìn)行本地部署。1
3.3.3 ChatGLM-6B的特點(diǎn)
- 充分的中英雙語預(yù)訓(xùn)練:ChatGLM-6B在1:1比例的中英語料上訓(xùn)練了1T的token量,兼具雙語能力。
- 較低的部署門檻:FP16半精度下,ChatGLM-6B?需要至少13GB的顯存進(jìn)行推理,結(jié)合模型量化技術(shù),這一需求可以進(jìn)一步降低到10GB(INT8)和6GB(INT4),使得ChatGLM-6B可以部署在消費(fèi)級(jí)顯卡上。
更長(zhǎng)的序列長(zhǎng)度:相比GLM-10B(序列長(zhǎng)度1024),ChatGLM-6B?序列長(zhǎng)度達(dá)2048,支持更長(zhǎng)對(duì)話和應(yīng)用。 - 人類意圖對(duì)齊訓(xùn)練:使用了監(jiān)督微調(diào)(Supervised?Fine-Tuning)、反饋?zhàn)灾‵eedback?Bootstrap)、人類反饋強(qiáng)化學(xué)習(xí)(RLHF)等方式,使模型初具理解人類指令意圖的能力。輸出格式為?markdown,方便展示。
- 相對(duì)較弱的模型記憶和語言能力。在面對(duì)許多事實(shí)性知識(shí)任務(wù)時(shí),ChatGLM-6B可能會(huì)生成不正確的信息,也不太擅長(zhǎng)邏輯類問題(如數(shù)學(xué)、編程)的解答。
- 可能會(huì)產(chǎn)生有害說明或有偏見的內(nèi)容:ChatGLM-6B只是一個(gè)初步與人類意圖對(duì)齊的語言模型,可能會(huì)生成有害、有偏見的內(nèi)容。
- 較弱的多輪對(duì)話能力:ChatGLM-6B的上下文理解能力還不夠充分,在面對(duì)長(zhǎng)答案生成和多輪對(duì)話的場(chǎng)景時(shí),可能會(huì)出現(xiàn)上下文丟失和理解錯(cuò)誤的情況。
3.4 文心一言
3.4.1 文心一言的介紹
文心一言(ERNIE Bot)由百度首席技術(shù)官王海峰帶隊(duì)研發(fā),是百度全新一代知識(shí)增強(qiáng)大語言模型,能夠與人對(duì)話互動(dòng),回答問題,協(xié)助創(chuàng)作,高效便捷地幫助人們獲取信息、知識(shí)和靈感。它是在文心知識(shí)增強(qiáng)大模型ERNIE及對(duì)話大模型PLATO的基礎(chǔ)上研發(fā),基于飛槳深度學(xué)習(xí)平臺(tái)訓(xùn)練和部署,其關(guān)鍵技術(shù)包括有監(jiān)督精調(diào)、人類反饋的強(qiáng)化學(xué)習(xí)、提示、知識(shí)增強(qiáng)、檢索增強(qiáng)和對(duì)話增強(qiáng)。文心一言有五大能力,文學(xué)創(chuàng)作、商業(yè)文案創(chuàng)作、數(shù)理邏輯推算、中文理解、多模態(tài)生成。
3.4.2 文心一言的原理
暫無
3.4.3 文心一言的特點(diǎn)
- 智能聊天:文心一言可以像ChatGPT一樣進(jìn)行自然語言處理和生成,實(shí)現(xiàn)與用戶的智能對(duì)話。
- 個(gè)性化圖片生成:根據(jù)用戶的喜好和興趣進(jìn)行個(gè)性化圖片生成,提供更加符合用戶需求的內(nèi)容。
- 文藝歌詞生成:ERNIE?Bot可以生成各種優(yōu)美的句子和格言,讓用戶可以在社交媒體上分享或用作文藝歌詞。
- 文字處理:文心一言在中文語言處理方面更加優(yōu)秀,處理中文文本效率更高。
- 實(shí)用功能:百度開放文心平臺(tái)后,社區(qū)作者們會(huì)提供更多的實(shí)用功能,例如QQ群助手、彈幕過濾器、AI輔助寫作等,可以滿足用戶的多種需求。
- 語音識(shí)別:進(jìn)行語音識(shí)別,實(shí)現(xiàn)聽故事畫圖等功能,提高用戶的使用體驗(yàn)。
- 語義理解:進(jìn)行語義理解,理解用戶的意圖,你甚至可以和它玩猜詞接龍游戲。
- 多語言支持:支持多種語言,滿足不同用戶的需求。
3.5 訊飛星火認(rèn)知大模型
3.5.1 訊飛星火認(rèn)知大模型的介紹
科大訊飛推出的新一代認(rèn)知智能大模型,擁有跨領(lǐng)域的知識(shí)和語言理解能力,能夠基于自然對(duì)話方式理解與執(zhí)行任務(wù)。從海量數(shù)據(jù)和大規(guī)模知識(shí)中持續(xù)進(jìn)化,實(shí)現(xiàn)從提出、規(guī)劃到解決問題的全流程閉環(huán)。
3.5.2 訊飛星火認(rèn)知大模型的原理
暫無
3.5.3 訊飛星火認(rèn)知大模型的特點(diǎn)
- 能夠提供自然語言處理服務(wù),支持多種語言的文本輸入和輸出,但主要服務(wù)于中文和英語市場(chǎng)。
- 具備精準(zhǔn)的語音識(shí)別和合成能力,支持語音輸入輸出。
3.6 Bard
3.6.1 Bard的介紹
Bard是由Google開發(fā)的基于 Pathways Language Model 2?(PaLM 2)模型AI人工智能聊天機(jī)器人。目前
3.6.2 Bard的原理
暫無
3.6.3Bard的特點(diǎn)
暫無
3.7 系統(tǒng)比較
系統(tǒng)名稱 |
ChatGPT/ |
ChatGLM/ |
文心一言/ |
NewBing |
訊飛星火認(rèn)知大模型(SparkDesk) |
Bard |
開發(fā)者 |
OpenAI |
清華大學(xué) |
百度 |
微軟 |
科大訊飛 |
|
輸入-輸出 |
文本—文本 |
文本—文本 |
文本—文本/圖片 |
文本—文本/圖片 |
文本/語音-文本/語音 |
文本-文本 |
語言 |
多種語言 |
中英 |
中文 |
多種語言 |
多種語言 |
英文 |
形式 |
對(duì)話機(jī)器人 |
對(duì)話機(jī)器人 |
對(duì)話機(jī)器人 |
搜索引擎 |
對(duì)話機(jī)器人 |
對(duì)話機(jī)器人 |
參數(shù)量 |
1750億 |
1300億/62億 |
未公開 |
未公開 |
1000億+ |
1370億 |
實(shí)時(shí)性 |
2021.9 |
不聯(lián)網(wǎng) |
聯(lián)網(wǎng) |
聯(lián)網(wǎng) |
不聯(lián)網(wǎng) |
聯(lián)網(wǎng) |
特點(diǎn) |
基于GPT-3.5 |
基于GLM-130B/6B,開源免費(fèi),本地部署要求低 |
基于ERNIE和PLATO,內(nèi)測(cè)中 |
基于GPT-4,支持多種搜索模式,已上線 |
支持語音輸入輸出,內(nèi)測(cè)中 |
基于PaLM 2,目前僅支持英文 |
4 性能對(duì)比分析
4.1 系統(tǒng)性能比較
ChatGPT |
NewBing |
Bard |
ChatGLM-6B |
SparkDesk |
||
語義理解 |
簡(jiǎn)單語義 |
正確 |
正確 |
正確 |
正確 |
正確 |
孤獨(dú)語理解 |
錯(cuò)誤 |
正確 |
不能理解 |
錯(cuò)誤 |
錯(cuò)誤 |
|
上下文理解 |
能理解上下文,考慮問題全面 |
不能理解上下文 |
能理解上下文,回答正確 |
不能理解上下文 |
能理解上下文,回答正確 |
|
文言文理解 |
有偏差,給予背景和延伸 |
正確,給予背景 |
不能理解 |
正確,給予背景 |
正確 |
|
內(nèi)容創(chuàng)造 |
撰寫郵件 |
格式正確,語句通順,內(nèi)容詳實(shí) |
格式正確,語句通順 |
格式正確,語句通順 |
格式正確,語句通順 |
格式正確,語句通順 |
文章續(xù)寫 |
續(xù)寫豐富,流暢自然,總結(jié)寓意 |
續(xù)寫流暢自然 |
續(xù)寫豐富,流暢自然 |
錯(cuò)誤回答 |
流暢自然 |
|
撰寫影評(píng) |
正確,內(nèi)容完善 |
正確,總結(jié)性強(qiáng) |
正確,內(nèi)容完善 |
正確,簡(jiǎn)略 |
正確,中規(guī)中矩 |
|
歸納與推理 |
推理問題 |
正確 |
正確 |
正確,給予完整解釋 |
正確 |
錯(cuò)誤 |
邏輯問題 |
解釋完善 |
一般 |
解釋完善 |
一般 |
解釋完善 |
|
歸納總結(jié) |
冗長(zhǎng)準(zhǔn)確 |
簡(jiǎn)潔準(zhǔn)確 |
冗長(zhǎng)準(zhǔn)確 |
簡(jiǎn)潔準(zhǔn)確 |
回答不完整 |
|
數(shù)學(xué)能力 |
計(jì)算方程 |
結(jié)果正確,過程詳細(xì) |
結(jié)果正確 |
計(jì)算錯(cuò)誤 |
計(jì)算錯(cuò)誤 |
結(jié)果正確 |
年齡問題 |
結(jié)果正確,過程詳細(xì) |
結(jié)果正確,過程詳細(xì) |
結(jié)果正確,過程詳細(xì) |
結(jié)果錯(cuò)誤 |
結(jié)果錯(cuò)誤 |
|
遞歸問題 |
結(jié)果正確,過程詳細(xì) |
結(jié)果正確 |
結(jié)果錯(cuò)誤 |
結(jié)果錯(cuò)誤 |
結(jié)果錯(cuò)誤 |
|
抽象問題 |
正確 |
正確 |
正確 |
正確 |
正確 |
|
編碼能力 |
常見算法 |
正確 |
正確 |
正確 |
正確 |
正確 |
算法糾錯(cuò) |
正確,解釋完善 |
正確 |
正確,解釋完善 |
未找出錯(cuò)誤 |
回答錯(cuò)誤 |
4.2語義理解
4.2.1 簡(jiǎn)單語義:列舉3個(gè)中國(guó)海邊旅游地方
5個(gè)模型都進(jìn)行了正確的回答。其中,GPT-3.5、Bard、ChatGLM-6B、SparkDesk生成的答案對(duì)三個(gè)地點(diǎn)給出了進(jìn)一步的說明和介紹,NewBing給出了三個(gè)地點(diǎn),并給出了對(duì)應(yīng)的鏈接。
GPT-3.5:
NewBing:
Bard:
ChatGLM-6B:
?SparkDesk:
?4.2.2 孤立語理解:A大勝B,是誰贏?A大敗B,是誰贏?
孤立語一般不是通過詞形變化來表達(dá)語法的作用,而是通過獨(dú)立的虛詞和固定的詞序來表達(dá)語法意義。在孤立語的理解上,GPT-3.5回答是錯(cuò)誤的、NewBing給出了正確的回答、Bard僅能英文輸入不能理解問題的含義、ChatGLM-6B并未理解題意,僅從文字本身給予了解釋且未給出正確回答、SparkDesk也未理解題意。其中,NewBing在孤立語的表現(xiàn)上最好。
GPT-3.5:
NewBing:
Bard:
ChatGLM-6B:
SparkDesk:
4.2.3 上下文理解
GPT-3.5:
?NewBing:
Bard:
ChatGLM-6B:
SparkDesk:
4.2.4 文言文理解:燕不救魏,魏王折節(jié)割地,以國(guó)之半與秦,秦必去矣。這句話什么意思?
文言文行文簡(jiǎn)練、言文分離,可以判斷語言模型的對(duì)漢語的理解。
GPT-3.5:
NewBing:
?Bard:
?ChatGLM-6B:
?SparkDesk:
?4.3 內(nèi)容創(chuàng)造
4.3.1 撰寫郵件:你現(xiàn)在是一名外企員工,請(qǐng)寫一封郵件提醒同事盡快完成流程審批,要求按照商務(wù)英文標(biāo)準(zhǔn)。
GPT-3.5:
NewBing:
?Bard:
?ChatGLM-6B:
?SparkDesk:
?4.3.2 文章續(xù)寫:對(duì)龜兔賽跑這個(gè)故事進(jìn)行續(xù)寫
GPT-3.5:
?NewBing:
?Bard:
?ChatGLM-6B:
?SparkDesk:
?4.3.3 撰寫影評(píng):撰寫一份《流浪地球1》的影評(píng)
GPT-3.5:
?NewBing:
?Bard:
?ChatGLM-6B:
?SparkDesk:
?4.4 歸納和推理
4.4.1 推理問題:如果A不等于B,B不等于C,則A等于C。這對(duì)不對(duì)?
GPT-3.5:
?NewBing:
?Bard:
?ChatGLM-6B:
?SparkDesk:
?4.4.2 邏輯問題:群眾是真正的英雄,我是群眾,所以我是真正的英雄。這句話是正確的嗎?
GPT-3.5:
?NewBing:
?Bard:
?ChatGLM-6B:
?SparkDesk:
?4.4.3 歸納總結(jié):
“從前有一只小狗熊。他很聰明,但他有一個(gè)壞習(xí)慣,那就是不講禮貌。因此,雖然他是學(xué)校里學(xué)習(xí)的學(xué)生,但是老師和同學(xué)們也都不喜歡他。小狗熊三歲那年。他正走在上學(xué)的路上,有一早晨在家沒有吃飯就出門了,所以他準(zhǔn)備在路上買幾個(gè)包子吃。走著坐著,他看到一個(gè)賣包子的攤兒。小狗能看到有許多大人在哪兒等著賣包子,心想:馬上就要遲到了,我可不能再等了。接著,小狗熊不管三七二十一就跑到最前面對(duì)賣包子的阿姨大聲喊道:“喂!賣包子的!這包子,多少錢一斤?”賣包子的阿姨減小狗熊這么不禮貌,也就沒理他,小狗熊建阿姨沒理他,就大聲喊“賣包子的,問你話呢!”賣包子的叔叔阿姨們減小狗熊這樣,都說“這孩子怎么這樣啊?他插隊(duì)就不說了,關(guān)鍵是我們也趕時(shí)間啊!”“是呀是呀,他還對(duì)大人那么說話,真是太不講禮貌了!”小狗能聽了,生氣地走了。小狗能并沒有認(rèn)識(shí)到自己錯(cuò)了,它仍然每天都這樣。小狗能身邊的朋友也越來越少了直到最后沒人愿意跟他玩。小狗熊傷心的哭了。這時(shí),他的鄰居小花貓告訴了小狗熊,為什么大家都不喜歡他的原因,小狗熊才知道是自己不講禮貌造成的,從那以后,小狗熊變了。大家也越來越喜歡他了?!睔w納總結(jié)上面的故事。
GPT-3.5:
NewBing:
?Bard:
?ChatGLM-6B:
?SparkDesk:???????
?4.5 數(shù)學(xué)能力
4.5.1 計(jì)算方程能力:2x+9y=81;3x+y=34。解方程組
GPT-3.5:
?NewBing:
?Bard:
ChatGLM-6B:
?SparkDesk:
?4.5.2 年齡問題:我今年6歲,妹妹的年齡是我的一半,那么當(dāng)我90歲時(shí),妹妹多少歲?
GPT-3.5:
?NewBing:
?Bard:
?ChatGLM-6B:
?SparkDesk:
?4.5.3 遞歸問題:10階樓梯,每次上1階或2階,問總有多少種走法?
GPT-3.5:
?NewBing:
?Bard:
?ChatGLM-6B:
?SparkDesk:
?4.5.4 抽象問題:所有自然數(shù)和所有奇數(shù)哪個(gè)多?
GPT-3.5:
?NewBing:
?Bard:
?ChatGLM-6B:
?SparkDesk:
4.6編碼能力
4.6.1 常見算法:用python編寫一個(gè)冒泡算法
GPT-3.5:
?NewBing:
?Bard:
?ChatGLM-6B:
?SparkDesk:
?4.6.2 算法糾錯(cuò):
l?=?[1,?2,?3,?4,?5]
for?i?in?l:
l.append(i)?這段代碼有什么問題?
GPT-3.5:
?NewBing:
?Bard:
?ChatGLM-6B:
?SparkDesk:
5 結(jié)果分析和討論
根據(jù)對(duì)ChatGPT、Newbing、Bard、訊飛星火認(rèn)知大模型、文心一言、ChatGLM-6B的各方面問答分析,可以看出針對(duì)不同的任務(wù),不同的人工智能模型在語義理解、內(nèi)容創(chuàng)造、歸納與推理、數(shù)學(xué)能力以及編碼能力等方面表現(xiàn)不同。下面分別對(duì)各方面進(jìn)行分析總結(jié):
從語義理解的角度,所有模型均能正確理解簡(jiǎn)單語義。只有NewBing和Bard模型能夠正確理解孤獨(dú)語義。ChatGPT、Bard和ChatGLM-6B模型能夠理解上下文,并能全面考慮問題,而NewBing和SparkDesk模型則不能理解上下文。ChatGPT模型在文言文理解方面存在偏差,但能夠給予背景和延伸;NewBing模型和ChatGLM-6B模型能夠正確理解,同時(shí)給予背景;SparkDesk模型也能正確理解,而Bard和則不能理解文言文。
從內(nèi)容創(chuàng)造的角度來說,所有模型都能夠正確地撰寫郵件,其中ChatGPT模型能夠提供詳實(shí)的內(nèi)容。ChatGPT、Bard和SparkDesk模型能夠撰寫出豐富、流暢自然且總結(jié)寓意的文章續(xù)寫,NewBing模型只能撰寫出流暢自然的文章續(xù)寫,而ChatGLM-6B模型不能理解問題,回答有偏差。所有模型均能夠正確地撰寫影評(píng),其中ChatGPT和Bard模型能夠提供完善的內(nèi)容。
從歸納與推理的角度來說,所有模型都有進(jìn)行歸納推理的能力。ChatGPT和Bard模型能夠提供解釋完善的答案,而NewBing模型則只能提供一般的解釋完善程度,SparkDesk模型在推理問題方面出現(xiàn)了錯(cuò)誤。所有模型都能夠提供準(zhǔn)確的歸納總結(jié),但ChatGPT模型在回答時(shí)可能存在冗長(zhǎng)的情況。
從數(shù)學(xué)能力的角度,Chat-gpt、Newbing和SparkDesk模型能夠正確地計(jì)算方程,其中ChatGPT模型還能提供詳細(xì)的計(jì)算過程;但Bard和ChatGLM-6B模型計(jì)算錯(cuò)誤。Chat-gpt、Newbing和Bard模型都能夠正確地計(jì)算年齡問題,并提供詳細(xì)的計(jì)算過程。SparkDesk和ChatGLM-6B不能正確回答年齡問題。ChatGPT和Newbing模型能夠正確地解答遞歸問題,其他模型均回答錯(cuò)誤。另外,所有模型都能夠正確地解答抽象問題。
從編碼能力上來看,所有模型都能夠正確地解答常見簡(jiǎn)單算法問題。ChatGPT和Bard模型能夠正確地糾錯(cuò),并提供解釋完善的答案;NewBing模型則只能正確地糾錯(cuò),但未提供完善的解釋;SparkDesk模型回答錯(cuò)誤,而ChatGLM-6B模型不能找出錯(cuò)誤。
綜上所述,不同的人工智能模型在不同的任務(wù)中表現(xiàn)不同,但總體來說,ChatGPT和Newbing模型在各方面表現(xiàn)較為全面,能夠正確地理解語義,撰寫豐富、流暢自然且總結(jié)寓意的文章續(xù)寫,正確地解答推理和數(shù)學(xué)問題,并能夠正確地糾錯(cuò)并提供解釋完善的答案;Bard模型在上下文理解、邏輯推理問題解釋完善程度方面和編碼能力表現(xiàn)較好,但在其他方面表現(xiàn)不如其他模型;SparkDesk模型在上下文理解和撰寫影評(píng)方面表現(xiàn)較好,但在其他方面表現(xiàn)不如其他模型;而相比之下ChatGLM-6B模型的性能比較差。因此,在選擇適合的人工智能模型時(shí),需要根據(jù)具體任務(wù)的需求來進(jìn)行選擇。文章來源:http://www.zghlxwxcb.cn/news/detail-503469.html
(注:本文樣本數(shù)量較少,分析較為主觀)文章來源地址http://www.zghlxwxcb.cn/news/detail-503469.html
到了這里,關(guān)于常見大模型對(duì)比[ChatGPT(智能聊天機(jī)器人)、Newbing(必應(yīng))、Bard(巴德)、訊飛星火認(rèn)知大模型(SparkDesk)、ChatGLM-6B]的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!