開源鏈接如下:https://github.com/datawhalechina/so-large-lm/blob/main/docs/content/ch01.md
語言模型的概念:即能夠賦予每個(gè)有意義的詞(token)以一定的概率的一個(gè)函數(shù)的集合。
語言模型可以被用來評(píng)估輸入的質(zhì)量,也可以根據(jù)prompt生成對(duì)應(yīng)的內(nèi)容(作畫、描述、回答等)
溫度,可以控制模型生成中的變異量。
長(zhǎng)短期記憶模型通過門控結(jié)構(gòu),在一定程度上緩解了模型對(duì)長(zhǎng)序列的信息的處理能力。
Transformer則是大模型的前身。
二者具有里程碑意義。
大語言模型具有參數(shù)量以及訓(xùn)練的數(shù)據(jù)集大的特點(diǎn),當(dāng)然數(shù)據(jù)集大也意味著消耗的算力資源很大,當(dāng)然國外企業(yè)也能以GPU的顯卡資源抑制我國AI行業(yè)的發(fā)展,比如某美麗國和三大顯卡公司對(duì)其政策的執(zhí)行。
ok,今天的總結(jié)到此結(jié)束。文章來源:http://www.zghlxwxcb.cn/news/detail-792307.html
歡迎關(guān)注無神一起學(xué)習(xí)AI前沿領(lǐng)域,覺得有用請(qǐng)給個(gè)一鍵三連哦!文章來源地址http://www.zghlxwxcb.cn/news/detail-792307.html
到了這里,關(guān)于Datawhale 大模型基礎(chǔ)理論 Day1 引言的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!