一、說明
????????大語言模型(維基:LLM-?large language model)是以大尺寸為特征的語言模型。它們的規(guī)模是由人工智能加速器實(shí)現(xiàn)的,人工智能加速器能夠處理大量文本數(shù)據(jù),這些數(shù)據(jù)大部分是從互聯(lián)網(wǎng)上抓取的。 [1]所構(gòu)建的人工神經(jīng)網(wǎng)絡(luò)可以包含數(shù)千萬到數(shù)十億的權(quán)重,并使用自監(jiān)督學(xué)習(xí)和半監(jiān)督學(xué)習(xí)進(jìn)行(預(yù))訓(xùn)練。 Transformer 架構(gòu)有助于加快訓(xùn)練速度。[2]替代架構(gòu)包括專家混合(MoE),它是由 Google 提出的,從 2017 年的稀疏門控架構(gòu)開始,[3] 2021 年的 Gshard[4] 到 2022 年的 GLaM。?文章來源:http://www.zghlxwxcb.cn/news/detail-647260.html
????????作為語言模型,它們的工作原理是獲取文章來源地址http://www.zghlxwxcb.cn/news/detail-647260.html
到了這里,關(guān)于大語言模型:LLM的概念是個(gè)啥?的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!