国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

語(yǔ)言認(rèn)知模型--的學(xué)習(xí)筆記

這篇具有很好參考價(jià)值的文章主要介紹了語(yǔ)言認(rèn)知模型--的學(xué)習(xí)筆記。希望對(duì)大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請(qǐng)大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問(wèn)。

  1. 認(rèn)知語(yǔ)言學(xué):認(rèn)知科學(xué)(cognitive science)與語(yǔ)言學(xué)交 叉的一個(gè)研究分支,是研究人腦的思維、心智、智能、推理和認(rèn)識(shí)等認(rèn)知機(jī)理及其對(duì)語(yǔ)言進(jìn) 行分析和理解過(guò)程的一門(mén)學(xué)問(wèn)
  2. 語(yǔ)言認(rèn)知計(jì)算模型:
    1. 刻畫(huà)人腦語(yǔ)言認(rèn)知和理解過(guò)程的形式化模型
    2. 目的:建立可計(jì)算的、復(fù)雜度可控的數(shù)學(xué)模型,以便在計(jì)算機(jī)系 統(tǒng)上實(shí)現(xiàn)對(duì)人腦語(yǔ)言理解過(guò)程的模擬
    3. ?實(shí)現(xiàn)所謂的“類腦語(yǔ)言信息處理”
      1. 人腦處理語(yǔ)言的認(rèn)知機(jī)理:通過(guò)采集分析在某種語(yǔ)言環(huán)境下人腦的生理數(shù)據(jù),研究人腦對(duì)語(yǔ)音、詞匯、句法 和語(yǔ)義的理解機(jī)理
      2. 語(yǔ)言處理過(guò)程至少涉及兩種并行的過(guò)程:
        1. 語(yǔ)義記憶:負(fù)責(zé)檢索單詞間 的語(yǔ)義特征、關(guān)聯(lián)和語(yǔ)義關(guān)系
        2. 語(yǔ)義組合:至少有一個(gè)通路 負(fù)責(zé)將單詞整合形成更高級(jí)的含義
  3. 深度神經(jīng)網(wǎng)絡(luò)與自然語(yǔ)言處理:
    1. 在神經(jīng)網(wǎng)絡(luò)模型中融合記憶模塊和注意力機(jī)制成為了研究的趨勢(shì)
    2. 任務(wù)大多解決的是“處理”層面的問(wèn)題,如 邊界的切分、語(yǔ)音信號(hào)到文字的轉(zhuǎn)換等,而上升到“語(yǔ)義理解”的層面還有太多的 問(wèn)題,如正確理解一幅圖像所包含的語(yǔ)義和情感等,仍是極具有挑戰(zhàn)性的問(wèn)題。
  4. 人類語(yǔ)言需結(jié)合一 定的上下文和知識(shí)才能理解
  5. 語(yǔ)言具有一定的層次結(jié)構(gòu),具體表現(xiàn)為 詞、短語(yǔ)、句子、段落以及篇章等不同的語(yǔ)言粒度。為了讓計(jì)算機(jī)可以理解語(yǔ)言,需要將不 同粒度的語(yǔ)言都轉(zhuǎn)換成計(jì)算機(jī)可以處理的數(shù)據(jù)結(jié)構(gòu)。
    1. 連續(xù)表示:
      1. 為了解決離散表示所無(wú)法解決的““一詞多義”和“一義多詞”問(wèn)題
      2. 將語(yǔ)言單位表示為連續(xù)語(yǔ)義空間中的一個(gè)點(diǎn),這樣的表示方法稱之為連續(xù)表示
      3. 基于連續(xù)表示,詞與詞之間 就可以通過(guò)歐式距離或余弦距離等方式來(lái)計(jì)算相似度
      4. 常用方法:
        1. 分布式表示:基于 Harris 的分布式假設(shè),即如果兩個(gè)詞的上下文相似,那么這兩個(gè)詞也是相似的。
        2. 分散式表示(主流方法):
          1. 將語(yǔ)言的潛在語(yǔ)法或語(yǔ)義特征分散式地存儲(chǔ)在一組神經(jīng)元中,可以用稠密、低維、連續(xù)的向量來(lái)表示,也叫嵌入(Embeddings)。
          2. 一個(gè)好的詞嵌入模型應(yīng)該是:對(duì)于 相似的詞,它們對(duì)應(yīng)的詞嵌入也相近
    2. 根據(jù)所表示文本的顆粒度的不同,可以分為詞、句子、篇章的表示:
      1. 詞表示:Word embeddings:
        1. 詞嵌 入的質(zhì)量非常依賴于上下文窗口大小的選擇
        2. 有研究者關(guān)注如何利用已有的知識(shí)庫(kù)來(lái)改進(jìn)詞嵌入模型,結(jié)合知識(shí)圖譜 和未標(biāo)注語(yǔ)料在同一語(yǔ)義空間中來(lái)聯(lián)合學(xué)習(xí)知識(shí)和詞的向量表示,這樣可以更有效地實(shí)現(xiàn)詞 的嵌入
      2. 句子表示:
        1. 很多任務(wù)的輸入是變長(zhǎng)的文本序列,需要將變長(zhǎng)的文本序列表示成固定長(zhǎng)度的向量
        2. 句子編碼主要研究如何有效地從詞嵌入通過(guò)不同 方式的組合得到句子表示
        3. 神經(jīng)詞袋模型:
          1. 簡(jiǎn)單對(duì)文本序列中每個(gè)詞嵌入進(jìn)行平均,作為整個(gè)序列的表示
          2. 缺點(diǎn):丟失了詞序信息
          3. 對(duì)于長(zhǎng)文本,神經(jīng)詞袋模型比較有效。但是對(duì)于短文本, 神經(jīng)詞袋模型很難捕獲語(yǔ)義組合信息
        4. 遞歸神經(jīng)網(wǎng)絡(luò)(Recursive Neural Network):
          1. 按照一個(gè)給定的外部拓?fù)?結(jié)構(gòu)(比如成分句法樹(shù)),不斷遞歸得到整個(gè)序列的表示
          2. 缺點(diǎn):需要 給定一個(gè)拓?fù)浣Y(jié)構(gòu)來(lái)確定詞和詞之間的依賴關(guān)系,因此限制其使用范圍
        5. 循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Network):將文本序列看作時(shí)間序列,不 斷更新,最后得到整個(gè)序列的表示
        6. 卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network):”通過(guò)多個(gè)卷積層和子采樣 層,最終得到一個(gè)固定長(zhǎng)度的向量。
        7. 改進(jìn):
          1. 綜合這些方法的優(yōu)點(diǎn),結(jié)合具體的任務(wù),已 經(jīng) 提出了一些更復(fù)雜的組合模型, 例如 雙向循環(huán)神經(jīng) 網(wǎng)絡(luò) ( Bi-directional Recurrent Neural Network)、長(zhǎng)短時(shí)記憶模型(Long-Short Term Memory)等。
          2. 比如近幾年大熱的Attention機(jī)制、Transformer以及Bert模型
      3. 篇章表示:
        1. 思想:層次化的方法,先得到句子編碼,然后以句子編碼為輸入,進(jìn)一步得到篇章的表示
        2. 層次化CNN:用卷積神經(jīng)網(wǎng)絡(luò)對(duì)每個(gè)句子進(jìn)行建模,然后以 句子為單位再進(jìn)行一次卷積和池化操作,得到篇章表示
        3. 層次化RNN:用循環(huán)神經(jīng)網(wǎng)絡(luò)對(duì)每個(gè)句子進(jìn)行建模,然后再用一個(gè)循環(huán)神經(jīng)網(wǎng)絡(luò)建模以句子為單位的序列,得到篇章表示
        4. 混合模型:先用循環(huán)神經(jīng)網(wǎng)絡(luò)對(duì)每個(gè)句子進(jìn)行建模,然后以句子為單位再進(jìn)行 一次卷積和池化操作,得到篇章表示
        5. 循環(huán)神經(jīng)網(wǎng)絡(luò)因?yàn)榉浅_m合處理文本 序列,因此被廣泛應(yīng)用在很多自然語(yǔ)言處理任務(wù)上。

文章來(lái)源地址http://www.zghlxwxcb.cn/news/detail-498110.html

到了這里,關(guān)于語(yǔ)言認(rèn)知模型--的學(xué)習(xí)筆記的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來(lái)自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場(chǎng)。本站僅提供信息存儲(chǔ)空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請(qǐng)注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請(qǐng)點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • c語(yǔ)言學(xué)習(xí)之——<ctype.h>庫(kù)的介紹

    c語(yǔ)言學(xué)習(xí)之——<ctype.h>庫(kù)的介紹

    寫(xiě)這篇文章的起因是在練習(xí)算法的過(guò)程中遇到了isalnum()函數(shù),而自己又對(duì)此很陌生。查資料的時(shí)候又發(fā)現(xiàn)此函數(shù)涉及到c的一個(gè)標(biāo)準(zhǔn)庫(kù),干脆直接對(duì)庫(kù)進(jìn)行一個(gè)總結(jié)。以下正文為總結(jié)內(nèi)容。 目錄 ?一、簡(jiǎn)介 二、庫(kù)函數(shù) 1、isalnum()函數(shù) 2、isalpha()函數(shù) 3、isdigit()函數(shù) 4、islower()函

    2024年02月03日
    瀏覽(90)
  • C語(yǔ)言學(xué)習(xí)之統(tǒng)計(jì)英文字符串中26個(gè)字母大小寫(xiě)出現(xiàn)的次數(shù)

    實(shí)例要求: 編寫(xiě)C語(yǔ)言代碼,統(tǒng)計(jì)出英文字符串中26個(gè)字母大寫(xiě)和小寫(xiě) 出現(xiàn)的次數(shù) ; 輸入輸出如下所示: 實(shí)例分析: 1.對(duì)字符串用 while循環(huán)或者for循環(huán) 進(jìn)行遍歷,找到 26個(gè)英文字母大小寫(xiě) ; 2.將所有英文字母大寫(xiě)或者小寫(xiě)都轉(zhuǎn)換成 ASCII值 ,進(jìn)行運(yùn)算; 3.封裝相應(yīng)的功能函數(shù)

    2024年02月10日
    瀏覽(93)
  • 語(yǔ)言認(rèn)知模型--的學(xué)習(xí)筆記

    認(rèn)知語(yǔ)言學(xué):認(rèn)知科學(xué)(cognitive science)與語(yǔ)言學(xué)交 叉的一個(gè)研究分支,是研究人腦的思維、心智、智能、推理和認(rèn)識(shí)等認(rèn)知機(jī)理及其對(duì)語(yǔ)言進(jìn) 行分析和理解過(guò)程的一門(mén)學(xué)問(wèn) 語(yǔ)言認(rèn)知計(jì)算模型: 刻畫(huà)人腦語(yǔ)言認(rèn)知和理解過(guò)程的形式化模型 目的:建立可計(jì)算的、復(fù)雜度可控的

    2024年02月10日
    瀏覽(22)
  • AI大模型探索之路-認(rèn)知篇3:大語(yǔ)言模型微調(diào)基礎(chǔ)認(rèn)知

    AI大模型探索之路-認(rèn)知篇3:大語(yǔ)言模型微調(diào)基礎(chǔ)認(rèn)知

    在人工智能的廣闊研究領(lǐng)域內(nèi),大型預(yù)訓(xùn)練語(yǔ)言模型(Large Language Models, LLMs)已經(jīng)成為推動(dòng)技術(shù)革新的關(guān)鍵因素。這些模型通過(guò)在大規(guī)模數(shù)據(jù)集上的預(yù)訓(xùn)練過(guò)程獲得了強(qiáng)大的語(yǔ)言理解和生成能力,使其能夠在多種自然語(yǔ)言處理任務(wù)中表現(xiàn)出色。然而,由于預(yù)訓(xùn)練過(guò)程所產(chǎn)生的

    2024年04月24日
    瀏覽(23)
  • AI大模型探索之路-訓(xùn)練篇2:大語(yǔ)言模型預(yù)訓(xùn)練基礎(chǔ)認(rèn)知

    AI大模型探索之路-訓(xùn)練篇2:大語(yǔ)言模型預(yù)訓(xùn)練基礎(chǔ)認(rèn)知

    在人工智能的宏偉藍(lán)圖中,大語(yǔ)言模型(LLM)的預(yù)訓(xùn)練是構(gòu)筑智慧之塔的基石。預(yù)訓(xùn)練過(guò)程通過(guò)調(diào)整龐大參數(shù)空間以吸納數(shù)據(jù)中蘊(yùn)含的知識(shí),為模型賦予從語(yǔ)言理解到文本生成等多樣化能力。本文將深入探討預(yù)訓(xùn)練過(guò)程中的技術(shù)細(xì)節(jié)、所面臨的挑戰(zhàn)、通信機(jī)制、并行化策略以

    2024年04月25日
    瀏覽(34)
  • 大模型語(yǔ)言模型的全面測(cè)評(píng):ChatGPT、訊飛星火認(rèn)知大模型、文心一言、昆侖天工和通義千問(wèn)

    在當(dāng)今人工智能技術(shù)日益成熟的背景下,大模型語(yǔ)言模型的應(yīng)用越來(lái)越廣泛。作為一名AI愛(ài)好者,我測(cè)試了五個(gè)平臺(tái)的大模型,分別是ChatGPT、訊飛星火認(rèn)知大模型、文心一言、昆侖天工和通義千問(wèn)。通過(guò)對(duì)這五個(gè)平臺(tái)的提問(wèn)并得到其回答結(jié)果,我深刻感受到這些大模型的強(qiáng)大

    2024年02月10日
    瀏覽(31)
  • 關(guān)于深度學(xué)習(xí)和大模型的基礎(chǔ)認(rèn)知

    關(guān)于深度學(xué)習(xí)和大模型的基礎(chǔ)認(rèn)知

    這年頭,作為一個(gè)技術(shù)人,話頭里沒(méi)有“大模型”,和人聊天都聊不下去。為了讓自己和大家能更好的參與話頭,特撰寫(xiě)此文,提供一些對(duì)大模型的基礎(chǔ)認(rèn)知能力(門(mén)外漢,淺嘗輒止)。旨在解自己的一些困惑,比如,模型是什么意思?千億/萬(wàn)億參數(shù)意味著什么?為什么大模

    2024年02月22日
    瀏覽(14)
  • JUC并發(fā)編程學(xué)習(xí)筆記(一)認(rèn)知進(jìn)程和線程

    進(jìn)程 一個(gè)程序,如QQ.exe,是程序的集合 一個(gè)進(jìn)程往往可以包含多個(gè)線程,至少包含一個(gè) java默認(rèn)有兩個(gè)線程,GC垃圾回收線程和Main線程 線程:一個(gè)進(jìn)程中的各個(gè)功能 java無(wú)法真正的開(kāi)啟線程,因?yàn)閖ava是運(yùn)行在虛擬機(jī)上的,所以只能通過(guò)C++,通過(guò)native本地方法調(diào)用C++開(kāi)啟線程

    2024年02月06日
    瀏覽(95)
  • 邁向通用聽(tīng)覺(jué)人工智能!清華電子系、火山語(yǔ)音攜手推出認(rèn)知導(dǎo)向的聽(tīng)覺(jué)大語(yǔ)言模型SALMONN

    邁向通用聽(tīng)覺(jué)人工智能!清華電子系、火山語(yǔ)音攜手推出認(rèn)知導(dǎo)向的聽(tīng)覺(jué)大語(yǔ)言模型SALMONN

    日前,清華大學(xué)電子工程系與火山語(yǔ)音團(tuán)隊(duì)攜手合作,推出認(rèn)知導(dǎo)向的開(kāi)源聽(tīng)覺(jué)大語(yǔ)言模型SALMONN (Speech Audio Language Music Open Neural Network)。 大語(yǔ)言模型 SALMONN LOGO 相較于僅僅支持語(yǔ)音輸入或非語(yǔ)音音頻輸入的其他大模型,SALMONN對(duì)語(yǔ)音、音頻事件、音樂(lè)等各類音頻輸入都具有感知

    2024年02月12日
    瀏覽(28)
  • 【學(xué)習(xí)筆記】生成式AI(ChatGPT原理,大型語(yǔ)言模型)

    【學(xué)習(xí)筆記】生成式AI(ChatGPT原理,大型語(yǔ)言模型)

    語(yǔ)言模型 == 文字接龍 ChatGPT在測(cè)試階段是不聯(lián)網(wǎng)的。 又叫自監(jiān)督式學(xué)習(xí)(Self-supervised Learning),得到的模型叫做基石模型(Foundation Model)。在自監(jiān)督學(xué)習(xí)中,用一些方式“無(wú)痛”生成成對(duì)的學(xué)習(xí)資料。 GPT1 - GPT2 - GPT3 (參數(shù)量增加,通過(guò)大量網(wǎng)絡(luò)資料學(xué)習(xí),這一過(guò)程稱為預(yù)訓(xùn)

    2024年02月14日
    瀏覽(50)

覺(jué)得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請(qǐng)作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包