国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

論文筆記--GloVe: Global Vectors for Word Representation

這篇具有很好參考價值的文章主要介紹了論文筆記--GloVe: Global Vectors for Word Representation。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點擊"舉報違法"按鈕提交疑問。

1. 文章簡介

  • 標題:GloVe: Global Vectors for Word Representation
  • 作者:Jeffrey Pennington, Richard Socher, Christopher D. Manning
  • 日期:2014
  • 期刊:EMNLP

2. 文章概括

??文章提出了一種新的單詞表示的訓練方法:Glove。該方法結合了基于統(tǒng)計方法和基于上下文窗口方法的優(yōu)勢,在多個下游任務上超越了當下SOTA方法的表現(xiàn)。

3 文章重點技術

3.1 兩種常用的單詞向量訓練方法

??現(xiàn)有的兩類常用的單詞向量訓練方法為

  • 基于矩陣分解的方法,如LSA會首先計算一個term-document矩陣,每一列表示每個文檔中各個單詞的出現(xiàn)頻率,然后進行奇異值分解;HAL則會首先計算一個term-term共現(xiàn)矩陣。但此類方法會被頻繁出現(xiàn)的the, and等單詞影響,計算相似度的時候該類對語義影響很小的單詞會占較大的比重。
  • 基于上下文窗口的方法,如Word2Vec[1]。此類方法沒有用到語料中的統(tǒng)計信息,可能無法捕捉到數(shù)據(jù)中的重復現(xiàn)象。

3.2 GloVe

??為了解決上述兩種方法存在的問題,文章提出了一種Global Vectors(GloVe)單詞嵌入方法,可以直接捕獲語料中的統(tǒng)計信息。
??首先,我們計算單詞共現(xiàn)矩陣 X X X,其中 X i j X_ij Xi?j表示單詞 j j j出現(xiàn)在單詞 i i i的上下文的次數(shù)。令 X i = ∑ k X i k X_i = \sum_k X_{ik} Xi?=k?Xik?表示任意單詞出現(xiàn)在單詞 i i i上下文的總次數(shù),則 P i j = X i j X i P_{ij} = \frac {X_ij}{X_i} Pij?=Xi?Xi?j?表示單詞 j j j出現(xiàn)在單詞 i i i的上下文的概率。
??為了得到每個單詞的嵌入 w i w_i wi?,文章首先需要假設一種嵌入 w i , w j w_i, w_j wi?,wj?和共現(xiàn)矩陣之間的關系式。為此,文章給出一個示例:如下表所示,假設考慮單詞i=“ice”,j=“steam”,則k="solid"時,由于"solid"和"ice"相關性更高,所以 P i k / P j k P_{ik}/P_{jk} Pik?/Pjk?應該大一點,下表中實驗結果為8.9;如果k=“gas”,和"steam"的相關性更高,從而 P i k / P j k P_{ik}/P_{jk} Pik?/Pjk?應該小一點,下表中實驗結果為 8.5 × 1 0 ? 2 8.5 \times 10^{-2} 8.5×10?2;如果k="water"和二者均相關或k="fashion"和二者均不相關,則 P i k / P j k P_{ik}/P_{jk} Pik?/Pjk?應該接近1,如下表中的 1.36 1.36 1.36 0.96 0.96 0.96。
論文筆記--GloVe: Global Vectors for Word Representation,論文閱讀,論文閱讀,word2vec,GloVe,nlp,自然語言處理
??為此,文章選擇通過單詞 i , j i,j i,j之間的概率比值來進行建模: F ( w i , w j , w ~ k ) = P i k P j k F(w_i, w_j, \tilde{w}_k) = \frac {P_{ik}}{P_{jk}} F(wi?,wj?,w~k?)=Pjk?Pik??,其中 w i , w j , w ~ k w_i, w_j, \tilde{w}_k wi?,wj?,w~k?分別表示 i , j , k i, j, k i,j,k的詞向量, w ~ \tilde{w} w~也是待學習的參數(shù),和 w w w本質上沒有區(qū)別,只是通過不同的初始化得到的,用于區(qū)分探針單詞( k k k)和共現(xiàn)單詞,類似transformer中的Q,K含義??紤]到單詞空間一般是線性的,我們用 w i ? w j w_i - w_j wi??wj?表示向量之間的差異: F ( w i ? w j , w ~ k ) = P i k P j k F(w_i- w_j, \tilde{w}_k) = \frac {P_{ik}}{P_{jk}} F(wi??wj?,w~k?)=Pjk?Pik??,又因為上式左邊的輸入為兩個向量,右邊為標量,故我們考慮用向量的點積: F ( ( w i ? w j ) T w ~ k ) = P i k P j k F((w_i -w_j)^T\tilde{w}_k) = \frac {P_{ik}}{P_{jk}} F((wi??wj?)Tw~k?)=Pjk?Pik??。由于單詞的共現(xiàn)矩陣中,單詞和上下文單詞是任意指定的,我們可以自由交換當前單詞和上下文單詞,從而我們要保證交換 w ? w ~ w \leftrightarrow \tilde{w} w?w~ X ? X T X \leftrightarrow X^T X?XT后上式仍然成立,故我們首先需要 F F F為一個同態(tài)映射: F ( ( w i ? w j ) T w ~ k ) = F ( w i T w ~ k ) F ( w j T w ~ k ) F((w_i -w_j)^T\tilde{w}_k) = \frac {F(w_i^T\tilde{w}_k)}{F(w_j^T\tilde{w}_k)} F((wi??wj?)Tw~k?)=F(wjT?w~k?)F(wiT?w~k?)?,從而有 F ( w i T w ~ k ) = P i k = X i k X i F(w_i^T\tilde{w}_k) = P_{ik} = \frac {X_{ik}}{X_i} F(wiT?w~k?)=Pik?=Xi?Xik??。由于上式的解為 F = exp ? F=\exp F=exp,從而 exp ? ( w i T w ~ k ) = P i k = X i k X i ?? ? ?? w i T w ~ k = log ? P i k = log ? ( X i k X i ) = log ? ( X i k ) ? log ? ( X i ) \exp (w_i^T \tilde{w}_k) = P_{ik} = \frac {X_{ik}}{X_i}\\\implies w_i^T \tilde{w}_k = \log P_{ik} = \log \left(\frac {X_{ik}}{X_i}\right) = \log(X_{ik}) - \log (X_i) exp(wiT?w~k?)=Pik?=Xi?Xik???wiT?w~k?=logPik?=log(Xi?Xik??)=log(Xik?)?log(Xi?);其次考慮到上式的 log ? ( X i ) \log (X_i) log(Xi?) k k k無關,故可以寫作偏差 b i b_i bi?,再增加 w ~ k \tilde{w}_k w~k?的偏差 b ~ k \tilde_k b~k?,我們得到 w i T w ~ k + b i + b ~ k = log ? ( x i k ) w_i^T \tilde{w}_k + b_i + \tilde_k = \log(x_{ik}) wiT?w~k?+bi?+b~k?=log(xik?)滿足上述對稱要求。在此基礎上增加權重函數(shù) f ( X i j ) f(X_{ij}) f(Xij?)可以保證共現(xiàn)太頻繁的元素不會被過分的重視,且稀有的共現(xiàn)元素也不會被過分重視。這就要求 f f f滿足非遞減且有明確上界,如下函數(shù)滿足條件: f ( x ) = { ( x / x m a x ) α i f ? x < x m a x , 1 , o t h e r w i s e f(x) = \begin{cases}(x/x_{max})^{\alpha} \quad &if \ x < x_{max},\\1, \quad &otherwise \end{cases} f(x)={(x/xmax?)α1,?if?x<xmax?,otherwise?。函數(shù)曲線如下圖所示論文筆記--GloVe: Global Vectors for Word Representation,論文閱讀,論文閱讀,word2vec,GloVe,nlp,自然語言處理

3.3 模型的復雜度

??文章證明,當 α = 1.25 \alpha = 1.25 α=1.25時交過較好,此時模型的復雜度為 O ( ∣ C ∣ ) \mathcal{O}(|\mathcal{C}|) O(C),其中 C \mathcal{C} C表示語料庫。相比于其他基于上下文窗口的方法復雜度 O ( V 2 ) \mathcal{O}(V^2) O(V2)更低。

4. 文章亮點

??文章提出了基于將上下文窗口和共現(xiàn)矩陣結合的詞向量嵌入方法GloVe,數(shù)值實驗表明,GloVe在單詞相似度、單詞類比和NER等任務上相比于其他SOTA方法有明顯提升。

5. 原文傳送門

[GloVe: Global Vectors for Word Representation](GloVe: Global Vectors for Word Representation)

6. References

[1] 論文筆記–Efficient Estimation of Word Representations in Vector Space文章來源地址http://www.zghlxwxcb.cn/news/detail-619043.html

到了這里,關于論文筆記--GloVe: Global Vectors for Word Representation的文章就介紹完了。如果您還想了解更多內容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務,不擁有所有權,不承擔相關法律責任。如若轉載,請注明出處: 如若內容造成侵權/違法違規(guī)/事實不符,請點擊違法舉報進行投訴反饋,一經查實,立即刪除!

領支付寶紅包贊助服務器費用

相關文章

  • 【論文閱讀筆記】4篇Disentangled representation learning用于圖像分割的論文

    【論文閱讀筆記】4篇Disentangled representation learning用于圖像分割的論文

    4篇應用解耦表示學習的文章,這里只關注如何解耦,更多細節(jié)不關注,簡單記錄一下。 Chen C, Dou Q, Jin Y, et al. Robust multimodal brain tumor segmentation via feature disentanglement and gated fusion[C]//Medical Image Computing and Computer Assisted Intervention–MICCAI 2019: 22nd International Conference, Shenzhen, China, O

    2024年01月17日
    瀏覽(37)
  • 【論文閱讀筆記】 Representation Learning with Contrastive Predictive Coding

    【論文閱讀筆記】 Representation Learning with Contrastive Predictive Coding

    這段文字是論文的摘要,作者討論了監(jiān)督學習在許多應用中取得的巨大進展,然而無監(jiān)督學習并沒有得到如此廣泛的應用,仍然是人工智能中一個重要且具有挑戰(zhàn)性的任務。在這項工作中,作者提出了一種通用的無監(jiān)督學習方法,用于從高維數(shù)據(jù)中提取有用的表示,被稱為“

    2024年01月25日
    瀏覽(26)
  • 論文閱讀-《HigherHRNet: Scale-Aware Representation Learning for Bottom-Up Human Pose Estimation》

    論文閱讀-《HigherHRNet: Scale-Aware Representation Learning for Bottom-Up Human Pose Estimation》

    ?目錄 一、總述 1. 要解決的問題 2. 使用的方法 3. 取得的成果 二、摘要 三、介紹 四、相關工作 五、高分辨率網(wǎng)絡 1. HigherHRNet i. HRNet ii. HigherHRNet 2. 分組 3. 反卷積模塊 4. 多分辨率監(jiān)督 5. 熱圖聚合策略 六、實驗 1. COCO數(shù)據(jù)集關鍵點預測 2. 消融實驗 3. CrowdPose 七、結論 ?????

    2024年04月12日
    瀏覽(16)
  • 圖像融合論文閱讀:LRRNet: A Novel Representation Learning Guided Fusion Network for Infrared and Visible Imag

    圖像融合論文閱讀:LRRNet: A Novel Representation Learning Guided Fusion Network for Infrared and Visible Imag

    @ARTICLE{10105495, author={Li, Hui and Xu, Tianyang and Wu, Xiao-Jun and Lu, Jiwen and Kittler, Josef}, journal={IEEE Transactions on Pattern Analysis and Machine Intelligence}, title={LRRNet: A Novel Representation Learning Guided Fusion Network for Infrared and Visible Images}, year={2023}, volume={45}, number={9}, pages={11040-11052}, doi={10.1109/TPAMI.2

    2024年01月21日
    瀏覽(24)
  • 論文筆記 - :DIGGING INTO OUTPUT REPRESENTATION FOR MONOCULAR 3D OBJECT DETECTION

    論文筆記 - :DIGGING INTO OUTPUT REPRESENTATION FOR MONOCULAR 3D OBJECT DETECTION

    Title: 深入研究單目 3D 物體檢測的 輸出表示 單目 3D 對象檢測旨在從單個圖像中識別和定位 3D 空間中的對象。最近的研究取得了顯著的進展,而所有這些研究都遵循基于 LiDAR 的 3D 檢測中的典型輸出表示。 然而,在本文中,我們認為現(xiàn)有的離散輸出表示不適合單目 3D 檢測。具

    2024年04月09日
    瀏覽(15)
  • 【自監(jiān)督論文閱讀筆記】EVA: Exploring the Limits of Masked Visual Representation Learning at Scale

    【自監(jiān)督論文閱讀筆記】EVA: Exploring the Limits of Masked Visual Representation Learning at Scale

    ????????本文推出了 EVA ,這是一個 以視覺為中心 的基礎模型,旨在僅使用可公開訪問的數(shù)據(jù)來 探索大規(guī)模 視覺表示的 局限性 。EVA 是一種經過預訓練的普通 ViT,用于 重建 以可見圖像塊為條件的 屏蔽掉的 圖像-文本對齊(image-text aligned)的視覺特征 。通過這個前置任

    2024年02月06日
    瀏覽(25)
  • CFT:Multi-Camera Calibration Free BEV Representation for 3D Object Detection——論文筆記

    CFT:Multi-Camera Calibration Free BEV Representation for 3D Object Detection——論文筆記

    參考代碼:暫無 介紹:在相機數(shù)據(jù)作為輸入的BEV感知算法中很多是需要顯式或是隱式使用相機內外參數(shù)的,但是相機的參數(shù)自標定之后并不是一直保持不變的,這就對依賴相機標定參數(shù)的算法帶來了麻煩。如何提升模型對相機參數(shù)魯棒性,甚至是如何去掉相機參數(shù)成為一種趨

    2024年02月01日
    瀏覽(32)
  • 【論文閱讀】Deep Graph Contrastive Representation Learning

    【論文閱讀】Deep Graph Contrastive Representation Learning

    作者:Yanqiao Zhu Yichen Xu 文章鏈接:Deep Graph Contrastive Representation Learning 代碼鏈接:Deep Graph Contrastive Representation Learning 現(xiàn)實世界中,圖的標簽數(shù)量較少,盡管GNNs蓬勃發(fā)展,但是訓練模型時標簽的可用性問題也越來越受到關心。 傳統(tǒng)的無監(jiān)督圖表征學習方法,例如DeepWalk和nod

    2024年01月18日
    瀏覽(21)
  • 論文筆記--Skip-Thought Vectors

    論文筆記--Skip-Thought Vectors

    標題:Skip-Thought Vectors 作者:Ryan Kiros, Yukun Zhu, Ruslan Salakhutdinov, Richard S. Zemel, Antonio Torralba, Raquel Urtasun, Sanja Fidler 日期:2015 期刊:NIPS ??文章提出了Skip Thought模型,旨在提供一種句向量的預訓練方式。文章的核心思想類似于Word2Vec的skip-gram方法,即通過當前句子預測上下文

    2024年02月16日
    瀏覽(13)
  • Learning Sample Relationship for Exposure Correction 論文閱讀筆記

    Learning Sample Relationship for Exposure Correction 論文閱讀筆記

    這是中科大發(fā)表在CVPR2023的一篇論文,提出了一個module和一個損失項,能夠提高現(xiàn)有exposure correction網(wǎng)絡的性能。這已經是最近第三次看到這種論文了,前兩篇分別是CVPR2022的ENC(和這篇文章是同一個一作作者)和CVPR2023的SKF,都是類似即插即用地提出一些模塊來提高現(xiàn)有方法的

    2024年02月07日
    瀏覽(20)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領取紅包,優(yōu)惠每天領

二維碼1

領取紅包

二維碼2

領紅包