国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

【Pytorch:nn.Embedding】簡介以及使用方法:用于生成固定數(shù)量的具有指定維度的嵌入向量embedding vector

這篇具有很好參考價值的文章主要介紹了【Pytorch:nn.Embedding】簡介以及使用方法:用于生成固定數(shù)量的具有指定維度的嵌入向量embedding vector。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點擊"舉報違法"按鈕提交疑問。

1、nn.Embedding

  • 首先我們講解一下關(guān)于嵌入向量embedding vector的概念

1)在自然語言處理NLP領(lǐng)域,是將單詞、短語或其他文本單位映射到一個固定長度的實數(shù)向量空間中。嵌入向量具有較低的維度,通常在幾十到幾百維之間,且每個維度都包含一定程度上的語義信息。這意味著在嵌入向量空間中,語義上相似的單詞在向量空間中也更加接近。
2)在計算機視覺領(lǐng)域,是將圖像或圖像中的區(qū)域映射到一個固定長度的實數(shù)向量空間中。嵌入向量在計算機視覺任務(wù)中起到了表示和提取特征的作用。通過將圖像映射到嵌入向量空間,可以捕捉到圖像的語義信息、視覺特征以及圖像之間的相似性。文章來源地址http://www.zghlxwxcb.cn/news/detail-650147.html

  • 總之,嵌入向量是具有固定維度的,而不論是在NLP領(lǐng)域還是CV領(lǐng)域,都需要生成多個嵌入向量,因此也有固定數(shù)量。
  • 于是,我們就可以簡單理解該類為:
CLASS torch.nn.Embedding(num_embeddings, embedding_dim, padding_idx=None, max_norm=None,
norm_type=2.0, scale_grad_by_freq=False, sparse=False, _weight=None, _freeze=False, device=None, dtype=None)
''
一個簡單的查找表,用于存儲固定詞典和尺寸的embeddings:其實就是存儲了固定數(shù)量的具有固定維度的嵌入向量
該模塊需要使用索引檢索嵌入向量:也就是說模塊的輸入是索引列表,輸出是相應(yīng)存儲的嵌入向量。
1) num_embeddings: 嵌入向量的數(shù)量
2) embedding_dim: 嵌入向量的維度
注意:
1)它的成員變量weight:具有shape為 (num_embeddings, embedding_dim) 的可學(xué)習(xí)的參數(shù)
2)輸入為:任意形狀[*]的IntTensor或LongTensor,內(nèi)部元素為索引值,即0到num_embeddings-1之間的值
   輸出為:[*, H]的嵌入向量,H為embedding_dim
''
  • 例如:
from torch import nn
import torch


# an Embedding module containing 10 tensors of size 3
embedding = nn.Embedding(10, 3)
# a batch of 2 samples of 4 indices each
input = torch.LongTensor([[1, 2, 4, 5], [4, 3, 2, 9]])
print(embedding(input))
print(embedding.weight)
''
輸出為:
tensor([[[ 0.4125,  0.1478,  0.3764],
         [ 0.5272, -0.4960,  1.5926],
         [ 0.2231, -0.7653, -0.5333],
         [ 2.8278,  1.5299,  1.4080]],

        [[ 0.2231, -0.7653, -0.5333],
         [-0.3996,  0.3626, -0.3369],
         [ 0.5272, -0.4960,  1.5926],
         [ 0.6222,  1.3385,  0.6861]]], grad_fn=<EmbeddingBackward>)
Parameter containing:
tensor([[-0.1316, -0.2370, -0.8308],
        [ 0.4125,  0.1478,  0.3764],
        [ 0.5272, -0.4960,  1.5926],
        [-0.3996,  0.3626, -0.3369],
        [ 0.2231, -0.7653, -0.5333],
        [ 2.8278,  1.5299,  1.4080],
        [-0.4182,  0.4665,  1.5345],
        [-1.2107,  0.3569,  0.9719],
        [-0.6439, -0.4095,  0.6130],
        [ 0.6222,  1.3385,  0.6861]], requires_grad=True)
''

2、使用場景

  • transformer decoder輸入的嵌入向量Output Embedding
    【Pytorch:nn.Embedding】簡介以及使用方法:用于生成固定數(shù)量的具有指定維度的嵌入向量embedding vector,Pytorch,pytorch,embedding,深度學(xué)習(xí),transformer,detr
  • DETR中的decoder的object queries
    【Pytorch:nn.Embedding】簡介以及使用方法:用于生成固定數(shù)量的具有指定維度的嵌入向量embedding vector,Pytorch,pytorch,embedding,深度學(xué)習(xí),transformer,detr

到了這里,關(guān)于【Pytorch:nn.Embedding】簡介以及使用方法:用于生成固定數(shù)量的具有指定維度的嵌入向量embedding vector的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實不符,請點擊違法舉報進行投訴反饋,一經(jīng)查實,立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費用

相關(guān)文章

  • 深入理解PyTorch中的nn.Embedding

    深入理解PyTorch中的nn.Embedding

    太長不看版: NLP任務(wù)所依賴的語言數(shù)據(jù)稱為語料庫。 詳細介紹版: 語料庫(Corpus,復(fù)數(shù)是Corpora)是組織成數(shù)據(jù)集的真實文本或音頻的集合。 此處的真實是指由該語言的母語者制作的文本或音頻。 語料庫可以由從報紙、小說、食譜、廣播到電視節(jié)目、電影和推文的所有內(nèi)容

    2024年02月09日
    瀏覽(28)
  • pytorch復(fù)習(xí)筆記--nn.Embedding()的用法

    pytorch復(fù)習(xí)筆記--nn.Embedding()的用法

    目錄 1--nn.Embedding()的用法 2--實例展示: 3--注意的問題 nn.Embedding()產(chǎn)生一個權(quán)重矩陣weight,其shape為(num_embeddings, embedding_dim),表示生成num_embeddings個具有embedding_dim大小的嵌入向量; 輸入input的形狀shape為(batch_size, Seq_len),batch_size表示樣本數(shù)(NLP句子數(shù)),Seq_len表示序列

    2024年02月16日
    瀏覽(19)
  • PyTorch 之 簡介、相關(guān)軟件框架、基本使用方法、tensor 的幾種形狀和 autograd 機制

    PyTorch 之 簡介、相關(guān)軟件框架、基本使用方法、tensor 的幾種形狀和 autograd 機制

    本文參加新星計劃人工智能(Pytorch)賽道:https://bbs.csdn.net/topics/613989052 PyTorch 是一個基于 Torch 的 Python 開源機器學(xué)習(xí)庫,用于自然語言處理等應(yīng)用程序。它主要由 Facebook 的人工智能小組開發(fā),不僅能夠?qū)崿F(xiàn)強大的 GPU 加速,同時還支持動態(tài)神經(jīng)網(wǎng)絡(luò),這一點是現(xiàn)在很多主流框架

    2024年01月18日
    瀏覽(24)
  • pytorch nn.Embedding 讀取gensim訓(xùn)練好的詞/字向量(有例子)

    pytorch nn.Embedding 讀取gensim訓(xùn)練好的詞/字向量(有例子)

    ? *也許看了上面你依然會一臉懵(別著急,下面給你舉個例子)

    2024年02月07日
    瀏覽(25)
  • NLP:palm-rlhf-pytorch(一種類ChatGPT的開源替代方案PaLM+RLHF)的簡介、安裝、使用方法之詳細攻略

    NLP:palm-rlhf-pytorch(一種類ChatGPT的開源替代方案PaLM+RLHF)的簡介、安裝、使用方法之詳細攻略 目錄 palm-rlhf-pytorch(一種類ChatGPT的開源替代方案PaLM+RLHF)的簡介 palm-rlhf-pytorc的安裝 palm-rlhf-pytorc的使用方法 1、基礎(chǔ)用法 ? ? ? palm-rlhf-pytorch是基于PaLM架構(gòu)的RLHF(人類反饋強化學(xué)習(xí))的實現(xiàn)

    2024年02月06日
    瀏覽(21)
  • Stable Diffusion——基礎(chǔ)模型、VAE、LORA、Embedding各個模型的介紹與使用方法

    Stable Diffusion——基礎(chǔ)模型、VAE、LORA、Embedding各個模型的介紹與使用方法

    Stable Diffusion(穩(wěn)定擴散)是一種生成模型,基于擴散過程來生成高質(zhì)量的圖像。它通過一個漸進過程,從一個簡單的噪聲開始,逐步轉(zhuǎn)變成目標圖像,生成高保真度的圖像。這個模型的基礎(chǔ)版本是基于擴散過程的,但也有一些改進版本,包括基于變分自動編碼器(VAE)、局部

    2024年02月22日
    瀏覽(23)
  • AIGC:ChatGPT(一個里程碑式的對話聊天機器人)的簡介(意義/功能/核心技術(shù)等)、使用方法(七類任務(wù))、案例應(yīng)用(提問基礎(chǔ)性/事實性/邏輯性/創(chuàng)造性/開放性的問題以及編程相關(guān))之詳細攻略

    AIGC:ChatGPT(一個里程碑式的對話聊天機器人)的簡介(意義/功能/核心技術(shù)等)、使用方法(七類任務(wù))、案例應(yīng)用(提問基礎(chǔ)性/事實性/邏輯性/創(chuàng)造性/開放性的問題以及編程相關(guān))之詳細攻略

    AIGC:ChatGPT(一個里程碑式的對話聊天機器人)的簡介(意義/功能/核心技術(shù)等)、使用方法(七類任務(wù))、案例應(yīng)用(提問基礎(chǔ)性/事實性/邏輯性/創(chuàng)造性/開放性的問題以及編程相關(guān))之詳細攻略 導(dǎo)讀 :回撥到2020年5月,OpenAI提出了更強大的GPT-3模型,如今已經(jīng)過去2年多了,當(dāng)人們還在

    2024年02月03日
    瀏覽(27)
  • SASS簡介及使用方法

    Sass(Syntactically Awesome Style Sheets)是一種CSS預(yù)處理器,它擴展了CSS語法,并提供了許多有用的功能,使得樣式表的編寫更加高效和靈活。下面是關(guān)于Sass的簡介和使用方法: Sass允許你使用變量、嵌套規(guī)則、混合(Mixins)、導(dǎo)入等功能,使得CSS的編寫更具可維護性和可重用性。

    2024年01月23日
    瀏覽(39)
  • Pytorch基本概念和使用方法

    Pytorch基本概念和使用方法

    目錄 1 Adam及優(yōu)化器optimizer(Adam、SGD等)是如何選用的? 1)Momentum 2)RMSProp 3)Adam 2 Pytorch的使用以及Pytorch在以后學(xué)習(xí)工作中的應(yīng)用場景。 1)Pytorch的使用 2)應(yīng)用場景 3 不同的數(shù)據(jù)、數(shù)據(jù)集加載方式以及加載后各部分的調(diào)用處理方式。如DataLoder的使用、datasets內(nèi)置數(shù)據(jù)集的使

    2024年02月07日
    瀏覽(28)
  • Unity——DOTween插件使用方法簡介

    Unity——DOTween插件使用方法簡介

    ? 緩動動畫既是一種編程技術(shù),也是一種動畫的設(shè)計思路。從設(shè)計角度來看,可以有以下描述 事先設(shè)計很多基本的動畫樣式,如移動、縮放、旋轉(zhuǎn)、變色和彈跳等。但這些動畫都以抽象方式表示,一般封裝為程序函數(shù) 動畫的參數(shù)可以在使用時指定,如移動的起點和終點、旋

    2024年02月05日
    瀏覽(34)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包