国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

機(jī)器學(xué)習(xí)&&深度學(xué)習(xí)——從編碼器-解碼器架構(gòu)到seq2seq(機(jī)器翻譯)

這篇具有很好參考價(jià)值的文章主要介紹了機(jī)器學(xué)習(xí)&&深度學(xué)習(xí)——從編碼器-解碼器架構(gòu)到seq2seq(機(jī)器翻譯)。希望對(duì)大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請(qǐng)大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問。

?????作者簡(jiǎn)介:一位即將上大四,正專攻機(jī)器學(xué)習(xí)的保研er
??上期文章:機(jī)器學(xué)習(xí)&&深度學(xué)習(xí)——注意力提示、注意力池化(核回歸)
??訂閱專欄:機(jī)器學(xué)習(xí)&&深度學(xué)習(xí)
希望文章對(duì)你們有所幫助

接下來就要慢慢開始實(shí)戰(zhàn)了,把這邊過了,我們接下來就要進(jìn)行機(jī)器翻譯的實(shí)戰(zhàn)了。實(shí)戰(zhàn)完,我們需要開始學(xué)習(xí)當(dāng)今很先進(jìn)的transformer以及BERT,并且做點(diǎn)模型出來了。最近有點(diǎn)累了,做完這個(gè)以后會(huì)休息一兩天然后繼續(xù)肝,預(yù)推免前一定要肝出一些不錯(cuò)科研項(xiàng)目出來。

編碼器-解碼器結(jié)構(gòu)

機(jī)器翻譯是序列轉(zhuǎn)換模型的一個(gè)核心問題,其輸入和輸出都是長(zhǎng)度可變的序列。為了處理這種類型的輸入和輸出,我們可以設(shè)計(jì)一個(gè)包含兩個(gè)主要組件的架構(gòu):第一個(gè)組件是一個(gè)編碼器(encoder):它接受一個(gè)長(zhǎng)度可變的序列作為輸入,并將其轉(zhuǎn)換為具有固定形狀的編碼狀態(tài)。 第二個(gè)組件是解碼器(decoder):它將固定形狀的編碼狀態(tài)映射到長(zhǎng)度可變的序列。這被稱為編碼器-解碼器。結(jié)構(gòu)如圖:
機(jī)器學(xué)習(xí)&&深度學(xué)習(xí)——從編碼器-解碼器架構(gòu)到seq2seq(機(jī)器翻譯),機(jī)器學(xué)習(xí)&&深度學(xué)習(xí),機(jī)器學(xué)習(xí),深度學(xué)習(xí),機(jī)器翻譯,人工智能,自然語言處理
所以我們之前遇到的CNN與RNN,某種程度上也可以看成這種結(jié)構(gòu)的。
比如之前分類貓狗的例子,CNN的特征抽取可以看成編碼器,其作用是將輸入編程成中間表達(dá)形式(特征);而softmax回歸就可以看成是解碼器,其將中間表示解碼成輸出。
而對(duì)于RNN,編碼器就是將文本表示成了向量,解碼器就是將向量表示成輸出。
這里將把“編碼器-解碼器”架構(gòu)轉(zhuǎn)換為接口方便后面的代碼實(shí)現(xiàn)。

編碼器

在編碼器接口中,我們只指定長(zhǎng)度可變的序列作為編碼器的輸入X。任何繼承這個(gè)Encoder基類的模型將完成代碼實(shí)現(xiàn)。

from torch import nn


#@save
class Encoder(nn.Module):
    """編碼器-解碼器架構(gòu)的基本編碼器接口"""
    def __init__(self, **kwargs):
        super(Encoder, self).__init__(**kwargs)

    def forward(self, X, *args):
        raise NotImplementedError

解碼器

解碼器接口中,我們新增一個(gè)init_state函數(shù),用于將編碼器的輸出(enc_outputs)轉(zhuǎn)換為編碼后的狀態(tài)(此步驟可能需要額外的輸入,例如:輸入序列的有效長(zhǎng)度)。 為了逐個(gè)地生成長(zhǎng)度可變的詞元序列,解碼器在每個(gè)時(shí)間步都會(huì)將輸入 (例如:在前一時(shí)間步生成的詞元)和編碼后的狀態(tài)映射成當(dāng)前時(shí)間步的輸出詞元。

#@save
class Decoder(nn.Module):
    """編碼器-解碼器架構(gòu)的基本解碼器接口"""
    def __init__(self, **kwargs):
        super(Decoder, self).__init__(**kwargs)

    def init_state(self, enc_outputs, *args):
        raise NotImplementedError

    def forward(self, X, state):
        raise NotImplementedError

合并編碼器和解碼器

總而言之,“編碼器-解碼器”架構(gòu)包含了一個(gè)編碼器和一個(gè)解碼器,并且還擁有可選的額外的參數(shù)。在前向傳播中,編碼器的輸出用于生成編碼狀態(tài),這個(gè)狀態(tài)又被解碼器作為其輸入的一部分。

#@save
class EncoderDecoder(nn.Module):
    """編碼器-解碼器架構(gòu)的基類"""
    def __init__(self, encoder, decoder, **kwargs):
        super(EncoderDecoder, self).__init__(**kwargs)
        self.encoder = encoder
        self.decoder = decoder

    def forward(self, enc_X, dec_X, *args):
        enc_outputs = self.encoder(enc_X, *args)
        dec_state = self.decoder.init_state(enc_outputs, *args)
        return self.decoder(dec_X, dec_state)

“編碼器-解碼器”體系架構(gòu)中的術(shù)語狀態(tài)會(huì)啟發(fā)人們使用具有狀態(tài)的神經(jīng)網(wǎng)絡(luò)來實(shí)現(xiàn)該架構(gòu)。

小結(jié)

1、“編碼器-解碼器”架構(gòu)可以將長(zhǎng)度可變的序列作為輸入和輸出,因此適用于機(jī)器翻譯等序列轉(zhuǎn)換問題。
2、編碼器將長(zhǎng)度可變的序列作為輸入,并將其轉(zhuǎn)換為具有固定形狀的編碼狀態(tài)。
3、解碼器將具有固定形狀的編碼狀態(tài)映射為長(zhǎng)度可變的序列。

序列到序列學(xué)習(xí)(seq2seq)

機(jī)器翻譯中的輸入序列和輸出序列都是長(zhǎng)度可變的。為了解決這個(gè)問題才提出了“編碼器-解碼器”架構(gòu)。這里將使用兩個(gè)循環(huán)神經(jīng)網(wǎng)絡(luò)的編碼器和解碼器,并將其應(yīng)用到序列到序列,也就是seq2seq類的學(xué)習(xí)任務(wù)。
循環(huán)神經(jīng)網(wǎng)絡(luò)編碼器使用長(zhǎng)度可變的序列作為輸入,將其轉(zhuǎn)換為固定形狀的隱狀態(tài)(可理解為輸入序列的信息被編碼到循環(huán)神經(jīng)網(wǎng)絡(luò)編碼器的隱狀態(tài)中)。為了連續(xù)生成輸出序列的詞元,獨(dú)立的循環(huán)神經(jīng)網(wǎng)絡(luò)解碼器是基于輸入序列的編碼信息和輸出序列已經(jīng)看見的或者生成的詞元來預(yù)測(cè)下一個(gè)詞元。
如下圖是機(jī)器翻譯英文為法語的過程圖,可以看出我們解碼器不僅會(huì)接受編碼器編碼出來的結(jié)果,還會(huì)接受其真正翻譯為法語的信息,因此我們根本不用擔(dān)心解碼器太長(zhǎng),然后預(yù)測(cè)錯(cuò)誤以后會(huì)一直錯(cuò),因?yàn)楸緛砭陀姓_的信息了。

機(jī)器學(xué)習(xí)&&深度學(xué)習(xí)——從編碼器-解碼器架構(gòu)到seq2seq(機(jī)器翻譯),機(jī)器學(xué)習(xí)&&深度學(xué)習(xí),機(jī)器學(xué)習(xí),深度學(xué)習(xí),機(jī)器翻譯,人工智能,自然語言處理
再剖析一下這張圖,特定的“eos”表示序列結(jié)束詞元。一旦輸出序列生成此詞元,模型就會(huì)停止預(yù)測(cè)。
在循環(huán)神經(jīng)網(wǎng)絡(luò)解碼器的初始化時(shí)間步,有兩個(gè)特定的設(shè)計(jì)決定:首先,特定的“bos”表示序列開始詞元;其次,使用循環(huán)神經(jīng)網(wǎng)絡(luò)編碼器最終的隱狀態(tài)來初始化解碼器的隱狀態(tài)。
接下來將會(huì)利用seq2seq來實(shí)現(xiàn)機(jī)器翻譯。文章來源地址http://www.zghlxwxcb.cn/news/detail-644072.html

到了這里,關(guān)于機(jī)器學(xué)習(xí)&&深度學(xué)習(xí)——從編碼器-解碼器架構(gòu)到seq2seq(機(jī)器翻譯)的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場(chǎng)。本站僅提供信息存儲(chǔ)空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請(qǐng)注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請(qǐng)點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • 【NLP概念源和流】 06-編碼器-解碼器模型(6/20 部分)

    【NLP概念源和流】 06-編碼器-解碼器模型(6/20 部分)

    ????????在機(jī)器翻譯等任務(wù)中,我們必須從一系列輸入詞映射到一系列輸出詞。讀者必須注意,這與“序列標(biāo)記”不同,在“序列標(biāo)記”中,該任務(wù)是將序列中的每個(gè)單詞映射到預(yù)定義的類,如詞性或命名實(shí)體任務(wù)。 作者生成 ????????在上面的

    2024年02月14日
    瀏覽(51)
  • 深入了解Transformer:從編碼器到解碼器的神經(jīng)網(wǎng)絡(luò)之旅

    深入了解Transformer:從編碼器到解碼器的神經(jīng)網(wǎng)絡(luò)之旅

    自2017年問世以來,Transformer模型在自然語言處理(NLP)領(lǐng)域引發(fā)了一場(chǎng)革命。它的獨(dú)特設(shè)計(jì)和高效性能使其成為了解決復(fù)雜語言任務(wù)的關(guān)鍵工具。 (1)自注意力機(jī)制 Transformer的核心在于自注意力機(jī)制。它允許模型在處理每個(gè)詞時(shí)考慮句子中的所有其他詞,從而有效捕獲長(zhǎng)距離依

    2024年01月17日
    瀏覽(27)
  • LeViT-UNet:transformer 編碼器和CNN解碼器的有效整合

    LeViT-UNet:transformer 編碼器和CNN解碼器的有效整合

    levi - unet[2]是一種新的醫(yī)學(xué)圖像分割架構(gòu),它使用transformer 作為編碼器,這使得它能夠更有效地學(xué)習(xí)遠(yuǎn)程依賴關(guān)系。levi - unet[2]比傳統(tǒng)的U-Nets更快,同時(shí)仍然實(shí)現(xiàn)了最先進(jìn)的分割性能。 levi - unet[2]在幾個(gè)具有挑戰(zhàn)性的醫(yī)學(xué)圖像分割基準(zhǔn)上取得了比其他法更好的性能,包括Synap

    2024年02月12日
    瀏覽(25)
  • SpringBoot項(xiàng)目整合OpenFeign、實(shí)現(xiàn)動(dòng)態(tài)IP+URL請(qǐng)求、自定義(編碼器\解碼器)

    OpenFeign 是Spring Cloud在Feign的基礎(chǔ)上支持了SpringMVC的注解,如@RequestMapping等等。OpenFeign的@FeignClient可以解析SpringMVC的@RequestMapping注解下的接口,并通過動(dòng)態(tài)代理的方式產(chǎn)生實(shí)現(xiàn)類,實(shí)現(xiàn)類中. 啟動(dòng)類加上注解: @EnableDiscoveryClient 動(dòng)態(tài)URL 工具類: FeignUtils.class

    2024年02月02日
    瀏覽(28)
  • 【人工智能】Transformer 模型數(shù)學(xué)公式:自注意力機(jī)制、多頭自注意力、QKV 矩陣計(jì)算實(shí)例、位置編碼、編碼器和解碼器、常見的激活函數(shù)等

    Transformer模型由多個(gè)編碼器和解碼器層組成,其中包含自注意力機(jī)制、線性層和層歸一化等關(guān)鍵構(gòu)造模塊。雖然無法將整個(gè)模型完美地表示為單個(gè)數(shù)學(xué)公式,但我們可以提供一些重要構(gòu)造模塊的數(shù)學(xué)表示。以下是使用LaTeX格式渲染的部分Transformer關(guān)鍵組件的數(shù)學(xué)公式: 自注意力

    2024年02月14日
    瀏覽(36)
  • RK3399Pro-硬件編解碼器MPP庫快速上手--(二)MPP編碼入門

    RK3399Pro-硬件編解碼器MPP庫快速上手--(二)MPP編碼入門

    整個(gè)編碼分為mpp_create,mpp_init, 再通過mpp的接口mpi-control接口來進(jìn)行參數(shù)設(shè)置.一般需要配置三類信息: 碼率控制方式(MPPEncRcCfg),通過命令MPP_ENC_RC_CFG配置; 輸入控制配置(MppEncPrepCfg),通過命令MPP_ENC_SET_PREP_CFG配置; 協(xié)議控制配置(MppEncCodecCfg),通過命令MPP_ENC_SET_CO

    2024年02月02日
    瀏覽(29)
  • 利用第三方解碼器ffmpeg讓群暉DSM6.2.4版本的Video Station支持DTS視頻編碼和EAC3音頻編碼

    利用第三方解碼器ffmpeg讓群暉DSM6.2.4版本的Video Station支持DTS視頻編碼和EAC3音頻編碼

    截至2022年5月6日,此方法可用! 本文章可以解決群暉版本6.2.4-25556 Update5(Video Station版本2.5.0-1656)在播放dts、eac3音頻編碼的視頻時(shí)提示不支持的問題。 對(duì)于群暉6.2.3版本,Video Station版本2.4.9,網(wǎng)上隨便搜的方法都可以使用,但是用在6.2.4未必可行。原因在于Video Station版本2

    2023年04月08日
    瀏覽(40)
  • 機(jī)器學(xué)習(xí)&&深度學(xué)習(xí)——BERT(來自transformer的雙向編碼器表示)

    機(jī)器學(xué)習(xí)&&深度學(xué)習(xí)——BERT(來自transformer的雙向編碼器表示)

    ?????作者簡(jiǎn)介:一位即將上大四,正專攻機(jī)器學(xué)習(xí)的保研er ??上期文章:機(jī)器學(xué)習(xí)深度學(xué)習(xí)——transformer(機(jī)器翻譯的再實(shí)現(xiàn)) ??訂閱專欄:機(jī)器學(xué)習(xí)深度學(xué)習(xí) 希望文章對(duì)你們有所幫助 我們首先理解一下相關(guān)的一些概念,首先我們知道在自然語言系統(tǒng)中,詞是意義的基

    2024年02月12日
    瀏覽(27)
  • 深入理解深度學(xué)習(xí)——Transformer:解碼器(Decoder)部分

    深入理解深度學(xué)習(xí)——Transformer:解碼器(Decoder)部分

    分類目錄:《深入理解深度學(xué)習(xí)》總目錄 相關(guān)文章: ·注意力機(jī)制(Attention Mechanism):基礎(chǔ)知識(shí) ·注意力機(jī)制(Attention Mechanism):注意力匯聚與Nadaraya-Watson核回歸 ·注意力機(jī)制(Attention Mechanism):注意力評(píng)分函數(shù)(Attention Scoring Function) ·注意力機(jī)制(Attention Mechanism):

    2024年02月10日
    瀏覽(34)
  • 深度學(xué)習(xí)RNN,GRU,LSTM文本生成解碼器的訓(xùn)練損失講解(附代碼)

    以下以GRU為例講解RNN作為解碼器時(shí)如何根據(jù)用戶、商品特征信息 hidden 生成評(píng)價(jià)。 解碼器部分代碼如下: 在訓(xùn)練時(shí),解碼器會(huì)有兩個(gè)輸入:一是編碼器提取的用戶、商品特征,二是用戶對(duì)商品的評(píng)價(jià)。 評(píng)價(jià)是文字,在訓(xùn)練開始前已經(jīng)轉(zhuǎn)換成了Token ID, 比如 I love this item , 每個(gè)

    2024年04月12日
    瀏覽(16)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請(qǐng)作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包