国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

編碼器 | 基于 Transformers 的編碼器-解碼器模型

這篇具有很好參考價(jià)值的文章主要介紹了編碼器 | 基于 Transformers 的編碼器-解碼器模型。希望對(duì)大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請(qǐng)大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問(wèn)。

基于 transformer 的編碼器-解碼器模型是 表征學(xué)習(xí)模型架構(gòu) 這兩個(gè)領(lǐng)域多年研究成果的結(jié)晶。本文簡(jiǎn)要介紹了神經(jīng)編碼器-解碼器模型的歷史,更多背景知識(shí),建議讀者閱讀由 Sebastion Ruder 撰寫的這篇精彩 博文。此外,建議讀者對(duì) 自注意力 (self-attention) 架構(gòu) 有一個(gè)基本了解,可以閱讀 Jay Alammar 的 這篇博文 復(fù)習(xí)一下原始 transformer 模型。

本文分 4 個(gè)部分:

  • 背景 - 簡(jiǎn)要回顧了神經(jīng)編碼器-解碼器模型的歷史,重點(diǎn)關(guān)注基于 RNN 的模型。
  • 編碼器-解碼器 - 闡述基于 transformer 的編碼器-解碼器模型,并闡述如何使用該模型進(jìn)行推理。
  • 編碼器 - 闡述模型的編碼器部分。
  • 解碼器 - 闡述模型的解碼器部分。

每個(gè)部分都建立在前一部分的基礎(chǔ)上,但也可以單獨(dú)閱讀。這篇分享是第三部分 編碼器。

編碼器

如前一節(jié)所述, 基于 transformer 的編碼器將輸入序列映射到上下文相關(guān)的編碼序列:

\[f_{\theta_{\text{enc}}}: \mathbf{X}_{1:n} \to \mathbf{\overline{X}}_{1:n} \]

仔細(xì)觀察架構(gòu),基于 transformer 的編碼器由許多 殘差注意力模塊 堆疊而成。每個(gè)編碼器模塊都包含一個(gè) 雙向 自注意力層,其后跟著兩個(gè)前饋層。這里,為簡(jiǎn)單起見,我們忽略歸一化層 (normalization layer)。此外,我們不會(huì)深入討論兩個(gè)前饋層的作用,僅將其視為每個(gè)編碼器模塊 \({}^1\) 的輸出映射層。雙向自注意層將每個(gè)輸入向量 \(\mathbf{x'}_j, \forall j \in {1, \ldots, n}\) 與全部輸入向量 \(\mathbf{x'}_1, \ldots, \mathbf{x'}_n\) 相關(guān)聯(lián)并通過(guò)該機(jī)制將每個(gè)輸入向量 \(\mathbf{x'}_j\) 提煉為與其自身上下文相關(guān)的表征: \(\mathbf{x''}_j\)。因此,第一個(gè)編碼器塊將輸入序列 \(\mathbf{X}_{1:n}\) (如下圖淺綠色所示) 中的每個(gè)輸入向量從 上下文無(wú)關(guān) 的向量表征轉(zhuǎn)換為 上下文相關(guān) 的向量表征,后面每一個(gè)編碼器模塊都會(huì)進(jìn)一步細(xì)化這個(gè)上下文表征,直到最后一個(gè)編碼器模塊輸出最終的上下文相關(guān)編碼 \(\mathbf{\overline{X}}_{1:n}\) (如下圖深綠色所示)。

我們對(duì) 編碼器如何將輸入序列 "I want to buy a car EOS" 變換為上下文編碼序列這一過(guò)程進(jìn)行一下可視化。與基于 RNN 的編碼器類似,基于 transformer 的編碼器也在輸入序列最后添加了一個(gè) EOS,以提示模型輸入向量序列已結(jié)束 \({}^2\)。

上圖中的 基于 transformer 的編碼器由三個(gè)編碼器模塊組成。我們?cè)谟覀?cè)的紅框中詳細(xì)列出了第二個(gè)編碼器模塊的前三個(gè)輸入向量: \(\mathbf{x}_1\),\(\mathbf {x}_2\)\(\mathbf{x}_3\)。紅框下部的全連接圖描述了雙向自注意力機(jī)制,上面是兩個(gè)前饋層。如前所述,我們主要關(guān)注雙向自注意力機(jī)制。

可以看出,自注意力層的每個(gè)輸出向量 \(\mathbf{x''}_i, \forall i \in {1, \ldots, 7}\)直接 依賴于 所有 輸入向量 \(\mathbf{x'}_1, \ldots, \mathbf{x'}_7\)。這意味著,單詞 “want” 的輸入向量表示 \(\mathbf{x'}_2\) 與單詞 “buy” (即 \(\mathbf{x'}_4\)) 和單詞 “I” (即 \(\mathbf{x'}_1\)) 直接相關(guān)。 因此,“want” 的輸出向量表征, \(\mathbf{x''}_2\),是一個(gè)融合了其上下文信息的更精細(xì)的表征。

我們更深入了解一下雙向自注意力的工作原理。編碼器模塊的輸入序列 \(\mathbf{X'}_{1:n}\) 中的每個(gè)輸入向量 \(\mathbf{x'}_i\) 通過(guò)三個(gè)可訓(xùn)練的權(quán)重矩陣 \(\mathbf{W}_q\)\(\mathbf{W}_v\),\(\mathbf{W}_k\) 分別投影至 key 向量 \(\mathbf{k}_i\)value 向量 \(\mathbf{v}_i\)query 向量 \(\mathbf{q}_i\) (下圖分別以橙色、藍(lán)色和紫色表示):

\[\mathbf{q}_i = \mathbf{W}_q \mathbf{x'}_i, \]
\[\mathbf{v}_i = \mathbf{W}_v \mathbf{x'}_i, \]
\[\mathbf{k}_i = \mathbf{W}_k \mathbf{x'}_i, \]
\[\forall i \in {1, \ldots n } \]

請(qǐng)注意,對(duì)每個(gè)輸入向量 \(\mathbf{x}_i (\forall i \in {i, \ldots, n}\)) 而言,其所使用的權(quán)重矩陣都是 相同 的。將每個(gè)輸入向量 \(\mathbf{x}_i\) 投影到 query 、 keyvalue 向量后,將每個(gè) query 向量 \(\mathbf{q}_j (\forall j \in {1, \ldots, n}\)) 與所有 key 向量 \(\mathbf{k}_1, \ldots, \mathbf{k}_n\) 進(jìn)行比較。哪個(gè) key 向量與 query 向量 \(\mathbf{q}_j\) 越相似,其對(duì)應(yīng)的 value 向量 \(\mathbf{v}_j\) 對(duì)輸出向量 \(\mathbf{x''}_j\) 的影響就越重要。更具體地說(shuō),輸出向量 \(\mathbf{x''}_j\) 被定義為所有 value 向量的加權(quán)和 \(\mathbf{v}_1, \ldots, \mathbf{v}_n\) 加上輸入向量 \(\mathbf{x'}_j\)。而各 value 向量的權(quán)重與 \(\mathbf{q}_j\) 和各個(gè) key 向量 \(\mathbf{k}_1, \ldots, \mathbf{k}_n\) 之間的余弦相似度成正比,其數(shù)學(xué)公式為 \(\textbf{Softmax}(\mathbf{K}_{1:n}^\intercal \mathbf{q}_j)\),如下文的公式所示。關(guān)于自注意力層的完整描述,建議讀者閱讀 這篇 博文或 原始論文。

好吧,又復(fù)雜起來(lái)了。我們以上例中的一個(gè) query 向量為例圖解一下雙向自注意層。為簡(jiǎn)單起見,本例中假設(shè)我們的 基于 transformer 的解碼器只有一個(gè)注意力頭 config.num_heads = 1 并且沒(méi)有歸一化層。

圖左顯示了上個(gè)例子中的第二個(gè)編碼器模塊,右邊詳細(xì)可視化了第二個(gè)輸入向量 \(\mathbf{x'}_2\) 的雙向自注意機(jī)制,其對(duì)應(yīng)輸入詞為 “want”。首先將所有輸入向量 \(\mathbf{x'}_1, \ldots, \mathbf{x'}_7\) 投影到它們各自的 query 向量 \(\mathbf{q}_1, \ldots, \mathbf{q}_7\) (上圖中僅以紫色顯示前三個(gè) query 向量), value 向量 \(\mathbf{v}_1, \ldots, \mathbf{v}_7\) (藍(lán)色) 和 key 向量 \(\mathbf{k}_1, \ldots, \mathbf{k}_7\) (橙色)。然后,將 query 向量 \(\mathbf{q}_2\) 與所有 key 向量的轉(zhuǎn)置 ( \(\mathbf{K}_{1:7}^{\intercal}\)) 相乘,隨后進(jìn)行 softmax 操作以產(chǎn)生 自注意力權(quán)重 。 自注意力權(quán)重最終與各自的 value 向量相乘,并加上輸入向量 \(\mathbf{x'}_2\),最終輸出單詞 “want” 的上下文相關(guān)表征, \(\mathbf{x''}_2\) (圖右深綠色表示)。整個(gè)等式顯示在圖右框的上部。 \(\mathbf{K}_{1:7}^{\intercal}\)\(\mathbf{q}_2\) 的相乘使得將 “want” 的向量表征與所有其他輸入 (“I”,“to”,“buy”,“a”,“car”,“EOS”) 的向量表征相比較成為可能,因此自注意力權(quán)重反映出每個(gè)輸入向量 \(\mathbf{x'}_j\) 對(duì) “want” 一詞的最終表征 \(\mathbf{x''}_2\) 的重要程度。

為了進(jìn)一步理解雙向自注意力層的含義,我們假設(shè)以下句子: “ 房子很漂亮且位于市中心,因此那兒公共交通很方便 ”。 “那兒”這個(gè)詞指的是“房子”,這兩個(gè)詞相隔 12 個(gè)字。在基于 transformer 的編碼器中,雙向自注意力層運(yùn)算一次,即可將“房子”的輸入向量與“那兒”的輸入向量相關(guān)聯(lián)。相比之下,在基于 RNN 的編碼器中,相距 12 個(gè)字的詞將需要至少 12 個(gè)時(shí)間步的運(yùn)算,這意味著在基于 RNN 的編碼器中所需數(shù)學(xué)運(yùn)算與距離呈線性關(guān)系。這使得基于 RNN 的編碼器更難對(duì)長(zhǎng)程上下文表征進(jìn)行建模。此外,很明顯,基于 transformer 的編碼器比基于 RNN 的編碼器-解碼器模型更不容易丟失重要信息,因?yàn)榫幋a的序列長(zhǎng)度相對(duì)輸入序列長(zhǎng)度保持不變, \(\textbf{len }(\mathbf{X}_{1:n}) = \textbf{len}(\mathbf{\overline{X}}_{1:n}) = n\),而 RNN 則會(huì)將 \(\textbf{len}((\mathbf{X}_{1:n}) = n\) 壓縮到 \(\textbf{len}(\mathbf{c}) = 1\),這使得 RNN 很難有效地對(duì)輸入詞之間的長(zhǎng)程依賴關(guān)系進(jìn)行編碼。

除了更容易學(xué)到長(zhǎng)程依賴外,我們還可以看到 transformer 架構(gòu)能夠并行處理文本。從數(shù)學(xué)上講,這是通過(guò)將自注意力機(jī)制表示為 query 、 keyvalue 的矩陣乘來(lái)完成的:

\[\mathbf{X''}_{1:n} = \mathbf{V}_{1:n} \text{Softmax}(\mathbf{Q}_{1:n}^\intercal \mathbf{K}_{1:n}) + \mathbf{X'}_{1:n} \]

輸出 \(\mathbf{X''}_{1:n} = \mathbf{x''}_1, \ldots, \mathbf{x''}_n\) 是由一系列矩陣乘計(jì)算和 softmax 操作算得,因此可以有效地并行化。請(qǐng)注意,在基于 RNN 的編碼器模型中,隱含狀態(tài) \(\mathbf{c}\) 的計(jì)算必須按順序進(jìn)行: 先計(jì)算第一個(gè)輸入向量的隱含狀態(tài) \(\mathbf{x}_1\); 然后計(jì)算第二個(gè)輸入向量的隱含狀態(tài),其取決于第一個(gè)隱含向量的狀態(tài),依此類推。RNN 的順序性阻礙了有效的并行化,并使其在現(xiàn)代 GPU 硬件上比基于 transformer 的編碼器模型的效率低得多。

太好了,現(xiàn)在我們應(yīng)該對(duì):
a) 基于 transformer 的編碼器模型如何有效地建模長(zhǎng)程上下文表征,以及
b) 它們?nèi)绾斡行У靥幚黹L(zhǎng)序列向量輸入這兩個(gè)方面有了比較好的理解了。

現(xiàn)在,我們寫一個(gè) MarianMT 編碼器-解碼器模型的編碼器部分的小例子,以驗(yàn)證這些理論在實(shí)踐中行不行得通。


\({}^1\) 關(guān)于前饋層在基于 transformer 的模型中所扮演的角色的詳細(xì)解釋超出了本文的范疇。Yun 等人 (2017) 的工作認(rèn)為前饋層對(duì)于將每個(gè)上下文向量 \(\mathbf{x'}_i\) 映射到目標(biāo)輸出空間至關(guān)重要,而單靠 自注意力 層無(wú)法達(dá)成這一目的。這里請(qǐng)注意,每個(gè)輸出詞元 \(\mathbf{x'}\) 都經(jīng)由相同的前饋層處理。更多詳細(xì)信息,建議讀者閱讀論文。

\({}^2\) 我們無(wú)須將 EOS 附加到輸入序列,雖然有工作表明,在很多情況下加入它可以提高性能。相反地,基于 transformer 的解碼器必須把 \(\text{BOS}\) 作為第 0 個(gè)目標(biāo)向量,并以之為條件預(yù)測(cè)第 1 個(gè)目標(biāo)向量。

from transformers import MarianMTModel, MarianTokenizer
import torch

tokenizer = MarianTokenizer.from_pretrained("Helsinki-NLP/opus-mt-en-de")
model = MarianMTModel.from_pretrained("Helsinki-NLP/opus-mt-en-de")

embeddings = model.get_input_embeddings()

# create ids of encoded input vectors
input_ids = tokenizer("I want to buy a car", return_tensors="pt").input_ids

# pass input_ids to encoder
encoder_hidden_states = model.base_model.encoder(input_ids, return_dict=True).last_hidden_state

# change the input slightly and pass to encoder
input_ids_perturbed = tokenizer("I want to buy a house", return_tensors="pt").input_ids
encoder_hidden_states_perturbed = model.base_model.encoder(input_ids_perturbed, return_dict=True).last_hidden_state

# compare shape and encoding of first vector
print(f"Length of input embeddings {embeddings(input_ids).shape[1]}. Length of encoder_hidden_states {encoder_hidden_states.shape[1]}")

# compare values of word embedding of "I" for input_ids and perturbed input_ids
print("Is encoding for `I` equal to its perturbed version?: ", torch.allclose(encoder_hidden_states[0, 0], encoder_hidden_states_perturbed[0, 0], atol=1e-3))

輸出:

    Length of input embeddings 7. Length of encoder_hidden_states 7
    Is encoding for `I` equal to its perturbed version?: False

我們比較一下輸入詞嵌入的序列長(zhǎng)度 ( embeddings(input_ids),對(duì)應(yīng)于 \(\mathbf{X}_{1:n}\)) 和 encoder_hidden_??states 的長(zhǎng)度 (對(duì)應(yīng)于\(\mathbf{\overline{X}}_{1:n}\))。同時(shí),我們讓編碼器對(duì)單詞序列 “I want to buy a car” 及其輕微改動(dòng)版 “I want to buy a house” 分別執(zhí)行前向操作,以檢查第一個(gè)詞 “I” 的輸出編碼在更改輸入序列的最后一個(gè)單詞后是否會(huì)有所不同。

不出意外,輸入詞嵌入和編碼器輸出編碼的長(zhǎng)度, \(\textbf{len}(\mathbf{X}_{1:n})\)\(\textbf{len }(\mathbf{\overline{X}}_{1:n})\),是相等的。同時(shí),可以注意到當(dāng)最后一個(gè)單詞從 “car” 改成 “house” 后,\(\mathbf{\overline{x}}_1 = \text{“I”}\) 的編碼輸出向量的值也改變了。因?yàn)槲覀儸F(xiàn)在已經(jīng)理解了雙向自注意力機(jī)制,這就不足為奇了。

順帶一提, 自編碼 模型 (如 BERT) 的架構(gòu)與 基于 transformer 的編碼器模型是完全一樣的。 自編碼 模型利用這種架構(gòu)對(duì)開放域文本數(shù)據(jù)進(jìn)行大規(guī)模自監(jiān)督預(yù)訓(xùn)練,以便它們可以將任何單詞序列映射到深度雙向表征。在 Devlin 等 (2018) 的工作中,作者展示了一個(gè)預(yù)訓(xùn)練 BERT 模型,其頂部有一個(gè)任務(wù)相關(guān)的分類層,可以在 11 個(gè) NLP 任務(wù)上獲得 SOTA 結(jié)果。你可以從 此處 找到 ?? transformers 支持的所有 自編碼 模型。

敬請(qǐng)關(guān)注其余部分的文章。


英文原文: https://hf.co/blog/encoder-decoder

原文作者: Patrick von Platen

譯者: Matrix Yao (姚偉峰),英特爾深度學(xué)習(xí)工程師,工作方向?yàn)?transformer-family 模型在各模態(tài)數(shù)據(jù)上的應(yīng)用及大規(guī)模模型的訓(xùn)練推理。

審校/排版: zhongdongy (阿東)文章來(lái)源地址http://www.zghlxwxcb.cn/news/detail-472403.html

到了這里,關(guān)于編碼器 | 基于 Transformers 的編碼器-解碼器模型的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來(lái)自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場(chǎng)。本站僅提供信息存儲(chǔ)空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請(qǐng)注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請(qǐng)點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • 【計(jì)算機(jī)視覺(jué) | 目標(biāo)檢測(cè)】術(shù)語(yǔ)理解9:AIGC的理解,對(duì)比學(xué)習(xí),解碼器,Mask解碼器,耦合蒸餾,半耦合,圖像編碼器和組合解碼器的耦合優(yōu)化

    【計(jì)算機(jī)視覺(jué) | 目標(biāo)檢測(cè)】術(shù)語(yǔ)理解9:AIGC的理解,對(duì)比學(xué)習(xí),解碼器,Mask解碼器,耦合蒸餾,半耦合,圖像編碼器和組合解碼器的耦合優(yōu)化

    AIGC指的是使用人工智能技術(shù)自動(dòng)生成的各類數(shù)字內(nèi)容,包括文本、圖像、音頻、視頻等。它利用機(jī)器學(xué)習(xí)模型進(jìn)行智能化內(nèi)容生成。 主要的技術(shù)手段包括: 自然語(yǔ)言生成(NLG):使用RNN、GPT等語(yǔ)言模型生成文本。 生成對(duì)抗網(wǎng)絡(luò)(GAN):使用GAN生成高質(zhì)量圖片。 自動(dòng)語(yǔ)音合成(TTS):使用

    2024年02月04日
    瀏覽(21)
  • 深入了解Transformer:從編碼器到解碼器的神經(jīng)網(wǎng)絡(luò)之旅

    深入了解Transformer:從編碼器到解碼器的神經(jīng)網(wǎng)絡(luò)之旅

    自2017年問(wèn)世以來(lái),Transformer模型在自然語(yǔ)言處理(NLP)領(lǐng)域引發(fā)了一場(chǎng)革命。它的獨(dú)特設(shè)計(jì)和高效性能使其成為了解決復(fù)雜語(yǔ)言任務(wù)的關(guān)鍵工具。 (1)自注意力機(jī)制 Transformer的核心在于自注意力機(jī)制。它允許模型在處理每個(gè)詞時(shí)考慮句子中的所有其他詞,從而有效捕獲長(zhǎng)距離依

    2024年01月17日
    瀏覽(27)
  • LeViT-UNet:transformer 編碼器和CNN解碼器的有效整合

    LeViT-UNet:transformer 編碼器和CNN解碼器的有效整合

    levi - unet[2]是一種新的醫(yī)學(xué)圖像分割架構(gòu),它使用transformer 作為編碼器,這使得它能夠更有效地學(xué)習(xí)遠(yuǎn)程依賴關(guān)系。levi - unet[2]比傳統(tǒng)的U-Nets更快,同時(shí)仍然實(shí)現(xiàn)了最先進(jìn)的分割性能。 levi - unet[2]在幾個(gè)具有挑戰(zhàn)性的醫(yī)學(xué)圖像分割基準(zhǔn)上取得了比其他法更好的性能,包括Synap

    2024年02月12日
    瀏覽(25)
  • SpringBoot項(xiàng)目整合OpenFeign、實(shí)現(xiàn)動(dòng)態(tài)IP+URL請(qǐng)求、自定義(編碼器\解碼器)

    OpenFeign 是Spring Cloud在Feign的基礎(chǔ)上支持了SpringMVC的注解,如@RequestMapping等等。OpenFeign的@FeignClient可以解析SpringMVC的@RequestMapping注解下的接口,并通過(guò)動(dòng)態(tài)代理的方式產(chǎn)生實(shí)現(xiàn)類,實(shí)現(xiàn)類中. 啟動(dòng)類加上注解: @EnableDiscoveryClient 動(dòng)態(tài)URL 工具類: FeignUtils.class

    2024年02月02日
    瀏覽(28)
  • 機(jī)器學(xué)習(xí)&&深度學(xué)習(xí)——從編碼器-解碼器架構(gòu)到seq2seq(機(jī)器翻譯)

    機(jī)器學(xué)習(xí)&&深度學(xué)習(xí)——從編碼器-解碼器架構(gòu)到seq2seq(機(jī)器翻譯)

    ?????作者簡(jiǎn)介:一位即將上大四,正專攻機(jī)器學(xué)習(xí)的保研er ??上期文章:機(jī)器學(xué)習(xí)深度學(xué)習(xí)——注意力提示、注意力池化(核回歸) ??訂閱專欄:機(jī)器學(xué)習(xí)深度學(xué)習(xí) 希望文章對(duì)你們有所幫助 接下來(lái)就要慢慢開始實(shí)戰(zhàn)了,把這邊過(guò)了,我們接下來(lái)就要進(jìn)行機(jī)器翻譯的實(shí)戰(zhàn)

    2024年02月13日
    瀏覽(34)
  • RK3399Pro-硬件編解碼器MPP庫(kù)快速上手--(二)MPP編碼入門

    RK3399Pro-硬件編解碼器MPP庫(kù)快速上手--(二)MPP編碼入門

    整個(gè)編碼分為mpp_create,mpp_init, 再通過(guò)mpp的接口mpi-control接口來(lái)進(jìn)行參數(shù)設(shè)置.一般需要配置三類信息: 碼率控制方式(MPPEncRcCfg),通過(guò)命令MPP_ENC_RC_CFG配置; 輸入控制配置(MppEncPrepCfg),通過(guò)命令MPP_ENC_SET_PREP_CFG配置; 協(xié)議控制配置(MppEncCodecCfg),通過(guò)命令MPP_ENC_SET_CO

    2024年02月02日
    瀏覽(29)
  • 利用第三方解碼器ffmpeg讓群暉DSM6.2.4版本的Video Station支持DTS視頻編碼和EAC3音頻編碼

    利用第三方解碼器ffmpeg讓群暉DSM6.2.4版本的Video Station支持DTS視頻編碼和EAC3音頻編碼

    截至2022年5月6日,此方法可用! 本文章可以解決群暉版本6.2.4-25556 Update5(Video Station版本2.5.0-1656)在播放dts、eac3音頻編碼的視頻時(shí)提示不支持的問(wèn)題。 對(duì)于群暉6.2.3版本,Video Station版本2.4.9,網(wǎng)上隨便搜的方法都可以使用,但是用在6.2.4未必可行。原因在于Video Station版本2

    2023年04月08日
    瀏覽(40)
  • 基于擴(kuò)散模型的圖像壓縮:創(chuàng)建基于Stable Diffusion的有損壓縮編解碼器

    基于擴(kuò)散模型的圖像壓縮:創(chuàng)建基于Stable Diffusion的有損壓縮編解碼器

    Stable Diffusion是最近在圖像生成領(lǐng)域大火的模型,在對(duì)他研究的時(shí)候我發(fā)現(xiàn)它可以作為非常強(qiáng)大的有損圖像壓縮編解碼器。在介紹之前,我們先看看它與高壓縮率下的JPG和WebP相比的而結(jié)果,所有都是512x512像素的分辨率為單位: 上面這圖的細(xì)節(jié)如下: 這是JPG壓縮結(jié)果大小為5

    2024年02月12日
    瀏覽(23)
  • 自然語(yǔ)言處理(七):來(lái)自Transformers的雙向編碼器表示(BERT)

    自然語(yǔ)言處理(七):來(lái)自Transformers的雙向編碼器表示(BERT)

    BERT(Bidirectional Encoder Representations from Transformers)是一種預(yù)訓(xùn)練的自然語(yǔ)言處理模型,由Google于2018年提出。它是基于Transformer模型架構(gòu)的深度雙向(雙向指同時(shí)考慮上下文信息)表示學(xué)習(xí)模型。 BERT的目標(biāo)是通過(guò)在大規(guī)模文本語(yǔ)料上進(jìn)行自監(jiān)督學(xué)習(xí)來(lái)學(xué)習(xí)通用的語(yǔ)言表示。在預(yù)

    2024年02月09日
    瀏覽(16)
  • BERT:來(lái)自 Transformers 的雙向編碼器表示 – 釋放深度上下文化詞嵌入的力量

    BERT是 Transformers 雙向編碼器表示 的縮寫,是 2018 年推出的改變游戲規(guī)則的 NLP 模型之一。BERT 的情感分類、文本摘要和問(wèn)答功能使其看起來(lái)像是一站式 NLP 模型。盡管更新和更大的語(yǔ)言模型已經(jīng)出現(xiàn),但 BERT 仍然具有相關(guān)性,并且值得學(xué)習(xí)它的架構(gòu)、方法和功能。? 這篇綜合文

    2024年02月05日
    瀏覽(18)

覺(jué)得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請(qǐng)作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包