国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

【文本到上下文 #5】:RNN、LSTM 和 GRU

這篇具有很好參考價(jià)值的文章主要介紹了【文本到上下文 #5】:RNN、LSTM 和 GRU。希望對(duì)大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請(qǐng)大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問(wèn)。

一、說(shuō)明

????????歡迎來(lái)到“完整的 NLP 指南:文本到上下文 #5”,這是我們對(duì)自然語(yǔ)言處理 (NLP) 和深度學(xué)習(xí)的持續(xù)探索。從NLP的基礎(chǔ)知識(shí)到機(jī)器學(xué)習(xí)應(yīng)用程序,我們現(xiàn)在深入研究了神經(jīng)網(wǎng)絡(luò)的復(fù)雜世界及其處理語(yǔ)言的深刻能力。

????????在本期中,我們將重點(diǎn)介紹順序數(shù)據(jù)在 NLP 中的重要性,介紹遞歸神經(jīng)網(wǎng)絡(luò) (RNN) 及其在處理此類數(shù)據(jù)方面的獨(dú)特能力。我們將解決 RNN 面臨的挑戰(zhàn),例如梯度消失問(wèn)題,并探索長(zhǎng)短期記憶 (LSTM) 和門控循環(huán)單元 (GRU) 等高級(jí)解決方案。

????????以下是本章中您可以期待的內(nèi)容:

  1. 神經(jīng)網(wǎng)絡(luò)概述:深入研究神經(jīng)網(wǎng)絡(luò)的基本原理,包括它們的架構(gòu)、功能和在現(xiàn)代技術(shù)中的重要性。
  2. 循環(huán)神經(jīng)網(wǎng)絡(luò) (RNN):了解專為處理順序數(shù)據(jù)而設(shè)計(jì)的 RNN 的獨(dú)特架構(gòu),探索它們的功能及其在 NLP 中的應(yīng)用。
  3. 長(zhǎng)短期記憶 (LSTM):?了解 LSTM 網(wǎng)絡(luò)的復(fù)雜性,LSTM 網(wǎng)絡(luò)是一種能夠?qū)W習(xí)長(zhǎng)期依賴關(guān)系的特殊形式的 RNN,以及它們?cè)诮鉀Q標(biāo)準(zhǔn) RNN 中常見(jiàn)的梯度消失問(wèn)題中的關(guān)鍵作用。
  4. 門控循環(huán)單元 (GRU):了解 GRU,它是 LSTM 的簡(jiǎn)化變體,它以更簡(jiǎn)單的架構(gòu)設(shè)計(jì)提供可比的性能,使其成為某些類型的順序數(shù)據(jù)處理的有效工具。
  5. RNN、LSTM 和 GRU 的比較:研究 RNN、LSTM 和 GRU 的優(yōu)勢(shì)和劣勢(shì),深入了解它們的比較性能、對(duì)不同任務(wù)的適用性以及處理順序數(shù)據(jù)挑戰(zhàn)的整體效率。
  6. 使用玩具文本數(shù)據(jù)實(shí)現(xiàn) RNN、LSTM 和 GRU:深入了解實(shí)際演示,了解如何使用簡(jiǎn)單的文本數(shù)據(jù)集實(shí)現(xiàn) RNN、GRU 和 LSTM 模型。本部分介紹從預(yù)處理文本數(shù)據(jù)到動(dòng)手訓(xùn)練和比較不同模型的步驟。

????????加入我們的全面探索,我們將揭示神經(jīng)網(wǎng)絡(luò)在 NLP 領(lǐng)域的復(fù)雜性和功能,彌合理論概念和實(shí)際應(yīng)用之間的差距。

二、神經(jīng)網(wǎng)絡(luò)概述

【文本到上下文 #5】:RNN、LSTM 和 GRU,人工智能,NLP高級(jí)和ChatGPT,神經(jīng)網(wǎng)絡(luò),rnn,自然語(yǔ)言處理

????????神經(jīng)網(wǎng)絡(luò) (NN) 是機(jī)器學(xué)習(xí)的一個(gè)基本概念,其靈感來(lái)自人腦的結(jié)構(gòu)和功能。神經(jīng)網(wǎng)絡(luò)的核心由組織成層的互連節(jié)點(diǎn)組成。輸入層接收數(shù)據(jù),隱藏層處理信息,輸出層生成結(jié)果。神經(jīng)網(wǎng)絡(luò)的優(yōu)勢(shì)在于它們能夠從數(shù)據(jù)中學(xué)習(xí),在訓(xùn)練過(guò)程中調(diào)整內(nèi)部參數(shù)(權(quán)重)以優(yōu)化性能。

三、解開(kāi)前向和后向傳播

????????在前向傳播階段,數(shù)據(jù)通過(guò)網(wǎng)絡(luò)傳輸,并在每一層進(jìn)行計(jì)算,從而生成預(yù)測(cè)。它類似于從輸入流向輸出的信息。

【文本到上下文 #5】:RNN、LSTM 和 GRU,人工智能,NLP高級(jí)和ChatGPT,神經(jīng)網(wǎng)絡(luò),rnn,自然語(yǔ)言處理

????????向后傳播階段涉及學(xué)習(xí)的關(guān)鍵方面。通過(guò)梯度下降等技術(shù),該網(wǎng)絡(luò)通過(guò)計(jì)算損失函數(shù)相對(duì)于權(quán)重的梯度來(lái)細(xì)化其內(nèi)部參數(shù)。鏈?zhǔn)揭?guī)則在這里起著舉足輕重的作用,它允許網(wǎng)絡(luò)將損失歸因于特定的權(quán)重,從而實(shí)現(xiàn)微調(diào)以提高準(zhǔn)確性。

【文本到上下文 #5】:RNN、LSTM 和 GRU,人工智能,NLP高級(jí)和ChatGPT,神經(jīng)網(wǎng)絡(luò),rnn,自然語(yǔ)言處理

四、Gradient Descent

????????梯度下降是神經(jīng)網(wǎng)絡(luò)重量調(diào)整背后的驅(qū)動(dòng)力。它是一種優(yōu)化算法,通過(guò)在多維權(quán)重空間中迭代地向最陡峭的下坡方向移動(dòng)來(lái)最小化損失函數(shù)。這種權(quán)重的迭代調(diào)整增強(qiáng)了網(wǎng)絡(luò)的預(yù)測(cè)準(zhǔn)確性。

4.1 鏈?zhǔn)椒▌t

????????微積分中的鏈?zhǔn)椒▌t是反向傳播的關(guān)鍵。它能夠計(jì)算偏導(dǎo)數(shù),將網(wǎng)絡(luò)的整體誤差歸因于單個(gè)權(quán)重。這種分解對(duì)于在訓(xùn)練過(guò)程中進(jìn)行細(xì)微的調(diào)整至關(guān)重要。

【文本到上下文 #5】:RNN、LSTM 和 GRU,人工智能,NLP高級(jí)和ChatGPT,神經(jīng)網(wǎng)絡(luò),rnn,自然語(yǔ)言處理

4.2 序列在 NLP 任務(wù)中的重要性

????????在自然語(yǔ)言處理 (NLP) 中,理解和處理序列至關(guān)重要。與數(shù)據(jù)點(diǎn)獨(dú)立的傳統(tǒng)機(jī)器學(xué)習(xí)任務(wù)不同,語(yǔ)言本質(zhì)上涉及順序信息。在NLP中,句子中單詞的順序具有意義,前一個(gè)單詞的上下文會(huì)影響后續(xù)單詞的解釋。

五、遞歸神經(jīng)網(wǎng)絡(luò) (RNN)

????????RNN 是 NN 的一種特殊形式,旨在處理順序數(shù)據(jù)。它們引入了內(nèi)存的概念,使網(wǎng)絡(luò)能夠保留有關(guān)先前輸入的信息。這種記憶對(duì)于上下文很重要的任務(wù)至關(guān)重要,例如語(yǔ)言理解和生成。

5.1 RNN 的工作原理

  • 順序處理:與傳統(tǒng)的神經(jīng)網(wǎng)絡(luò)不同,RNN 旨在處理數(shù)據(jù)序列。他們通過(guò)按順序一次獲取一個(gè)輸入來(lái)做到這一點(diǎn)。
  • 經(jīng)常連接:RNN 的主要特征是其循環(huán)連接。這些連接允許網(wǎng)絡(luò)保留某種形式的“內(nèi)存”。在序列中的每一步,RNN 都會(huì)處理當(dāng)前輸入以及上一步的“隱藏狀態(tài)”。此隱藏狀態(tài)包含從先前輸入中學(xué)習(xí)的信息。
  • 隱藏狀態(tài):隱藏狀態(tài)在每個(gè)時(shí)間步長(zhǎng)都會(huì)根據(jù)新輸入和以前的隱藏狀態(tài)進(jìn)行更新。這種機(jī)制允許 RNN 在序列中的不同步驟中攜帶信息。
  • 共享權(quán)重:在 RNN 中,權(quán)重(參數(shù))在所有時(shí)間步長(zhǎng)之間共享。這意味著使用相同的權(quán)重來(lái)處理序列中的每個(gè)輸入,從而使模型更加高效并減少參數(shù)數(shù)量。

5.2 挑戰(zhàn)與優(yōu)勢(shì):

  • 遞歸神經(jīng)網(wǎng)絡(luò) (RNN) 在處理順序數(shù)據(jù)方面表現(xiàn)出色,使其適用于語(yǔ)言處理和時(shí)間序列分析中的任務(wù)。它們記住先前輸入的能力對(duì)于中短序列來(lái)說(shuō)是一個(gè)明顯的優(yōu)勢(shì)。
  • 然而,RNN 在梯度消失問(wèn)題上苦苦掙扎,阻礙了它們處理長(zhǎng)期依賴關(guān)系的能力。對(duì)于需要廣泛歷史背景的任務(wù)來(lái)說(shuō),此限制非常重要。此外,它們的順序性限制了現(xiàn)代并行處理技術(shù)的利用,導(dǎo)致訓(xùn)練時(shí)間更長(zhǎng)。盡管存在這些挑戰(zhàn),RNN仍然是序列數(shù)據(jù)分析的基礎(chǔ)架構(gòu)。

5.3 使用案例

  • RNN 在自然語(yǔ)言處理(語(yǔ)言建模、機(jī)器翻譯)、語(yǔ)音識(shí)別(音素識(shí)別、語(yǔ)音合成)和時(shí)間序列預(yù)測(cè)(股價(jià)預(yù)測(cè)、天氣預(yù)報(bào))中都有應(yīng)用。

六、長(zhǎng)短期記憶 (LSTM)

????????LSTM 代表了遞歸神經(jīng)網(wǎng)絡(luò)領(lǐng)域的高級(jí)發(fā)展,專門用于解決和克服傳統(tǒng) RNN 固有的局限性,尤其是在處理長(zhǎng)期依賴關(guān)系時(shí)。

6.1 LSTM 的工作原理:

  • 高級(jí)內(nèi)存處理:LSTM 的定義特征是其復(fù)雜的存儲(chǔ)單元,稱為 LSTM 單元。該裝置可以長(zhǎng)時(shí)間保持信息,這要?dú)w功于其由不同門組成的獨(dú)特結(jié)構(gòu)。
  • 澆注機(jī)構(gòu):LSTM 包含三種類型的門,每種門在網(wǎng)絡(luò)的內(nèi)存管理中都起著至關(guān)重要的作用。

輸入門:確定應(yīng)使用輸入中的哪些值來(lái)修改內(nèi)存。

忘記門:決定應(yīng)丟棄現(xiàn)有內(nèi)存的哪些部分。

輸出柵極:控制內(nèi)存內(nèi)容到網(wǎng)絡(luò)中下一層的輸出流。

  • 細(xì)胞狀態(tài):LSTM的核心是單元狀態(tài),這是一種直接沿著網(wǎng)絡(luò)的整個(gè)鏈向下延伸的傳送帶。它允許信息相對(duì)不變地流動(dòng),并確保網(wǎng)絡(luò)有效地保留和訪問(wèn)重要的長(zhǎng)期信息。

6.2 挑戰(zhàn)與優(yōu)勢(shì):

  • LSTM 專門設(shè)計(jì)用于避免長(zhǎng)期依賴性問(wèn)題,使其對(duì)于需要長(zhǎng)時(shí)間理解信息的任務(wù)更有效。
  • 然而,與基本的 RNN 和 GRU 相比,它們更加復(fù)雜和計(jì)算密集,這在訓(xùn)練時(shí)間和資源分配方面可能是一個(gè)挑戰(zhàn)。

6.3 使用案例:

  • LSTM 已被證明在需要處理具有長(zhǎng)期依賴關(guān)系的序列的各種領(lǐng)域中有效,例如文本、語(yǔ)音識(shí)別和時(shí)間序列分析中的復(fù)雜句子結(jié)構(gòu)。

????????總之,LSTM 網(wǎng)絡(luò)提供了一種處理順序數(shù)據(jù)的復(fù)雜方法,尤其擅長(zhǎng)于理解長(zhǎng)期依賴關(guān)系至關(guān)重要的任務(wù)。盡管它們很復(fù)雜,但它們是神經(jīng)網(wǎng)絡(luò)架構(gòu)庫(kù)中的強(qiáng)大工具,特別適合 NLP 及其他領(lǐng)域的深度學(xué)習(xí)任務(wù)。

七、門控循環(huán)單元 (GRU)

????????GRU 是遞歸神經(jīng)網(wǎng)絡(luò)的創(chuàng)新變體,旨在改進(jìn)和簡(jiǎn)化 LSTM 的架構(gòu)。它們提供了一種更簡(jiǎn)化的方法來(lái)處理順序數(shù)據(jù),在長(zhǎng)期依賴關(guān)系至關(guān)重要的情況下特別有效。

7.1 GRU的工作原理:

  • 簡(jiǎn)化架構(gòu):與 LSTM 相比,GRU 以其簡(jiǎn)化的結(jié)構(gòu)而聞名,使其在計(jì)算資源方面更加高效。這種效率源于其門數(shù)量的減少。
  • 澆注機(jī)構(gòu):GRU 使用兩個(gè)門:

更新門:此門決定將來(lái)自先前狀態(tài)的信息傳遞到當(dāng)前狀態(tài)的程度。它是 LSTM 中遺忘門和輸入門的混合體。

重置門:它決定了要忘記多少過(guò)去的信息,有效地允許模型決定有多少過(guò)去信息與當(dāng)前預(yù)測(cè)相關(guān)。

  • 沒(méi)有單獨(dú)的單元狀態(tài):與 LSTM 不同,GRU 沒(méi)有單獨(dú)的單元狀態(tài)。它們將單元狀態(tài)和隱藏狀態(tài)組合到一個(gè)結(jié)構(gòu)中,簡(jiǎn)化了信息流,使它們更易于建模和訓(xùn)練。

7.2 挑戰(zhàn)與優(yōu)勢(shì):

  • GRU 以其訓(xùn)練效率和速度而聞名,使其成為關(guān)注計(jì)算資源的模型的合適選擇。
  • 雖然它們通常比 LSTM 更快、更簡(jiǎn)單,但由于其簡(jiǎn)化的結(jié)構(gòu),它們?cè)诓东@非常長(zhǎng)期的依賴關(guān)系方面可能不那么有效。

7.3 使用案例:

  • GRU 已成功應(yīng)用于各種領(lǐng)域,例如語(yǔ)言建模、機(jī)器翻譯和語(yǔ)音轉(zhuǎn)文本應(yīng)用程序,在這些領(lǐng)域中,復(fù)雜性和性能之間的平衡至關(guān)重要。

????????總之,GRU 提供了一種更簡(jiǎn)化的 LSTM 替代方案,在處理具有長(zhǎng)期依賴關(guān)系的順序數(shù)據(jù)方面提供類似的功能,但計(jì)算復(fù)雜性較低。這使得它們成為 NLP 和其他需要處理順序數(shù)據(jù)的領(lǐng)域的許多實(shí)際應(yīng)用的有吸引力的選擇。它們能夠平衡性能和計(jì)算效率,這使它們成為深度學(xué)習(xí)領(lǐng)域的寶貴工具,尤其是在資源有限或需要更快訓(xùn)練時(shí)間的情況下。

八、RNN、LSTM 和 GRU 的比較

????????循環(huán)神經(jīng)網(wǎng)絡(luò) (RNN):

  • 優(yōu)點(diǎn):非常適合在短時(shí)間內(nèi)處理序列和維護(hù)信息。簡(jiǎn)單的架構(gòu)使它們具有計(jì)算效率。
  • 局限性:由于梯度消失問(wèn)題,難以與長(zhǎng)期依賴關(guān)系作斗爭(zhēng)。

????????長(zhǎng)短期記憶 (LSTM) 網(wǎng)絡(luò):

  • 優(yōu)勢(shì):在學(xué)習(xí)長(zhǎng)期依賴性方面非常有效。輸入門、遺忘門和輸出門的增加可以更好地控制存儲(chǔ)單元,使其能夠熟練地處理梯度消失問(wèn)題等問(wèn)題。
  • 復(fù)雜度:比具有附加參數(shù)的 RNN 更復(fù)雜,導(dǎo)致更高的計(jì)算成本。

????????門控循環(huán)單元 (GRU):

  • 優(yōu)勢(shì):在管理長(zhǎng)期依賴關(guān)系方面與 LSTM 類似,但結(jié)構(gòu)更簡(jiǎn)單。GRU 將輸入門和忘記門合并到單個(gè)更新門中,從而降低了復(fù)雜性。
  • 效率:由于參數(shù)較少,訓(xùn)練速度通常比 LSTM 快,同時(shí)通常實(shí)現(xiàn)相似的性能。

????????關(guān)鍵要點(diǎn):

  • 選擇 RNN 是為了簡(jiǎn)單起見(jiàn),并且在處理長(zhǎng)期依賴關(guān)系不重要的較短序列時(shí)。
  • 當(dāng)任務(wù)在較長(zhǎng)時(shí)間內(nèi)涉及復(fù)雜的依賴關(guān)系時(shí),請(qǐng)選擇 LSTM,并且模型精度至關(guān)重要。
  • 選擇 GRU 以獲得更平衡的方法,特別是當(dāng)計(jì)算效率與模型準(zhǔn)確性同樣重要時(shí),或者在處理有限的數(shù)據(jù)時(shí)。

總之,RNN、LSTM 和 GRU 之間的選擇取決于任務(wù)的具體要求,包括輸入序列的性質(zhì)、計(jì)算資源以及捕獲長(zhǎng)期依賴關(guān)系的重要性。

九、使用玩具文本數(shù)據(jù)實(shí)現(xiàn) RNN、LSTM 和 GRU

import numpy as np
from tensorflow.keras.models import Sequential
from tensorflow.keras.layers import SimpleRNN, GRU, LSTM, Dense, Embedding
from tensorflow.keras.preprocessing.text import Tokenizer
from tensorflow.keras.preprocessing.sequence import pad_sequences

# Toy text data
text_data = [
    "This is the first document.",
    "This document is the second document.",
    "And this is the third one.",
    "Is this the first document?"
]

# Tokenize the text data
tokenizer = Tokenizer()
tokenizer.fit_on_texts(text_data)
total_words = len(tokenizer.word_index) + 1

# Create input sequences and labels for training
input_sequences = []
for line in text_data:
    token_list = tokenizer.texts_to_sequences([line])[0]
    for i in range(1, len(token_list)):
        n_gram_sequence = token_list[:i+1]
        input_sequences.append(n_gram_sequence)

max_sequence_length = max(len(seq) for seq in input_sequences)
input_sequences = pad_sequences(input_sequences, maxlen=max_sequence_length, padding='pre')

X, y = input_sequences[:, :-1], input_sequences[:, -1]
y = tf.keras.utils.to_categorical(y, num_classes=total_words)

# Build and train the SimpleRNN model
model_rnn = Sequential()
model_rnn.add(Embedding(total_words, 50, input_length=max_sequence_length-1))
model_rnn.add(SimpleRNN(100))
model_rnn.add(Dense(total_words, activation='softmax'))
model_rnn.compile(optimizer='adam', loss='categorical_crossentropy', metrics=['accuracy'])
model_rnn.fit(X, y, epochs=100, verbose=0)

# Build and train the GRU model
model_gru = Sequential()
model_gru.add(Embedding(total_words, 50, input_length=max_sequence_length-1))
model_gru.add(GRU(100))
model_gru.add(Dense(total_words, activation='softmax'))
model_gru.compile(optimizer='adam', loss='categorical_crossentropy', metrics=['accuracy'])
model_gru.fit(X, y, epochs=100, verbose=0)

# Build and train the LSTM model
model_lstm = Sequential()
model_lstm.add(Embedding(total_words, 50, input_length=max_sequence_length-1))
model_lstm.add(LSTM(100))
model_lstm.add(Dense(total_words, activation='softmax'))
model_lstm.compile(optimizer='adam', loss='categorical_crossentropy', metrics=['accuracy'])
model_lstm.fit(X, y, epochs=100, verbose=0)

# Generate text using the trained models
def generate_text(seed_text, model, max_sequence_len, num_words):
    for _ in range(num_words):
        token_list = tokenizer.texts_to_sequences([seed_text])[0]
        token_list = pad_sequences([token_list], maxlen=max_sequence_len-1, padding='pre')
        predicted = np.argmax(model.predict(token_list), axis=-1)
        output_word = ""
        for word, index in tokenizer.word_index.items():
            if index == predicted:
                output_word = word
                break
        seed_text += " " + output_word
    return seed_text

# Example of generating text with each model
generated_text_rnn = generate_text("This is", model_rnn, max_sequence_length, num_words=5)
generated_text_gru = generate_text("This is", model_gru, max_sequence_length, num_words=5)
generated_text_lstm = generate_text("This is", model_lstm, max_sequence_length, num_words=5)

print("Generated Text (SimpleRNN):", generated_text_rnn)
print("Generated Text (GRU):", generated_text_gru)
print("Generated Text (LSTM):", generated_text_lstm)

十、結(jié)論

????????在 NLP 之旅的這一階段,我們深入研究了深度學(xué)習(xí),探索了神經(jīng)網(wǎng)絡(luò) (NN) 的復(fù)雜性及其在處理 NLP 任務(wù)中順序數(shù)據(jù)中的關(guān)鍵作用。我們的冒險(xiǎn)帶領(lǐng)我們穿越了循環(huán)神經(jīng)網(wǎng)絡(luò) (RNN) 的迷人領(lǐng)域,在那里我們面對(duì)并克服了梯度消失問(wèn)題等挑戰(zhàn)。這一探索為揭示更先進(jìn)的神經(jīng)架構(gòu)奠定了基礎(chǔ),如長(zhǎng)短期記憶網(wǎng)絡(luò) (LSTM) 和門控循環(huán)單元 (GRU)。我們的旅程是對(duì)這些神經(jīng)結(jié)構(gòu)如何熟練地管理順序數(shù)據(jù)的豐富探索,這是取決于上下文的任務(wù)的一個(gè)關(guān)鍵方面,例如語(yǔ)言理解和生成。

????????當(dāng)我們結(jié)束這個(gè)豐富的探索時(shí),我們準(zhǔn)備深入研究下一個(gè)激動(dòng)人心的章節(jié):高級(jí)單詞嵌入技術(shù)。即將到來(lái)的這個(gè)部分有望進(jìn)一步增強(qiáng)我們對(duì) NLP 的理解,重點(diǎn)關(guān)注表示單詞和短語(yǔ)的復(fù)雜方法,這對(duì)于處理更復(fù)雜的語(yǔ)言任務(wù)至關(guān)重要。請(qǐng)繼續(xù)關(guān)注我們,我們將繼續(xù)揭開(kāi)自然語(yǔ)言處理的迷人復(fù)雜性!文章來(lái)源地址http://www.zghlxwxcb.cn/news/detail-793172.html

到了這里,關(guān)于【文本到上下文 #5】:RNN、LSTM 和 GRU的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來(lái)自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場(chǎng)。本站僅提供信息存儲(chǔ)空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請(qǐng)注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請(qǐng)點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • 在word的文本框內(nèi)使用Endnote引用文獻(xiàn),如何保證引文編號(hào)按照上下文排序

    在word的文本框內(nèi)使用Endnote引用文獻(xiàn),如何保證引文編號(hào)按照上下文排序

    如下圖所示,我在word中插入了一個(gè)文本框(為了插圖),然后文本框內(nèi)有引用,結(jié)果endnote自動(dòng)將文本框內(nèi)的引用優(yōu)先排序,變成文獻(xiàn)[1]了,而事實(shí)上應(yīng)該是[31]。請(qǐng)問(wèn)如何能讓文本框內(nèi)的排序也自動(dòng)按照整個(gè)文章從上到下的順序來(lái)呢?[引用自這里] 文本框中不支持尾注(和腳

    2024年02月13日
    瀏覽(84)
  • 深度學(xué)習(xí)RNN,GRU,LSTM文本生成解碼器的訓(xùn)練損失講解(附代碼)

    以下以GRU為例講解RNN作為解碼器時(shí)如何根據(jù)用戶、商品特征信息 hidden 生成評(píng)價(jià)。 解碼器部分代碼如下: 在訓(xùn)練時(shí),解碼器會(huì)有兩個(gè)輸入:一是編碼器提取的用戶、商品特征,二是用戶對(duì)商品的評(píng)價(jià)。 評(píng)價(jià)是文字,在訓(xùn)練開(kāi)始前已經(jīng)轉(zhuǎn)換成了Token ID, 比如 I love this item , 每個(gè)

    2024年04月12日
    瀏覽(16)
  • 【python】flask執(zhí)行上下文context,請(qǐng)求上下文和應(yīng)用上下文原理解析

    【python】flask執(zhí)行上下文context,請(qǐng)求上下文和應(yīng)用上下文原理解析

    ?? 歡迎大家來(lái)到景天科技苑?? ???? 養(yǎng)成好習(xí)慣,先贊后看哦~???? ?? 作者簡(jiǎn)介:景天科技苑 ??《頭銜》:大廠架構(gòu)師,華為云開(kāi)發(fā)者社區(qū)專家博主,阿里云開(kāi)發(fā)者社區(qū)專家博主,CSDN新星創(chuàng)作者,掘金優(yōu)秀博主,51CTO博客專家等。 ??《博客》:Python全棧,前后端開(kāi)

    2024年03月26日
    瀏覽(22)
  • 超長(zhǎng)上下文處理:基于Transformer上下文處理常見(jiàn)方法梳理

    超長(zhǎng)上下文處理:基于Transformer上下文處理常見(jiàn)方法梳理

    原文鏈接:芝士AI吃魚 目前已經(jīng)采用多種方法來(lái)增加Transformer的上下文長(zhǎng)度,主要側(cè)重于緩解注意力計(jì)算的二次復(fù)雜度。 例如,Transformer-XL通過(guò)緩存先前的上下文,并允許隨著層數(shù)的增加線性擴(kuò)展上下文。Longformer采用了一種注意力機(jī)制,使得token稀疏地關(guān)注遠(yuǎn)距離的token,從而

    2024年02月13日
    瀏覽(24)
  • 無(wú)限上下文,多級(jí)內(nèi)存管理!突破ChatGPT等大語(yǔ)言模型上下文限制

    無(wú)限上下文,多級(jí)內(nèi)存管理!突破ChatGPT等大語(yǔ)言模型上下文限制

    目前,ChatGPT、Llama 2、文心一言等主流大語(yǔ)言模型,因技術(shù)架構(gòu)的問(wèn)題上下文輸入一直受到限制,即便是Claude 最多只支持10萬(wàn)token輸入,這對(duì)于解讀上百頁(yè)報(bào)告、書籍、論文來(lái)說(shuō)非常不方便。 為了解決這一難題,加州伯克利分校受操作系統(tǒng)的內(nèi)存管理機(jī)制啟發(fā),提出了MemGPT。

    2024年02月06日
    瀏覽(26)
  • LLMs之llama_7b_qlora:源代碼解讀inference_qlora.py(模型推理)使用LORA權(quán)重來(lái)初始化預(yù)訓(xùn)練的LLAMA模型來(lái)進(jìn)行文本生成(基于用戶交互輸入的上下文生成新文本)

    LLMs之llama_7b_qlora:源碼解讀inference_qlora.py(模型推理)使用LORA權(quán)重來(lái)初始化預(yù)訓(xùn)練的LLAMA模型來(lái)進(jìn)行文本生成(基于用戶交互輸入的上下文生成新文本) 目錄

    2024年02月15日
    瀏覽(34)
  • 從零開(kāi)始理解Linux中斷架構(gòu)(7)--- Linux執(zhí)行上下文之中斷上下文

    從零開(kāi)始理解Linux中斷架構(gòu)(7)--- Linux執(zhí)行上下文之中斷上下文

    ????????當(dāng)前運(yùn)行的loop是一條執(zhí)行流,中斷程序運(yùn)行開(kāi)啟了另外一條執(zhí)行流,從上一節(jié)得知這是三種跳轉(zhuǎn)的第三類,這個(gè)是一個(gè)大跳轉(zhuǎn)。對(duì)中斷程序的基本要求就是 中斷執(zhí)行完畢后要恢復(fù)到原來(lái)執(zhí)行的程序 ,除了時(shí)間流逝外,原來(lái)運(yùn)行的程序應(yīng)該毫無(wú)感知。 ???????

    2024年02月11日
    瀏覽(41)
  • 〖大前端 - 基礎(chǔ)入門三大核心之JS篇(51)〗- 面向?qū)ο笾J(rèn)識(shí)上下文與上下文規(guī)則

    〖大前端 - 基礎(chǔ)入門三大核心之JS篇(51)〗- 面向?qū)ο笾J(rèn)識(shí)上下文與上下文規(guī)則

    說(shuō)明:該文屬于 大前端全棧架構(gòu)白寶書專欄, 目前階段免費(fèi) , 如需要項(xiàng)目實(shí)戰(zhàn)或者是體系化資源,文末名片加V! 作者:哈哥撩編程,十余年工作經(jīng)驗(yàn), 從事過(guò)全棧研發(fā)、產(chǎn)品經(jīng)理等工作,目前在公司擔(dān)任研發(fā)部門CTO。 榮譽(yù): 2022年度博客之星Top4、2023年度超級(jí)個(gè)體得主、谷

    2024年02月05日
    瀏覽(30)
  • 執(zhí)行上下文

    執(zhí)行上下文

    通過(guò)var定義(聲明)的變量--在定義語(yǔ)句之前就可以訪問(wèn)到 值為undefined 通過(guò)function聲明的函數(shù)--在之前就可以直接調(diào)用 值為函數(shù)定義(對(duì)象) 全局代碼 函數(shù)(局部)代碼 在執(zhí)行全局代碼前將window確定為全局執(zhí)行上下文 對(duì)全局?jǐn)?shù)據(jù)進(jìn)行預(yù)處理 var定義的全局變量--undefined--添加

    2023年04月20日
    瀏覽(93)
  • CPU上下文切換

    CPU 上下文切換,就是先把前一個(gè)任務(wù)的 CPU 上下文(也就是 CPU 寄存器和程序計(jì)數(shù)器)保存起來(lái),然后加載新任務(wù)的上下文到這些寄存器和程序計(jì)數(shù)器,最后再跳轉(zhuǎn)到程序計(jì)數(shù)器所指的新位置,運(yùn)行新任務(wù)。 CPU 的上下文切換就可以分為幾個(gè)不同的場(chǎng)景,也就是進(jìn)程上下文切換、

    2024年02月14日
    瀏覽(22)

覺(jué)得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請(qǐng)作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包