国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

畢業(yè)設(shè)計(jì):基于卷積神經(jīng)網(wǎng)絡(luò)的古詩(shī)詞生成系統(tǒng) 人工智能

這篇具有很好參考價(jià)值的文章主要介紹了畢業(yè)設(shè)計(jì):基于卷積神經(jīng)網(wǎng)絡(luò)的古詩(shī)詞生成系統(tǒng) 人工智能。希望對(duì)大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請(qǐng)大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問。

目錄

?前言

設(shè)計(jì)思路

? ? ??一、課題背景與意義

? ? ??二、算法理論原理

? ? ? ? ? ? ? ?2.1 深度學(xué)習(xí)

? ? ? ? ? ? ? ?2.2 神經(jīng)網(wǎng)絡(luò)

? ? ??三、檢測(cè)的實(shí)現(xiàn)

? ? ? ? ? ? ? ?3.1 數(shù)據(jù)集

? ? ? ? ? ? ? ?3.2 實(shí)驗(yàn)環(huán)境搭建

? ? ? ? ? ? ? ?3.3 模型訓(xùn)練

最后


前言

? ? ? ???大四是整個(gè)大學(xué)期間最忙碌的時(shí)光,一邊要忙著備考或?qū)嵙?xí)為畢業(yè)后面臨的就業(yè)升學(xué)做準(zhǔn)備,一邊要為畢業(yè)設(shè)計(jì)耗費(fèi)大量精力。近幾年各個(gè)學(xué)校要求的畢設(shè)項(xiàng)目越來越難,有不少課題是研究生級(jí)別難度的,對(duì)本科同學(xué)來說是充滿挑戰(zhàn)。為幫助大家順利通過和節(jié)省時(shí)間與精力投入到更重要的就業(yè)和考試中去,學(xué)長(zhǎng)分享優(yōu)質(zhì)的選題經(jīng)驗(yàn)和畢設(shè)項(xiàng)目與技術(shù)思路。

? ? ? ????對(duì)畢設(shè)有任何疑問都可以問學(xué)長(zhǎng)哦!

? ? ? ? ?選題指導(dǎo):

? ? ? ? 最新最全計(jì)算機(jī)專業(yè)畢設(shè)選題精選推薦匯總

? ? ? ??大家好,這里是海浪學(xué)長(zhǎng)畢設(shè)專題,本次分享的課題是

? ? ? ? ??基于卷積神經(jīng)網(wǎng)絡(luò)的古詩(shī)詞生成系統(tǒng)

設(shè)計(jì)思路

一、課題背景與意義

? ? ? ?古詩(shī)作為中華文化的重要組成部分,傳統(tǒng)的古詩(shī)創(chuàng)作需要高水平的文學(xué)素養(yǎng)和詩(shī)詞鑒賞能力。然而,隨著人工智能技術(shù)的發(fā)展,利用自然語言處理和生成模型如BERT等,可以開發(fā)出能夠自動(dòng)生成符合古詩(shī)規(guī)律和風(fēng)格的詩(shī)句的古詩(shī)生成器。這樣的生成器可以為創(chuàng)作者提供創(chuàng)作靈感和輔助工具,幫助普通讀者欣賞和接觸古詩(shī),促進(jìn)古詩(shī)的傳承和傳播,以及在教育領(lǐng)域輔助教師進(jìn)行古詩(shī)教學(xué)。

二、算法理論原理

2.1 深度學(xué)習(xí)

? ? ? ?BERT模型在古詩(shī)生成系統(tǒng)中通過豐富的上下文理解能力和長(zhǎng)距離依賴建模,能夠生成準(zhǔn)確、流暢的古詩(shī)作品。同時(shí),BERT模型的多樣性和創(chuàng)新性使得生成的古詩(shī)更具個(gè)性和創(chuàng)意,滿足不同用戶的需求和口味。此外,它還推動(dòng)了文學(xué)研究領(lǐng)域的發(fā)展,通過生成大量的古詩(shī)作品,為文學(xué)特征和演變的分析提供支持,加深了對(duì)古代文學(xué)的理解。綜上所述,BERT模型的應(yīng)用為古詩(shī)創(chuàng)作和文學(xué)研究帶來了新的可能性和進(jìn)展。

diy 古詩(shī)詞生成模型 csdn,深度學(xué)習(xí)畢業(yè)設(shè)計(jì),人工智能,cnn,畢業(yè)設(shè)計(jì),畢設(shè),深度學(xué)習(xí),python,神經(jīng)網(wǎng)絡(luò)?

BERT模型可以使用兩種策略來應(yīng)對(duì)不同的任務(wù)和應(yīng)用場(chǎng)景:

  1. Fine-tuning(微調(diào))策略:首先使用大規(guī)模無監(jiān)督的預(yù)訓(xùn)練數(shù)據(jù)對(duì)BERT模型進(jìn)行預(yù)訓(xùn)練,學(xué)習(xí)通用的語言表示。然后,將預(yù)訓(xùn)練的BERT模型用于特定任務(wù)時(shí),通過在少量標(biāo)注數(shù)據(jù)上進(jìn)行有監(jiān)督的微調(diào),將模型參數(shù)調(diào)整到與特定任務(wù)相關(guān)的特征上。這種策略適用于各種自然語言處理任務(wù),如文本分類、命名實(shí)體識(shí)別、情感分析等。通過微調(diào),BERT模型可以適應(yīng)不同任務(wù)的特定特征和語境。

  2. Feature-based(基于特征)策略:在某些場(chǎng)景下,微調(diào)整個(gè)BERT模型的代價(jià)較高,或者只希望利用BERT模型的表示能力而不改變模型架構(gòu)。在這種情況下,可以使用基于特征的策略。該策略通過在預(yù)訓(xùn)練的BERT模型之上構(gòu)建新的模型,將BERT的輸出作為輸入特征,并在其基礎(chǔ)上進(jìn)行后續(xù)的任務(wù)建模和訓(xùn)練。例如,可以將BERT的輸出作為輸入,連接到一個(gè)全連接層或其他特定任務(wù)的模塊,然后進(jìn)行目標(biāo)任務(wù)的訓(xùn)練和推斷。這種策略在需要靈活調(diào)整模型結(jié)構(gòu)或在計(jì)算資源有限的情況下很有用。

diy 古詩(shī)詞生成模型 csdn,深度學(xué)習(xí)畢業(yè)設(shè)計(jì),人工智能,cnn,畢業(yè)設(shè)計(jì),畢設(shè),深度學(xué)習(xí),python,神經(jīng)網(wǎng)絡(luò)?

2.2 神經(jīng)網(wǎng)絡(luò)

? ? ? ??卷積神經(jīng)網(wǎng)絡(luò)(CNN)在古詩(shī)生成系統(tǒng)能夠通過層級(jí)特征提取捕捉古詩(shī)的字、詞、句子結(jié)構(gòu)和模式,生成準(zhǔn)確而富有語言感的古詩(shī)作品。CNN的并行計(jì)算能力使得處理大規(guī)模數(shù)據(jù)更加高效,提高了生成速度和實(shí)時(shí)性。其局部感知能力幫助理解古詩(shī)中字、詞之間的依賴關(guān)系和語義規(guī)律,生成連貫自然的古詩(shī)。數(shù)據(jù)共享和參數(shù)共享機(jī)制減少了過擬合風(fēng)險(xiǎn),提高了模型的泛化能力。此外,CNN的可解釋性使得開發(fā)者和研究人員能夠理解和優(yōu)化模型的行為。

diy 古詩(shī)詞生成模型 csdn,深度學(xué)習(xí)畢業(yè)設(shè)計(jì),人工智能,cnn,畢業(yè)設(shè)計(jì),畢設(shè),深度學(xué)習(xí),python,神經(jīng)網(wǎng)絡(luò)?

? ? ? ?LSTM(長(zhǎng)短期記憶網(wǎng)絡(luò))在古詩(shī)生成系統(tǒng)中具有顯著的優(yōu)勢(shì)。其主要優(yōu)點(diǎn)包括:

  • 對(duì)長(zhǎng)距離依賴關(guān)系的建模能力,使得LSTM能夠捕捉古詩(shī)中的上下文信息,生成具有連貫性和一致性的古詩(shī)作品;
  • 對(duì)輸入文本的序列特征進(jìn)行建模,有助于理解和學(xué)習(xí)古詩(shī)中的節(jié)奏、韻律和語言結(jié)構(gòu),生成更加韻味悠長(zhǎng)的古詩(shī);
  • 具有記憶單元和遺忘門機(jī)制,可以有效地處理輸入序列的長(zhǎng)期依賴和信息傳遞,幫助LSTM模型更好地捕捉古詩(shī)中的語義和情感;
  • 能夠適應(yīng)不同長(zhǎng)度的輸入序列,使得LSTM在處理古詩(shī)生成任務(wù)時(shí)更具靈活性和適應(yīng)性。

diy 古詩(shī)詞生成模型 csdn,深度學(xué)習(xí)畢業(yè)設(shè)計(jì),人工智能,cnn,畢業(yè)設(shè)計(jì),畢設(shè),深度學(xué)習(xí),python,神經(jīng)網(wǎng)絡(luò)?

?相關(guān)代碼示例:

# 構(gòu)建LSTM模型
model = Sequential()
model.add(LSTM(128, input_shape=(X.shape[1], X.shape[2])))
model.add(Dense(len(chars), activation='softmax'))
model.compile(loss='categorical_crossentropy', optimizer='adam')

# 訓(xùn)練模型
model.fit(X, y, epochs=50, batch_size=128)

# 使用模型生成古詩(shī)
start = np.random.randint(0, len(sequences)-1)
seed_seq = sequences[start]
generated_poem = ''.join([indices_char[value] for value in seed_seq])

for _ in range(100):
    x = np.reshape(seed_seq, (1, sequence_length, 1))
    x = x / float(len(chars))
    prediction = model.predict(x, verbose=0)
    index = np.argmax(prediction)
    result = indices_char[index]
    generated_poem += result
    seed_seq.append(index)
    seed_seq = seed_seq[1:]

print(generated_poem)

? ? ? ?SSD模型是一種多尺度的特征提取模型,用于定位圖像中特定物體的位置和類別。它接受三通道彩色圖像作為輸入,也可以使用灰度圖像進(jìn)行訓(xùn)練。模型首先使用傳統(tǒng)的VGG模型對(duì)整個(gè)圖像進(jìn)行特征提取,然后添加五層尺度不同的卷積層來輔助特征提取。每個(gè)卷積層都將圖像劃分為固定大小的格子,并在每個(gè)格子內(nèi)設(shè)置多個(gè)不同大小的檢測(cè)框。這樣的設(shè)置確保在后續(xù)的特征提取過程中,只需在預(yù)定義的檢測(cè)框內(nèi)提取特征,而無需使用窮舉法來檢測(cè)特征,從而顯著提高計(jì)算速度。每個(gè)檢測(cè)框中提取的信息經(jīng)過非極大值抑制(NMS)算法,得到正負(fù)樣本比例為1:3的數(shù)據(jù)作為模型的輸出。然后,將這些輸出與其他層的輸出一起進(jìn)行分類和回歸計(jì)算,得到最終框的位置信息和框內(nèi)物體的信息。

diy 古詩(shī)詞生成模型 csdn,深度學(xué)習(xí)畢業(yè)設(shè)計(jì),人工智能,cnn,畢業(yè)設(shè)計(jì),畢設(shè),深度學(xué)習(xí),python,神經(jīng)網(wǎng)絡(luò)?

? ? ? ?通過使用SSD模型進(jìn)行目標(biāo)檢測(cè),我們可以從圖片中獲取機(jī)器作詩(shī)所需的關(guān)鍵詞。作詩(shī)模型可以從花鳥和景物中判斷出船和鳥等目標(biāo),從而作為待生成作品的主題,并根據(jù)目標(biāo)檢測(cè)結(jié)果進(jìn)行藝術(shù)創(chuàng)作。這種方法通過閱讀圖像增加了機(jī)器對(duì)圖片的理解和認(rèn)知能力,并且計(jì)算機(jī)可以識(shí)別多種目標(biāo)對(duì)象。然而,在古典詩(shī)詞中沒有出現(xiàn)的現(xiàn)代物品和生活方式(如汽車、飛機(jī)、街舞等新詞),由于缺乏足夠的訓(xùn)練樣本,作詩(shī)模型在生成效果上可能會(huì)受到一定影響。因此,推薦使用風(fēng)景類和花鳥動(dòng)物類的圖片進(jìn)行SSD目標(biāo)識(shí)別。

diy 古詩(shī)詞生成模型 csdn,深度學(xué)習(xí)畢業(yè)設(shè)計(jì),人工智能,cnn,畢業(yè)設(shè)計(jì),畢設(shè),深度學(xué)習(xí),python,神經(jīng)網(wǎng)絡(luò)?

? ? ? ?在機(jī)器作詩(shī)中,需要探索其他方法來生成高質(zhì)量的關(guān)鍵詞。這可能涉及到更深入的文本分析和理解,結(jié)合詩(shī)歌的結(jié)構(gòu)和意境,以及對(duì)詩(shī)歌風(fēng)格和情感的把握。這樣的嘗試和改進(jìn)將有助于提高機(jī)器作詩(shī)的質(zhì)量和藝術(shù)性。

相關(guān)代碼示例:

import torch
from torchvision import transforms
from torchvision.models import vgg16
from torchvision.models.detection import ssdlite320_mobilenet_v3_large

# 加載預(yù)訓(xùn)練的SSD模型和VGG模型
ssd_model = ssdlite320_mobilenet_v3_large(pretrained=True)
vgg_model = vgg16(pretrained=True)

# 設(shè)置模型為評(píng)估模式
ssd_model.eval()
vgg_model.eval()

# 定義圖片預(yù)處理的轉(zhuǎn)換
transform = transforms.Compose([
    transforms.Resize((300, 300)),
    transforms.ToTensor(),
    transforms.Normalize(mean=[0.485, 0.456, 0.406], std=[0.229, 0.224, 0.225])
])

# 加載圖像
image = Image.open('image.jpg')

# 進(jìn)行圖像預(yù)處理
image_tensor = transform(image).unsqueeze(0)

# 使用VGG模型提取特征
features = vgg_model.features(image_tensor)

# 使用SSD模型進(jìn)行目標(biāo)檢測(cè)
with torch.no_grad():
    detections = ssd_model(features)

# 獲取預(yù)測(cè)結(jié)果
boxes = detections[0]['boxes']
labels = detections[0]['labels']
scores = detections[0]['scores']

三、檢測(cè)的實(shí)現(xiàn)

3.1 數(shù)據(jù)集

? ? ? ?為了解決低頻詞在訓(xùn)練集中的不足,采用了基于詞向量相似度的方法來擴(kuò)展訓(xùn)練集。對(duì)于高頻詞,直接選取含有該詞的古詩(shī)四聯(lián)句作為標(biāo)簽;對(duì)于低頻詞,通過計(jì)算詞向量相似度,選取與該詞最相似的一組詞作為標(biāo)簽。此外,為了確定每個(gè)關(guān)鍵詞應(yīng)匹配的標(biāo)簽數(shù)量,提出了一種選取閾值的方法。該方法旨在盡可能擴(kuò)展低頻詞的相關(guān)詩(shī)句,并提高低頻詞與簇生詞之間的相似度。

? ? ? ?通過構(gòu)建句關(guān)鍵詞數(shù)據(jù)集,利用詞向量相似度來擴(kuò)展訓(xùn)練集,對(duì)高頻詞直接選取含有該詞的古詩(shī)四聯(lián)句作為標(biāo)簽,對(duì)低頻詞通過計(jì)算詞向量相似度選取與該詞最相似的一組詞作為標(biāo)簽。同時(shí),提出了一種選取閾值的方法來確定每個(gè)關(guān)鍵詞應(yīng)匹配的標(biāo)簽數(shù)量,以盡可能擴(kuò)展低頻詞的相關(guān)詩(shī)句并提高低頻詞與簇生詞之間的相似度。這樣的模型能夠生成更準(zhǔn)確、連貫的古詩(shī)四聯(lián)句,并考慮了詞語的上下文信息和語義相似度。

diy 古詩(shī)詞生成模型 csdn,深度學(xué)習(xí)畢業(yè)設(shè)計(jì),人工智能,cnn,畢業(yè)設(shè)計(jì),畢設(shè),深度學(xué)習(xí),python,神經(jīng)網(wǎng)絡(luò)?

import imgaug.augmenters as iaa
import cv2
import os

# 圖像增強(qiáng)器
augmenter = iaa.Sequential([
    iaa.Fliplr(0.5),  # 左右翻轉(zhuǎn)概率為0.5
    iaa.Affine(rotate=(-45, 45)),  # 旋轉(zhuǎn)角度范圍為-45到45度
    iaa.Resize({"height": 300, "width": 300}) # 縮放圖像到300x300像素
])

# 圖像增強(qiáng)函數(shù)
def augment_image(image):
    augmented_image = augmenter.augment_image(image)
    return augmented_image

# 數(shù)據(jù)集路徑import gensim
from sklearn.metrics.pairwise import cosine_similarity

# 加載預(yù)訓(xùn)練的詞向量模型
word2vec_model = gensim.models.KeyedVectors.load_word2vec_format('word2vec_model.bin', binary=True)

# 定義訓(xùn)練集中的低頻詞
low_frequency_words = ['低頻詞1', '低頻詞2', '低頻詞3']

# 定義閾值,用于確定每個(gè)關(guān)鍵詞應(yīng)匹配的標(biāo)簽數(shù)量
threshold = 0.8

# 擴(kuò)展訓(xùn)練集中的低頻詞
expanded_train_data = []

for word in low_frequency_words:
    # 計(jì)算低頻詞與訓(xùn)練集中所有詞的相似度
    similarities = word2vec_model.similarity(word, train_data)

    # 根據(jù)相似度選擇與低頻詞最相似的一組詞作為標(biāo)簽
    similar_words = [train_data[i] for i in range(len(train_data)) if similarities[i] > threshold]

    # 將低頻詞和其對(duì)應(yīng)的標(biāo)簽添加到擴(kuò)展后的訓(xùn)練集中
    expanded_train_data.append((word, similar_words))

# 打印擴(kuò)展后的訓(xùn)練集
for word, labels in expanded_train_data:
    print('Word:', word)
    print('Labels:', labels)
    print('----------------------')
dataset_path = "/path/to/dataset"

# 遍歷數(shù)據(jù)集圖像文件
for filename in os.listdir(dataset_path):
    if filename.endswith(".jpg"):
        image_path = os.path.join(dataset_path, filename)
        
        # 讀取圖像
        image = cv2.imread(image_path)
        
        # 進(jìn)行圖像增強(qiáng)
        augmented_image = augment_image(image)
        
        # 保存增強(qiáng)后的圖像
        augmented_image_path = os.path.join(dataset_path, "augmented_" + filename)
        cv2.imwrite(augmented_image_path, augmented_image)

3.2 實(shí)驗(yàn)環(huán)境搭建

diy 古詩(shī)詞生成模型 csdn,深度學(xué)習(xí)畢業(yè)設(shè)計(jì),人工智能,cnn,畢業(yè)設(shè)計(jì),畢設(shè),深度學(xué)習(xí),python,神經(jīng)網(wǎng)絡(luò)?

3.3?模型訓(xùn)練

? ? ? ?提出了一種改進(jìn)的Seq2Seq模型,用于生成中文古典詩(shī)詞。傳統(tǒng)的Seq2Seq模型在處理古詩(shī)任務(wù)時(shí)存在連貫性問題,但改進(jìn)后的模型通過引入注意力機(jī)制和一維卷積神經(jīng)網(wǎng)絡(luò),解決了這個(gè)問題。模型采用了Transformer的自注意力機(jī)制來提取序列特征,并且能夠并行訓(xùn)練以提高效率。最終,該模型能夠生成具有較好連貫性的古詩(shī)詞序列。

? ? ? ?使用了標(biāo)注的豪放派七言絕句古詩(shī)數(shù)據(jù)集(2509首)和婉約派七言絕句數(shù)據(jù)集(3091首)作為訓(xùn)練數(shù)據(jù)。訓(xùn)練集和驗(yàn)證集按照7:3的比例進(jìn)行劃分。詞向量選用了BERT模型訓(xùn)練的200維詞向量,自注意力機(jī)制使用了4個(gè)頭,隱層維度為256維,前饋網(wǎng)絡(luò)維度為128維。編碼器模塊堆疊了3層,解碼器的參數(shù)與編碼器一致。損失函數(shù)采用了交叉熵?fù)p失(categorical_crossentropy),輸入尺寸的batch_size為64,訓(xùn)練輪數(shù)為50。

diy 古詩(shī)詞生成模型 csdn,深度學(xué)習(xí)畢業(yè)設(shè)計(jì),人工智能,cnn,畢業(yè)設(shè)計(jì),畢設(shè),深度學(xué)習(xí),python,神經(jīng)網(wǎng)絡(luò)?

相關(guān)代碼示例:

import torch
from transformers import BertTokenizer, BertForMaskedLM

def generate_poem(prompt, num_lines):
    tokenizer = BertTokenizer.from_pretrained('bert-base-chinese')
    model = BertForMaskedLM.from_pretrained('bert-base-chinese')

    # 將輸入文本編碼為BERT模型所需的輸入張量
    input_ids = tokenizer.encode(prompt, add_special_tokens=False, return_tensors='pt')
    
    # 使用BERT模型生成古詩(shī)
    with torch.no_grad():
        outputs = model.generate(input_ids, max_length=num_lines*2, num_return_sequences=1, do_sample=True)

    generated_poem = tokenizer.decode(outputs[0], skip_special_tokens=True)
    poem_lines = generated_poem.split('\n')[:num_lines]

    return poem_lines

# 示例使用
prompt = "白日依山盡,黃河入海流。"
num_lines = 4

generated_poem = generate_poem(prompt, num_lines)
for line in generated_poem:
    print(line)

創(chuàng)作不易,歡迎點(diǎn)贊、關(guān)注、收藏。

畢設(shè)幫助,疑難解答,歡迎打擾!文章來源地址http://www.zghlxwxcb.cn/news/detail-849319.html

最后

到了這里,關(guān)于畢業(yè)設(shè)計(jì):基于卷積神經(jīng)網(wǎng)絡(luò)的古詩(shī)詞生成系統(tǒng) 人工智能的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場(chǎng)。本站僅提供信息存儲(chǔ)空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請(qǐng)注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請(qǐng)點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請(qǐng)作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包