国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

廣西民族大學(xué)高級人工智能課程—頭歌實(shí)踐教學(xué)實(shí)踐平臺—機(jī)器翻譯--English to Chinese

這篇具有很好參考價值的文章主要介紹了廣西民族大學(xué)高級人工智能課程—頭歌實(shí)踐教學(xué)實(shí)踐平臺—機(jī)器翻譯--English to Chinese。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問。

第1關(guān):邁出第一步----數(shù)據(jù)預(yù)處理

代碼文件

import numpy as np

test_point = input()

with open('cmn.txt', 'r', encoding='utf-8') as f:
    data = f.read()
data = data.split('\n')
data = data[:100]

#########begin#########
en_data = [line.split('\t')[0] for line in data]
ch_data = ['\t' + line.split('\t')[1] + '\n' for line in data]

#########end#########

print('英文數(shù)據(jù):\n', en_data[:5])
print('\n中文數(shù)據(jù):\n', ch_data[:5])

print('數(shù)據(jù)讀取完成')

# 分別生成中英文字典

#########begin#########
en_vocab = set(''.join(en_data))
en_vocab = sorted(en_vocab)
id2en = {i: char for i, char in enumerate(en_vocab)}
en2id = {char: i for i, char in enumerate(en_vocab)}

ch_vocab = set(''.join(ch_data))
ch_vocab = sorted(ch_vocab)
id2ch = {i: char for i, char in enumerate(ch_vocab)}
ch2id = {char: i for i, char in enumerate(ch_vocab)}


#########end#########

print('\n英文字典:\n', en2id)
print('\n中文字典\n:', ch2id)
print('字典構(gòu)建完成')
en_num_data = [[en2id[en] for en in line] for line in en_data]
ch_num_data = [[ch2id[ch] for ch in line] for line in ch_data]
de_num_data = [[ch2id[ch] for ch in line][1:] for line in ch_data]



import numpy as np

# 獲取輸入輸出端的最大長度
max_encoder_seq_length = max([len(txt) for txt in en_num_data])
max_decoder_seq_length = max([len(txt) for txt in ch_num_data])

#########begin#########
# 將數(shù)據(jù)進(jìn)行onehot處理
# 將數(shù)據(jù)進(jìn)行onehot處理
encoder_input_data = np.zeros(
    (len(en_num_data), max_encoder_seq_length, len(en2id)), dtype='float32')
decoder_input_data = np.zeros(
    (len(ch_num_data), max_decoder_seq_length, len(ch2id)), dtype='float32')
decoder_target_data = np.zeros(
    (len(ch_num_data), max_decoder_seq_length, len(ch2id)), dtype='float32')

for i, (input_text, target_text) in enumerate(zip(en_num_data, ch_num_data)):
    for t, char in enumerate(input_text):
        encoder_input_data[i, t, char] = 1.
    for t, char in enumerate(target_text):
        decoder_input_data[i, t, char] = 1.
        # 注意:target_text是從索引1開始,因?yàn)樗饕?是'\t'開始標(biāo)記
        if t > 0:
            # decoder_target_data是從索引0開始,結(jié)束標(biāo)記是'\n'
            decoder_target_data[i, t - 1, char] = 1.



#########end#########
print(encoder_input_data[int(test_point)])
print(decoder_input_data[int(test_point)])
print(decoder_target_data[int(test_point)])

print('向量化完成')

題目描述

任務(wù)描述

本關(guān)任務(wù):基于機(jī)器學(xué)習(xí)的思想,是一種數(shù)據(jù)驅(qū)動的研究思想,因此首先要對準(zhǔn)備研究的數(shù)據(jù)進(jìn)行處理。對于機(jī)器翻譯模型,數(shù)據(jù)預(yù)處理主要分為兩個方面:

  • 標(biāo)準(zhǔn)化自然語言語句的格式
  • 構(gòu)建訓(xùn)練所用的語言詞典
  • 將語詞轉(zhuǎn)化為向量
相關(guān)知識

為了完成本關(guān)任務(wù),你需要掌握:

  1. 讀取原始數(shù)據(jù)并對其進(jìn)行標(biāo)準(zhǔn)化整理
  2. 根據(jù)自然語言語句數(shù)據(jù),構(gòu)建英語和法語兩個詞典。
  3. 將自然語言向量化
數(shù)據(jù)整理

本實(shí)訓(xùn)提供20,000個英語句子和其相對應(yīng)的20,000個翻譯好的法語句子。數(shù)據(jù)的原始格式如下:

en2id,高級人工智能,人工智能,機(jī)器翻譯,自然語言處理

每一行包含一句英語句子和其對應(yīng)的法語句子,它們中間用\t隔開?,F(xiàn)在希望將英語和法語句子分割開來,將英語句子存入en_data,將法語句子存入ch_data,并且為了后續(xù)模型訓(xùn)練,規(guī)定英語句子保持不變,而法語每個句子都以\t開頭,并以\n結(jié)尾。

 
  1. #英文句子
  2. line.split('\t')[0]
  3. #中文句子
  4. '\t' + line.split('\t')[1] + '\n'
構(gòu)建詞典

所謂詞典,就是指在整個數(shù)據(jù)集中出現(xiàn)的所有token所構(gòu)成的集合。該token可以是單詞,也可以是字母。本文以字母作為token。所有的英文字符存儲在en_vocab中,中文字符存儲在ch_vocab中。詞典一般使用dictionary數(shù)據(jù)類型,以英文為例子,英文的詞典分為兩個:

  • id2en,其中的key為詞典的index,而value對應(yīng)相應(yīng)的英文字母
  • en2id,其中key為英文字母,而value為對應(yīng)的詞典index?例如:
     
      
    1. id2en[0]
    2. # out: a
    3. en2id['a']
    4. # out: 0
自然語言向量化

向量化后的自然語言語句,將被用于模型的輸入。對自然語言的向量化,一種常用的方法是one-hot編碼。 one-hot編碼,又稱“獨(dú)熱編碼”。其實(shí)就是用N位狀態(tài)寄存器編碼N個狀態(tài),每個狀態(tài)都有獨(dú)立的寄存器位,且這些寄存器位中只有一位有效。 例如一個特征“性別”,性別有“男性”、“女性”,這個特征有兩個特征值,也只有兩個特征值,如果這個特征進(jìn)行one-hot編碼,則特征值為“男性”的編碼為“10”,“女性”的編碼為“01” 在代碼片段中,使用encoder_input_data,decoder_input_datadecoder_target_data,分別來存儲向量化的英文、中文和目標(biāo)語言句子。以encoder_input_data為例:

 
  1. # 三維數(shù)組,第一維度是數(shù)據(jù)集中的總句子數(shù),第二維度為最長的
  2. # 句子長度,最后一維度為字典的長度
  3. encoder_input_data = np.zeros((len(en_num_data), max_encoder_seq_length, len(en2id)), dtype='float32')
  4. # 向量化時,根據(jù)詞典將0向量的相應(yīng)位置置為1
  5. for i in range(len(ch_num_data)):
  6. for t, j in enumerate(en_num_data[i]):
  7. encoder_input_data[i, t, j] = 1.
編程要求

根據(jù)提示,在右側(cè)編輯器補(bǔ)充代碼。完成數(shù)據(jù)的標(biāo)準(zhǔn)化處理、構(gòu)建訓(xùn)練所用的語言詞典并將語詞轉(zhuǎn)化為向量。

測試說明

平臺會對你編寫的代碼進(jìn)行測試: 測試輸入: 1 預(yù)期輸出(會輸出對應(yīng)測試輸入的向量化數(shù)據(jù)):

 
  1. 英文數(shù)據(jù):
  2. ['Hi.', 'Hi.', 'Run.', 'Wait!', 'Hello!']
  3. 中文數(shù)據(jù):
  4. ['\t嗨。\n', '\t你好。\n', '\t你用跑的。\n', '\t等等!\n', '\t你好。\n']
  5. 數(shù)據(jù)讀取完成
  6. 英文字典:
  7. {' ': 0, '!': 1, "'": 2, '.': 3, '?': 4,...
  8. 中文字典:
  9. {'\t': 0, '\n': 1, '!': 2, '。':...
  10. 字典構(gòu)建完成
  11. [[0. 0. 0. 0.....
  12. 向量化完成

開始你的任務(wù)吧,祝你成功!文章來源地址http://www.zghlxwxcb.cn/news/detail-827131.html

第2關(guān):?模型訓(xùn)練----搭建seq2seq訓(xùn)練模型

代碼文件

import data_prepare
from keras.models import Model
from keras.layers import Input, LSTM, Dense, Embedding,concatenate,TimeDistributed,RepeatVector,Bidirectional
from keras.optimizers import Adam


EN_VOCAB_SIZE = 47
CH_VOCAB_SIZE = 147
HIDDEN_SIZE = 256

LEARNING_RATE = 0.003
BATCH_SIZE = 100
EPOCHS = 200

encoder_input_data, decoder_input_data,decoder_target_data,_,_,_ = data_prepare.getdata()
# ==============encoder=============
#########begin#########

# Encoder
encoder_inputs = Input(shape=(None, EN_VOCAB_SIZE))
encoder_LSTM = LSTM(HIDDEN_SIZE, return_sequences=True, return_state=True, name='encoder')
encoder_outputs, state_h, state_c = encoder_LSTM(encoder_inputs)
encoder_states = [state_h, state_c]


#########end#########
# # ==============decoder=============

#########begin#########

# Decoder
decoder_inputs = Input(shape=(None, CH_VOCAB_SIZE))
decoder_LSTM = LSTM(HIDDEN_SIZE, return_sequences=True, return_state=True, name='decoder')
decoder_outputs, _, _ = decoder_LSTM(decoder_inputs, initial_state=encoder_states)
decoder_dense = Dense(CH_VOCAB_SIZE, activation='softmax', name='dense')
decoder_outputs = decoder_dense(decoder_outputs)


#########end#########

#
#
model = Model([encoder_inputs, decoder_inputs], decoder_outputs)
opt = Adam(lr=LEARNING_RATE, beta_1=0.9, beta_2=0.999, epsilon=1e-08)
model.compile(optimizer=opt, loss='categorical_crossentropy', metrics=['accuracy'])
model.summary()

# model.fit([encoder_input_data, decoder_input_data], decoder_target_data,
#           batch_size=BATCH_SIZE,
#           epochs=EPOCHS,
#           validation_split=0.2)

題目描述

任務(wù)描述

本關(guān)任務(wù):準(zhǔn)備好數(shù)據(jù)后,就要著手搭建訓(xùn)練模型了。本關(guān)將完成seq2seq模型的搭建和模型的訓(xùn)練。

相關(guān)知識

為了完成本關(guān)任務(wù),你需要掌握: 1.seq2seq模型基本原理 2.搭建seq2seq模型 3.訓(xùn)練seq2seq模型

seq2seq模型基本原理

Seq2Seq模型是RNN最重要的一個變種,這種結(jié)構(gòu)又叫Encoder-Decoder模型。 由于我們遇到的大部分問題序列都是不等長的,如機(jī)器翻譯中,源語言和目標(biāo)語言的句子往往并沒有相同的長度。

en2id,高級人工智能,人工智能,機(jī)器翻譯,自然語言處理

為此,Encoder-Decoder結(jié)構(gòu)先將輸入數(shù)據(jù)編碼成一個上下文向量,該上下文向量通常是Encoder的最后一個隱藏狀態(tài)。 Decoder將該上下文向量作為輸入,對其進(jìn)行解碼,輸出相應(yīng)的目標(biāo)序列。 由于Encoder-Decoder結(jié)構(gòu)不限制輸入和輸出的序列長度,因此應(yīng)用的范圍非常廣泛,比如:機(jī)器翻譯、文本摘要、閱讀理解、語音識別等。

搭建seq2seq模型
Encoder模型

首先對模型的Encoder部分進(jìn)行搭建,為此我們需要考慮3個方面:

  1. Encoder模型的輸入是什么樣子?
  2. Encoder模型使用怎樣的RNN單元?
  3. 模型的哪部分作為Decoder的輸入?

模型的輸入可以使用Input來設(shè)定,輸入的形狀要與字典長度相同:

 
  1. encoder_input = Input(shape=(None,len(vocabulary)))

本關(guān)模型使用LSTM單元,維度設(shè)置為HIDDEN_SIZE,return_sequences字段用來決控制是否需要每一步的輸出,return_states用來控制是否輸出隱藏層狀態(tài)。

 
  1. encoder_LSTM = LTM(HIDDEN_SIZE, return_sequences=True, return_state=True,name='encoder')

Encoder使用最后一層的隱藏狀態(tài),即encoder_state_h encoder_state_c作為Decoder的輸入:

 
  1. encoder_h, encoder_state_h, encoder_state_c = encoder_LSTM (encoder_input)
Decoder模型

對Decoder部分進(jìn)行搭建,我們需要考慮3個方面:

  1. Decoder模型的輸入是什么樣子?
  2. Decoder模型使用怎樣的RNN單元?
  3. 模型的輸出是怎樣的結(jié)構(gòu)?

前兩步與Encoder相似,對于Decoder的輸出,我們使用一個全連接層,并使用softmax激活函數(shù)將輸出的向量映射到目標(biāo)語言的字典上。

 
  1. lstm = LSTM(HIDDEN_SIZE, return_sequences=True, return_state=True,name='decoder')
  2. decoder_h, _, _ = lstm(decoder_inputs, initial_state=[encoder_state_h, encoder_state_c])
  3. decoder_dense = Dense(CH_VOCAB_SIZE, activation='softmax',name='dense')
  4. decoder_outputs = decoder_dense(decoder_h)

Decoder部分還可以使用注意力機(jī)制:

en2id,高級人工智能,人工智能,機(jī)器翻譯,自然語言處理

該方法通過一個attention層,將Encoder部分的每一步的輸出與decoder_inputs聯(lián)系起來作為decoder的輸入。相當(dāng)于根據(jù)序列的每個時間步將編碼器編碼為不同隱藏向量c,在解碼時,結(jié)合每個不同的c進(jìn)行解碼輸出,這樣得到的結(jié)果會更加準(zhǔn)確。在本實(shí)訓(xùn)中,請先掌握較為簡單的普通Decoder結(jié)構(gòu)。

訓(xùn)練seq2seq模型

訓(xùn)練模型時,我們用Model模塊將Encoder和Decoder封裝,并通過optimizer選擇優(yōu)化器,loss選擇損失函數(shù)。

 
  1. model = Model([encoder_inputs, decoder_inputs], decoder_outputs)
  2. opt = Adam(lr=LEARNING_RATE, beta_1=0.9, beta_2=0.999, epsilon=1e-08)
  3. model.compile(optimizer=opt, loss='categorical_crossentropy', metrics=['accu\fracy'])

模型在訓(xùn)練時,將之前預(yù)處理好的數(shù)據(jù)輸入模型,并設(shè)置相應(yīng)參數(shù)即可。

 
  1. model.fit([encoder_input_data, decoder_input_data], decoder_target_data,
  2. batch_size=BATCH_SIZE,
  3. epochs=EPOCHS,
  4. validation_split=0.2)

其中x為輸入的數(shù)據(jù),y為輸出的數(shù)據(jù)。batch_size為每一批處理的序列數(shù),epochs為訓(xùn)練的迭代次數(shù),validation_split為訓(xùn)練集和驗(yàn)證集的比例。 ####編程要求

根據(jù)提示,在右側(cè)編輯器補(bǔ)充代碼,完成seq2seq模型的搭建和訓(xùn)練。

測試說明

平臺會對你編寫的代碼進(jìn)行測試:

模型結(jié)構(gòu)與要求相符即可通過本關(guān)。


開始你的任務(wù)吧,祝你成功!

第3關(guān):模型實(shí)踐----搭建seq2seq推斷模型

代碼文件

import data_prepare
from keras.models import Model
from keras.layers import Input, LSTM, Dense, Embedding, concatenate, TimeDistributed, RepeatVector, Bidirectional
from keras.optimizers import Adam
import numpy as np

# Existing code for setting up the model
EN_VOCAB_SIZE = 47
CH_VOCAB_SIZE = 147
HIDDEN_SIZE = 256
LEARNING_RATE = 0.003
BATCH_SIZE = 100
EPOCHS = 100
encoder_input_data, decoder_input_data, decoder_target_data, ch2id, id2ch, en_data = data_prepare.getdata()

# ==============encoder=============
encoder_inputs = Input(shape=(None, EN_VOCAB_SIZE))
encoder_h, encoder_state_h, encoder_state_c = LSTM(HIDDEN_SIZE, return_sequences=True, return_state=True, name='encoder')(encoder_inputs)

# ==============decoder=============
decoder_inputs = Input(shape=(None, CH_VOCAB_SIZE))
decoder = LSTM(HIDDEN_SIZE, return_sequences=True, return_state=True, name='decoder')
decoder_dense = Dense(CH_VOCAB_SIZE, activation='softmax', name='dense')
decoder_h, _, _ = decoder(decoder_inputs, initial_state=[encoder_state_h, encoder_state_c])
decoder_outputs = decoder_dense(decoder_h)
model = Model([encoder_inputs, decoder_inputs], decoder_outputs)
opt = Adam(lr=LEARNING_RATE, beta_1=0.9, beta_2=0.999, epsilon=1e-08)
model.compile(optimizer=opt, loss='categorical_crossentropy', metrics=['accuracy'])
model.fit([encoder_input_data, decoder_input_data], decoder_target_data, batch_size=BATCH_SIZE, epochs=EPOCHS, validation_split=0.2, verbose=0)

# Encoder Inference Model
encoder_model = Model(encoder_inputs, [encoder_state_h, encoder_state_c])

# Decoder Inference Model
decoder_state_input_h = Input(shape=(HIDDEN_SIZE,))
decoder_state_input_c = Input(shape=(HIDDEN_SIZE,))
decoder_h, state_h, state_c = decoder(decoder_inputs, initial_state=[decoder_state_input_h, decoder_state_input_c])
decoder_outputs = decoder_dense(decoder_h)
decoder_model = Model([decoder_inputs, decoder_state_input_h, decoder_state_input_c], [decoder_outputs, state_h, state_c])

for k in range(40, 50):
    test_data = encoder_input_data[k:k + 1]
    h, c = encoder_model.predict(test_data)
    target_seq = np.zeros((1, 1, CH_VOCAB_SIZE))
    target_seq[0, 0, ch2id['\t']] = 1
    outputs = []

    while True:
        output_tokens, h, c = decoder_model.predict([target_seq, h, c])
        sampled_token_index = np.argmax(output_tokens[0, -1, :])
        outputs.append(sampled_token_index)
        if sampled_token_index == ch2id['\n'] or len(outputs) > 20:
            break
        target_seq = np.zeros((1, 1, CH_VOCAB_SIZE))
        target_seq[0, 0, sampled_token_index] = 1

    print(en_data[k])
    print(''.join([id2ch[i] for i in outputs if i not in [ch2id['\t'], ch2id['\n']]])+'\n')

題目描述

任務(wù)描述

本關(guān)任務(wù):本關(guān)將使用訓(xùn)練好的翻譯模型,對英文句子進(jìn)行翻譯。

相關(guān)知識

為了完成本關(guān)任務(wù),你需要掌握: 1.如何建立推斷模型。 2.如何將模型的輸出整理成最終翻譯的結(jié)果

建立推斷模型

推斷模型的建立也分為兩部分,模型Encoder部分的結(jié)構(gòu)與訓(xùn)練時完全相同,因此只需要將原來的encoder部分封裝起來即可:

 
  1. # Encoder inference model
  2. encoder_model = Model(encoder_inputs, [encoder_state_h, encoder_state_c])

而Decoder部分,需要將每一步的輸出作為下一步的輸入:

en2id,高級人工智能,人工智能,機(jī)器翻譯,自然語言處理

因此需要對Decoder部分重新設(shè)計(jì)。 首先確定Decoder部分的輸入與輸出,輸入部分的大小應(yīng)與Encoder輸出的大小相同。

 
  1. decoder_state_input_h = Input(shape=(HIDDEN_SIZE,))
  2. decoder_state_input_c = Input(shape=(HIDDEN_SIZE,))

由于我們需要每一步的輸出作為下一步的輸入,因此需要將Decoder的隱藏狀態(tài)和輸出向量都存下來以備用。

 
  1. decoder_h, state_h, state_c = decoder(decoder_inputs, initial_state=[decoder_state_input_h, decoder_state_input_c])
  2. decoder_outputs = decoder_dense(decoder_h)

最后將Decoder的部分封裝:

 
  1. decoder_model = Model([decoder_inputs, decoder_state_input_h, decoder_state_input_c], [decoder_outputs, state_h, state_c])
輸出整理

Decoder部分的輸出是一個概率向量,它的每一位對應(yīng)著字典中相應(yīng)位置的概率,通常我們將輸出向量中概率值最高的一位,作為預(yù)測的結(jié)果:

 
  1. output_tokens, h, c= decoder_model.predict([target_seq, h, c])
  2. sampled_token_index = np.argmax(output_tokens[0, -1, :])

在獲得Encoder部分的輸出后,我們需要設(shè)計(jì)一個程序結(jié)構(gòu),使得Decoder部分將每一步的輸出送入下一步之中,并且當(dāng)輸出了終止符號或者超過最長輸出序列長度(本實(shí)訓(xùn)中設(shè)置為20)時,停止程序。

 
  1. while True:
  2. output_tokens, h, c= decoder_model.predict([target_seq, h, c])
  3. #...
  4. target_seq = np.zeros((1, 1, CH_VOCAB_SIZE))
  5. target_seq[0, 0, sampled_token_index] = 1
  6. if sampled_token_index == ch2id['\n'] or len(outputs) > 20: break
編程要求

根據(jù)提示,在右側(cè)編輯器補(bǔ)充代碼,搭建推斷模型,完成英語到法語的翻譯模型。 ####測試說明

平臺會對你編寫的代碼進(jìn)行測試: 輸入英文,輸出相應(yīng)的中文語句。 注意:本關(guān)需要運(yùn)行模型,因此評測可能較慢,請耐心等待1-2分鐘。


開始你的任務(wù)吧,祝你成功!

到了這里,關(guān)于廣西民族大學(xué)高級人工智能課程—頭歌實(shí)踐教學(xué)實(shí)踐平臺—機(jī)器翻譯--English to Chinese的文章就介紹完了。如果您還想了解更多內(nèi)容,請?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • 《人工智能安全》課程總體結(jié)構(gòu)

    《人工智能安全》課程總體結(jié)構(gòu)

    人工智能安全觀:人工智能安全問題、安全屬性、技術(shù)體系等基本問題進(jìn)行了歸納整理。 人工智能安全的主要數(shù)據(jù)處理方法,即非平衡數(shù)據(jù)分類、噪聲數(shù)據(jù)處理和小樣本學(xué)習(xí)。 人工智能技術(shù)賦能網(wǎng)絡(luò)空間安全攻擊與防御:三個典型實(shí)例及攻擊圖的角度介紹典型人工智能方法

    2024年02月03日
    瀏覽(30)
  • 人工智能大數(shù)據(jù)專業(yè)最好的大學(xué) - 人工智能大數(shù)據(jù)云計(jì)算三者關(guān)系

    人工智能大數(shù)據(jù)專業(yè)最好的大學(xué) - 人工智能大數(shù)據(jù)云計(jì)算三者關(guān)系

    了解大數(shù)據(jù)與人工智能的區(qū)別與聯(lián)系,首先我們從認(rèn)知和理解大數(shù)據(jù)和人工智能的概念開始。 1、大數(shù)據(jù) 大數(shù)據(jù)是物聯(lián)網(wǎng)、Web系統(tǒng)和信息系統(tǒng)發(fā)展的綜合結(jié)果,其中物聯(lián)網(wǎng)的影響最大,所以大數(shù)據(jù)也可以說是物聯(lián)網(wǎng)發(fā)展的必然結(jié)果。大數(shù)據(jù)相關(guān)的技術(shù)緊緊圍繞數(shù)據(jù)展開,包括

    2023年04月21日
    瀏覽(24)
  • 國外頂尖高校、企業(yè)分享人工智能自學(xué)課程英文原課程分享

    國外頂尖高校、企業(yè)分享人工智能自學(xué)課程英文原課程分享

    人工智能無疑已經(jīng)是當(dāng)下最火熱的方向,在很多領(lǐng)域已經(jīng)融入我們生活,ChatGPT,Midjourney只是其中一個細(xì)分熱點(diǎn)。目前這個領(lǐng)域,雖說國內(nèi)也有不少課程,但是大部分源頭還得從英文資料中找。如何學(xué)到最新最強(qiáng)得人工智能技能,我們整理了一些高質(zhì)量的、評價極高的免費(fèi)課程

    2024年02月06日
    瀏覽(30)
  • 高級人工智能之群體智能:粒子群算法

    粒子群優(yōu)化算法(Particle Swarm Optimization, PSO)是一種基于群體協(xié)作和信息共享的優(yōu)化技術(shù)。它由Kennedy和Eberhart于1995年提出,靈感來源于鳥群和魚群的社會行為。PSO是解決連續(xù)空間優(yōu)化問題的有效方法,特別適合于多峰和高維問題。以下是PSO的基本思想和工作原理: 1.1基本思想

    2024年01月18日
    瀏覽(74)
  • 【人工智能課程】計(jì)算機(jī)科學(xué)博士作業(yè)三

    【人工智能課程】計(jì)算機(jī)科學(xué)博士作業(yè)三

    來源:李宏毅2022課程第10課的作業(yè) 圖片攻擊是指故意對數(shù)字圖像進(jìn)行修改,以使機(jī)器學(xué)習(xí)模型產(chǎn)生錯誤的輸出或者產(chǎn)生預(yù)期之外的結(jié)果。這種攻擊是通過將微小的、通常對人類難以察覺的擾動應(yīng)用于輸入圖像來實(shí)現(xiàn)的。圖片攻擊是對深度學(xué)習(xí)系統(tǒng)中的魯棒性和安全性的一種測

    2024年03月16日
    瀏覽(34)
  • 【人工智能課程】計(jì)算機(jī)科學(xué)博士作業(yè)一

    【人工智能課程】計(jì)算機(jī)科學(xué)博士作業(yè)一

    模型擬合:用深度神經(jīng)網(wǎng)絡(luò)擬合一個回歸模型。從各種角度對其改進(jìn),評價指標(biāo)為MSE。 掌握技巧: 熟悉并掌握深度學(xué)習(xí)模型訓(xùn)練的基本技巧。 提高PyTorch的使用熟練度。 掌握改進(jìn)深度學(xué)習(xí)的方法。 數(shù)據(jù)集下載: Kaggle下載數(shù)據(jù): https://www.kaggle.com/competitions/ml2022spring-hw1 百度云

    2024年01月23日
    瀏覽(41)
  • 中山大學(xué)人工智能學(xué)院——考研上岸經(jīng)驗(yàn)貼

    中山大學(xué)人工智能學(xué)院——考研上岸經(jīng)驗(yàn)貼

    首先是初試成績,中山大學(xué)在2.21號就公布了成績和 排名 ,這點(diǎn)很不錯,有很多學(xué)校只公布成績而沒有排名。我的初試總分386,總排名第二,各個科目還是比較平均的: 要說的是,2023年,人工智能學(xué)院專碩本來只招3個人,后來在復(fù)試前擴(kuò)了4個名額,所以最后專碩錄取7個名

    2024年02月08日
    瀏覽(43)
  • 谷歌發(fā)布一個免費(fèi)的生成式人工智能課程

    谷歌發(fā)布一個免費(fèi)的生成式人工智能課程

    在過去幾周,我們看到的都是AI將如何改變生活,無論是ChatGPT的文本生成,還是SD,Midjourney 的圖像生成,這些AI的特點(diǎn)就是都是生成式的AI。而幾天前,谷歌推出了一個生成式人工智能學(xué)習(xí)課程,課程涵蓋了生成式人工智能入門、大型語言模型、圖像生成等主題。 除了課程外

    2024年02月08日
    瀏覽(23)
  • 人工智能與機(jī)器學(xué)習(xí)課程大作業(yè)(二、函數(shù)逼近)

    人工智能與機(jī)器學(xué)習(xí)課程大作業(yè)(二、函數(shù)逼近)

    本文為人工智能與機(jī)器學(xué)習(xí)課程大作業(yè)第二部分(二、函數(shù)逼近) 本文僅作學(xué)習(xí)參考使用! ?其他章節(jié)跳轉(zhuǎn): 一、知識工程基礎(chǔ) 二、函數(shù)逼近 三、模糊邏輯 四、函數(shù)優(yōu)化 二、函數(shù)逼近 2.1 BP網(wǎng)絡(luò) 2.1.1 BP神經(jīng)網(wǎng)絡(luò)原理 2.1.2 基于BP神經(jīng)網(wǎng)絡(luò)的非線性函數(shù)逼近 2.2 改變BP網(wǎng)絡(luò)模型

    2024年02月03日
    瀏覽(26)
  • 人工智能課程設(shè)計(jì)畢業(yè)設(shè)計(jì)——基于機(jī)器學(xué)習(xí)的貸款違約預(yù)測

    人工智能課程設(shè)計(jì)畢業(yè)設(shè)計(jì)——基于機(jī)器學(xué)習(xí)的貸款違約預(yù)測

    摘 ?要 隨著人們對于貸款的需求量不斷增加以及我國債券市場和信貸市場違約事件頻發(fā),商業(yè)銀行不良資產(chǎn)率與用戶個人貸款違約風(fēng)險成為了政府和銀行業(yè)關(guān)心的核心問題,而對信用貸款違約風(fēng)險進(jìn)行有效評估和測度也成為了商業(yè)銀行提高其經(jīng)營管理水平的核心要務(wù)。 本小

    2024年04月16日
    瀏覽(92)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包