個(gè)人理解
TensorFlow是集齊了很多深度學(xué)習(xí)相關(guān)的算法的框架,你可以利用他搭建自己的神經(jīng)網(wǎng)絡(luò)模型。對(duì)于開發(fā)者來說,告訴TensorFlow一批特征數(shù)據(jù)和最終的答案數(shù)據(jù),讓其通過一個(gè)神經(jīng)網(wǎng)絡(luò)模型進(jìn)行訓(xùn)練,最終輸出模型。模型將應(yīng)用于應(yīng)用端,給他一個(gè)輸入特征值,就能預(yù)測(cè)出一個(gè)答案。
神經(jīng)網(wǎng)絡(luò)模型的輸入是一組特征,中間經(jīng)過一段黑盒一層層的計(jì)算處理,輸出一個(gè)預(yù)測(cè)值,整個(gè)模型的數(shù)據(jù)處理流程大概如圖
概念
1、數(shù)據(jù)預(yù)處理
在很多特征數(shù)據(jù)中,數(shù)據(jù)會(huì)有不固定的數(shù)值,多個(gè)特征之間的值相差非常大,此時(shí)就需要對(duì)數(shù)據(jù)進(jìn)行歸一化,讓數(shù)據(jù)等比縮小成為較小的浮點(diǎn)數(shù)。具體如圖
2、模型層+激活函數(shù)
- 模型層:是由神經(jīng)元組成的基本組件,可以看作是網(wǎng)絡(luò)的構(gòu)建模塊。模型層會(huì)設(shè)計(jì)一種算法,每個(gè)模型層接收一組輸入并通過算法產(chǎn)生一組輸出,這些輸出通常作為下一層的輸入
- 激活函數(shù):激活函數(shù)是依附在網(wǎng)絡(luò)模型層的結(jié)尾,它類似于人腦中的“開關(guān)”,當(dāng)神經(jīng)元接收到輸入時(shí),激活函數(shù)會(huì)根據(jù)輸入的大小是否達(dá)到了一定的閾值,決定是否打開開關(guān)
3、損失函數(shù)
- 損失函數(shù):是用來衡量模型預(yù)測(cè)結(jié)果與實(shí)際結(jié)果之間的差異,在訓(xùn)練模型過程中,我們會(huì)反復(fù)計(jì)算損失函數(shù)并對(duì)模型參數(shù)進(jìn)行調(diào)整,直到損失函數(shù)達(dá)到最小值為止
可以把損失函數(shù)比作是一位老師,他會(huì)根據(jù)學(xué)生的答案與正確答案之間的差距來評(píng)價(jià)學(xué)生的表現(xiàn)。如果學(xué)生的答案與正確答案一致,那么損失函數(shù)會(huì)給予較低的評(píng)價(jià),反之則會(huì)給予較高的評(píng)價(jià)。在機(jī)器學(xué)習(xí)中,我們希望通過最小化損失函數(shù)來讓模型的預(yù)測(cè)結(jié)果更加接近實(shí)際結(jié)果,從而提高模型的準(zhǔn)確性。
4、正則化懲罰項(xiàng)
- 正則化懲罰項(xiàng):是在損失函數(shù)中添加的一項(xiàng)約束值,用于約束模型的復(fù)雜度。它可以幫助我們避免過擬合的問題
可以把正則化懲罰項(xiàng)比作是一位教練,他會(huì)要求運(yùn)動(dòng)員在訓(xùn)練中不僅要達(dá)到一定的成績(jī),還要保持身體的健康和穩(wěn)定。在機(jī)器學(xué)習(xí)中,我們希望模型在訓(xùn)練時(shí)不僅要在訓(xùn)練集上取得好的效果,還要在比賽數(shù)據(jù)中表現(xiàn)良好,并且不過度擬合訓(xùn)練集的噪聲或異常點(diǎn)。
5、優(yōu)化器
- 優(yōu)化器:是一種用于更新模型參數(shù)的算法。它的目標(biāo)是通過最小化損失函數(shù)來訓(xùn)練模型,并使模型能夠更好地?cái)M合訓(xùn)練數(shù)據(jù)和泛化到新數(shù)據(jù)
可以把優(yōu)化器比作是一位導(dǎo)游,他會(huì)帶著我們找到一條最短的路徑,使得我們可以更快地到達(dá)目的地。在機(jī)器學(xué)習(xí)中,優(yōu)化器會(huì)根據(jù)損失函數(shù)的梯度信息來更新模型參數(shù),從而使模型能夠朝著更優(yōu)的方向前進(jìn)。
神經(jīng)網(wǎng)絡(luò)算法
1、卷積神經(jīng)網(wǎng)絡(luò)
- 卷積神經(jīng)網(wǎng)絡(luò):簡(jiǎn)稱CNN,一種深度學(xué)習(xí)算法,它主要用于處理圖像、語音和文本等數(shù)據(jù)。這種算法也是模型層的一層,期間會(huì)經(jīng)過卷積->池化的過程,池化層通常與卷積層交替使用,構(gòu)成卷積神經(jīng)網(wǎng)絡(luò)的基本結(jié)構(gòu)。
- 卷積操作:就是將一個(gè)小的矩陣(稱為卷積核或過濾器)在輸入數(shù)據(jù)上滑動(dòng),計(jì)算卷積核和輸入數(shù)據(jù)對(duì)應(yīng)位置的乘積,然后將所有乘積相加得到一個(gè)輸出值。通過在不同位置應(yīng)用不同的卷積核,CNN可以提取不同的特征,例如邊緣、紋理、形狀等。
- 池化操作:用于減少特征圖的尺寸和數(shù)量,從而降低模型的計(jì)算復(fù)雜度和內(nèi)存占用,同時(shí)可以增加模型的魯棒性和泛化能力。它的作用類似于壓縮操作,將卷積后過大的尺寸進(jìn)行壓縮,可以減少模型的參數(shù)數(shù)量和過擬合的風(fēng)險(xiǎn)。
2、遞歸神經(jīng)網(wǎng)絡(luò)
- 遞歸神經(jīng)網(wǎng)絡(luò):簡(jiǎn)稱RNN,一種深度學(xué)習(xí)算法,它主要用于處理序列數(shù)據(jù),例如文本、語音、時(shí)間序列等。相比于傳統(tǒng)的前饋神經(jīng)網(wǎng)絡(luò),RNN在處理序列數(shù)據(jù)時(shí)具有更好的效果。RNN的特點(diǎn)是可以保存之前的狀態(tài),并將其作為下一個(gè)時(shí)間步的輸入,形成一個(gè)循環(huán)的網(wǎng)絡(luò)結(jié)構(gòu)。這樣可以對(duì)序列數(shù)據(jù)進(jìn)行建模,捕捉到序列中的時(shí)序關(guān)系和長(zhǎng)期依賴關(guān)系。
- 優(yōu)點(diǎn):下一次計(jì)算會(huì)結(jié)合上一次的計(jì)算結(jié)果,相當(dāng)于可以處理有序的數(shù)據(jù)。
- 缺點(diǎn):過多的前面的數(shù)據(jù)會(huì)導(dǎo)致計(jì)算越往后會(huì)把前面的值考慮進(jìn)來,有點(diǎn)過長(zhǎng)時(shí)間記憶的感覺。
3、長(zhǎng)短時(shí)記憶網(wǎng)絡(luò)
- 長(zhǎng)短時(shí)記憶網(wǎng)絡(luò):簡(jiǎn)稱LSTM,它是一種特殊的遞歸神經(jīng)網(wǎng)絡(luò),彌補(bǔ)了RNN的缺點(diǎn),它可以在處理序列數(shù)據(jù)時(shí)更好地捕捉長(zhǎng)期依賴關(guān)系,并防止梯度消失或爆炸等問題。LSTM的核心是增加一個(gè)遺忘參數(shù)C,在每一次遞歸中,它可以選擇性地更新、保留或丟棄記憶單元中的信息。
文本概念
1、詞向量
- 詞向量是一種表示詞語的數(shù)學(xué)方式,它將每個(gè)詞語映射到一個(gè)向量上,這個(gè)向量包含了該詞語的語義信息。
2、CBOW
- CBOW是一種淺層神經(jīng)網(wǎng)絡(luò)模型,它通常用于訓(xùn)練詞向量。CBOW模型的輸入是上下文中的多個(gè)詞語,輸出是當(dāng)前詞語出現(xiàn)的概率分布
3、Skip-gram模型文章來源:http://www.zghlxwxcb.cn/news/detail-475187.html
- Skip-gram模型是一種基于神經(jīng)網(wǎng)絡(luò)的詞向量訓(xùn)練算法,它通常用于生成高質(zhì)量的詞向量。Skip-gram模型的主要思想是通過當(dāng)前詞語來預(yù)測(cè)上下文中的其他詞語。
文章來源地址http://www.zghlxwxcb.cn/news/detail-475187.html
開發(fā)環(huán)境搭建
- 安裝Anaconda:https://www.anaconda.com/
- Python全家桶,安裝完成后,在開始菜單中找到
Jupyter Notebook
進(jìn)行開發(fā)
- 安裝TensorFlow
- 通過開始菜單中找到
Anaconda Prompt
,并打開 - 輸入
pip install tensorflow
進(jìn)行安裝TensorFlow
- 打開
Jupyter Notebook
,新建NoteBook,輸入代碼并運(yùn)行查看TensorFlow版本
import tensorflow as tf
import numpy as np
tf.__version__
到了這里,關(guān)于TensorFlow入門知識(shí)的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!