国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

AI入門之深度學(xué)習(xí):基本概念篇

這篇具有很好參考價(jià)值的文章主要介紹了AI入門之深度學(xué)習(xí):基本概念篇。希望對(duì)大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請(qǐng)大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問。

1、什么是深度學(xué)習(xí)

1.1 機(jī)器學(xué)習(xí)?

AI入門之深度學(xué)習(xí):基本概念篇,深度學(xué)習(xí)

圖1:計(jì)算機(jī)有效工作的常用方法:程序員編寫規(guī)則(程序),計(jì)算機(jī)遵循這些規(guī)則將輸入數(shù)據(jù)轉(zhuǎn)換為適當(dāng)?shù)拇鸢?。這一方法被稱為符號(hào)主義人工智能,適合用來解決定義明確的邏輯問題,比如早期的PC小游戲:五子棋等,但是像圖像分類、語音識(shí)別或自然語言翻譯等更復(fù)雜、更模糊的任務(wù),難以給出明確的規(guī)則。

圖2:機(jī)器學(xué)習(xí)把這個(gè)過程反了過來:機(jī)器讀取輸入數(shù)據(jù)和相應(yīng)的答案,然后找出應(yīng)有的規(guī)則。機(jī)器學(xué)習(xí)系統(tǒng)是訓(xùn)練出來的,而不是明確的用程序編寫出來。舉個(gè)例子,如果你想為度假照片添加標(biāo)簽,并希望將這項(xiàng)任務(wù)自動(dòng)化,那么你可以將許多人工打好標(biāo)簽的照片輸人機(jī)器學(xué)習(xí)系統(tǒng),系統(tǒng)將學(xué)會(huì)把特定照片與特定標(biāo)簽聯(lián)系在一起的統(tǒng)計(jì)規(guī)則。

定義:機(jī)器學(xué)習(xí)就是在預(yù)定義的可能性空間中,利用反饋信號(hào)的指引,在輸入數(shù)據(jù)中尋找有用的表示和規(guī)則。?

AI入門之深度學(xué)習(xí):基本概念篇,深度學(xué)習(xí)

1.2 深度學(xué)習(xí)

深度學(xué)習(xí)是機(jī)器學(xué)習(xí)的一個(gè)分支領(lǐng)域,強(qiáng)調(diào)從一系列連續(xù)的表示層中學(xué)習(xí)?,F(xiàn)代的深度學(xué)習(xí)模型通常包含數(shù)十個(gè)甚至上百個(gè)連續(xù)的表示層,它們都是從訓(xùn)練數(shù)據(jù)中自動(dòng)學(xué)習(xí)而來。與之對(duì)應(yīng),機(jī)器學(xué)習(xí)有時(shí)也被稱為淺層學(xué)習(xí)。

在深度學(xué)習(xí)中,這些分層表示是通過叫作神經(jīng)網(wǎng)絡(luò)的模型學(xué)習(xí)得到的。深度神經(jīng)網(wǎng)絡(luò)可以看作多級(jí)信息蒸餾過程:信息穿過連續(xù)的過濾器,其純度越來越高。

技術(shù)定義:一種多層的學(xué)習(xí)數(shù)據(jù)表示的方法。?

AI入門之深度學(xué)習(xí):基本概念篇,深度學(xué)習(xí)

??1.3 深度學(xué)習(xí)工作原理

a. 對(duì)神經(jīng)網(wǎng)絡(luò)的權(quán)重(有時(shí)也被稱為該層的參數(shù))進(jìn)行隨機(jī)賦值

b. 經(jīng)過一系列隨機(jī)變換,得到預(yù)測(cè)值Y'

c. 通過損失函數(shù)(有時(shí)也被稱為目標(biāo)函數(shù)或代價(jià)函數(shù)),得到預(yù)測(cè)值Y'與真實(shí)值Y之間的損失值

d. 將損失值作為反饋信號(hào),通過優(yōu)化器來對(duì)權(quán)重值進(jìn)行微調(diào),以降低當(dāng)前示例對(duì)應(yīng)的損失值

e. 循環(huán)重復(fù)足夠做的次數(shù)(b-d),得到具有最小損失值的神經(jīng)網(wǎng)絡(luò),就是一個(gè)訓(xùn)練好的神經(jīng)網(wǎng)絡(luò)?

AI入門之深度學(xué)習(xí):基本概念篇,深度學(xué)習(xí)

2、神經(jīng)網(wǎng)絡(luò)數(shù)學(xué)基礎(chǔ)

2.1 神經(jīng)網(wǎng)絡(luò)的數(shù)據(jù)表示

目前所有機(jī)器學(xué)習(xí)系統(tǒng)都使用張量(tensor)作為基本數(shù)據(jù)結(jié)構(gòu),張量對(duì)這個(gè)領(lǐng)域非常重要,TensorFlow就是以它來命名。

張量這一概念的核心在于,它是一個(gè)數(shù)據(jù)容器。它包含的數(shù)據(jù)通常是數(shù)值數(shù)據(jù),因此它是一個(gè)數(shù)字容器。你可能對(duì)矩陣很熟悉,它是2階張量。張量是矩陣向任意維度的推廣,張量的維度通常叫做軸。

張量是由以下3個(gè)關(guān)鍵屬性來定義的。

?軸:軸的個(gè)數(shù)

?形狀:表示張量沿每個(gè)軸的維度大?。ㄔ貍€(gè)數(shù))

?數(shù)據(jù)類型(dtype):數(shù)據(jù)的類型,可以是float16、float32、float64、unit8、string等

2.1.1 標(biāo)量(0階張量)

僅包含一個(gè)數(shù)字的張量叫做標(biāo)量(SCALAR),也叫0階張量或0維張量。

下面是一個(gè)NumPy標(biāo)量

import numpy as np
x = np.array(3)
x.ndim // 軸:0, 形狀:()

2.1.2 向量(1階張量)

數(shù)字組成的數(shù)組叫做向量(VECTOR),也叫1階張量或1維張量。

下面是一個(gè)NumPy向量

x = np.array([4, 1, 5])
x.ndim // 軸:1, 形狀:(3,)

這個(gè)向量包含3個(gè)元素,所以也叫3維向量。不要把3維向量和3維張量混為一談,3維向量只有一個(gè)軸,沿著這個(gè)軸有3個(gè)維度。

2.1.3 矩陣(2階張量)

向量組成的數(shù)組叫做矩陣(MATRIX),也2階張量或2維張量。矩陣有2個(gè)軸:行和列。

下面是一個(gè)NumPy矩陣

x = np.array([
    [4, 6, 7],
    [7, 3, 9],
    [1, 2, 5]
])
x.ndim // 軸:2, 形狀:(3, 3)

現(xiàn)實(shí)世界中的向量實(shí)例:

向量數(shù)據(jù):形狀為(samples, features)的2階張量,每個(gè)樣本都是一個(gè)數(shù)值(特征)向量,向量數(shù)據(jù)庫(kù)存儲(chǔ)的基本單位。

2.1.4 3階張量與更高階的張量

將多個(gè)矩陣打包成一個(gè)新的數(shù)組,就可以得到一個(gè)3階張量(或3維張量)

下面是一個(gè)3階NumPy張量

x = np.array([
    [[4, 6, 7],
    [7, 3, 9],
    [1, 2, 5]],
    [[5, 7, 1],
    [9, 4, 3],
    [3, 5, 2]]
])
x.ndim // 軸:3, 形狀:(2, 3, 3)

將多個(gè)3階張量打包成一個(gè)數(shù)組,就可以創(chuàng)建一個(gè)4階張量。

現(xiàn)實(shí)世界中的實(shí)例:

時(shí)間序列數(shù)據(jù)或序列數(shù)據(jù):形狀為(samples, timesteps, features)的3階張量,每個(gè)樣本都是特征向量組成的序列(序列長(zhǎng)度為timesteps)

圖像數(shù)據(jù):形狀為(samples, height, width, channels)的4階張量,每個(gè)樣本都是一個(gè)二維像素網(wǎng)格,每個(gè)像素則由一個(gè)“通道”(channel)向量表示。

視頻數(shù)據(jù):形狀為(samples, frames, height, width, channels)的5階張量,每個(gè)樣本都是由圖像組成的序列(序列長(zhǎng)度為frames)。

AI入門之深度學(xué)習(xí):基本概念篇,深度學(xué)習(xí)

2.2 神經(jīng)網(wǎng)絡(luò)的“齒輪”:張量運(yùn)算

所有計(jì)算機(jī)程序最終都可以簡(jiǎn)化為對(duì)二進(jìn)制輸入的一些二進(jìn)制運(yùn)算,與此類似,深度神經(jīng)網(wǎng)絡(luò)學(xué)到的所有變換也都可以簡(jiǎn)化為對(duì)數(shù)值數(shù)據(jù)張量的一些張量運(yùn)算或張量函數(shù)。

2.2.1 逐元素運(yùn)算

逐元素運(yùn)算,即該運(yùn)算分別應(yīng)用于張量的每個(gè)元素。參與運(yùn)算的張量的形狀必須相同。

import numpy as np
z = x + y // 逐元素加法
z = x - y // 逐元素加法
z = x * y // 逐元素乘積
z = x / y // 逐元素除法
z = np.maximum(z, 0.) //逐元素relu,大于0輸出等于輸入,小于0則輸出為0

rule運(yùn)算是一種常用的激活函數(shù),rule(x)就是max(x, 0):如果輸入x大于0,則輸出等于輸入值;如果輸入x小于等于0,則輸出為0。

2.2.2 張量積

張量積或點(diǎn)積是最常見且最有用的張量運(yùn)算之一。注意,不要將其與逐元素乘積弄混。

在NumPy中使用np.dot函數(shù)來實(shí)現(xiàn)張量積:z = np.dot(x, y)

數(shù)學(xué)符號(hào)中的(·)表示點(diǎn)積運(yùn)算:z = x · y

?兩個(gè)向量的點(diǎn)積是一個(gè)標(biāo)量,而且只有元素個(gè)數(shù)相同的向量才能進(jìn)行點(diǎn)積運(yùn)算。

?一個(gè)矩陣x和一個(gè)向量y做點(diǎn)積運(yùn)算,其返回值是一個(gè)向量,其中每個(gè)元素是y和x每一行的點(diǎn)積。

?對(duì)于矩陣x和y,當(dāng)且僅當(dāng)x.shape[1] == y.shape[0]時(shí),才可以計(jì)算點(diǎn)積,其結(jié)果是一個(gè)形狀為(x.shape[0], y.shape[1])的矩陣,其元素是x的行與y的列之間的向量點(diǎn)積。

?

AI入門之深度學(xué)習(xí):基本概念篇,深度學(xué)習(xí)

2.2.3 張量變形

張量變形是指重新排列張量的行和列,以得到想要的形狀。變形后,張量的元素個(gè)數(shù)與初始張量相同。

import numpy as np
x = np.array([[0, 1],
              [2, 3]
              [4, 5]])
x.shape //(3, 2)
x = x.reshape((6, 1))
>>> x 
array([[0],
       [1],
       [2],
       [3],
       [4],
       [5]])
x = x.reshape(2, 3)
>>> x
array([[0, 1, 2],
       [3, 4, 5]])

常見的一種特殊的張量變形是轉(zhuǎn)置。矩陣轉(zhuǎn)置是指將矩陣的行和列互換,即x[i, :]變?yōu)閤[:, i]

x = np.zeros((300, 20)) //創(chuàng)建一個(gè)形狀為(300, 20)的零矩陣
x = np.transpose(x)
>>> x.shape
(20, 300)

2.2.4 張量運(yùn)算的幾何解釋

平移、旋轉(zhuǎn)、縮放、傾斜等基本的幾何操作都可以表示為張量運(yùn)算。?

AI入門之深度學(xué)習(xí):基本概念篇,深度學(xué)習(xí)

??線性變換:與任意矩陣做點(diǎn)積運(yùn)算,都可以實(shí)現(xiàn)一次線性變換??s放和旋轉(zhuǎn),都屬于線性變換。?仿射變換:一次線性變換與一次平移的組合。?帶有rule激活函數(shù)的仿射變換:多次仿射變換相當(dāng)于一次仿射變換,因此一個(gè)完全沒有激活函數(shù)的多層神經(jīng)網(wǎng)絡(luò)等同于一層,這種“深度”神經(jīng)網(wǎng)絡(luò)其實(shí)就是一個(gè)線性模型。?

AI入門之深度學(xué)習(xí):基本概念篇,深度學(xué)習(xí)

??2.2.5 深度學(xué)習(xí)的幾何解釋

神經(jīng)網(wǎng)絡(luò)完全由一系列張量運(yùn)算組成,而這些張量運(yùn)算只是輸入數(shù)據(jù)的簡(jiǎn)單幾何變換。因此,你可以將神經(jīng)網(wǎng)絡(luò)解釋為高維空間中非常復(fù)雜的幾何變換,這種變換通過一系列簡(jiǎn)單步驟來實(shí)現(xiàn)。

機(jī)器學(xué)習(xí)的目的:為高維空間中復(fù)雜、高度折疊的數(shù)據(jù)流行(一個(gè)連續(xù)的表面)找到簡(jiǎn)潔的表示。深度學(xué)習(xí)可以將復(fù)雜的幾何變換逐步分解為一系列基本變換。

2.3 神經(jīng)網(wǎng)絡(luò)的“引擎”:基于梯度的優(yōu)化

步驟a看起來很簡(jiǎn)單,只是輸入/輸出(I/O)的代碼。步驟b、c僅僅是應(yīng)用了一些張量運(yùn)算。難點(diǎn)在于步驟d:更新模型權(quán)重。對(duì)于模型的某個(gè)權(quán)重系數(shù),你怎么知道這個(gè)系數(shù)應(yīng)該增大還是減小,以及變化多少?

一種簡(jiǎn)單的解決方案是,保持模型的其他權(quán)重不變,只考慮一個(gè)標(biāo)量系數(shù),讓其嘗試不同的取值。對(duì)于模型的所有系數(shù)都要重復(fù)這一過程。但這種方法非常低效,因?yàn)橄禂?shù)有很多(通常有上千個(gè),甚至多達(dá)百萬個(gè))。幸運(yùn)的是,有一種更好的方法:梯度下降法。

2.3.1 導(dǎo)數(shù)

假設(shè)有一個(gè)光滑連續(xù)的函數(shù)f(x) = y,由于函數(shù)是連續(xù)的,因此x的微小變化只會(huì)導(dǎo)致y的微小變化。因此在某個(gè)點(diǎn)p附近,如果x變化足夠小,就可以將f近似看作斜率為a的線性函數(shù)。

斜率a被稱為f在p點(diǎn)的導(dǎo)數(shù)。如果a < 0,說明x在p點(diǎn)附近的微增將導(dǎo)致f(x)減小;如果a > 0,那么x在p點(diǎn)附近的微增將導(dǎo)致f(x)增大;?

AI入門之深度學(xué)習(xí):基本概念篇,深度學(xué)習(xí)

2.3.2 梯度

導(dǎo)數(shù)這一概念可以應(yīng)用于任何函數(shù),只要函數(shù)所對(duì)應(yīng)的表面是連續(xù)且光滑的。張量運(yùn)算的導(dǎo)數(shù)叫做梯度。對(duì)于一個(gè)標(biāo)量函數(shù)來說,導(dǎo)數(shù)是表示函數(shù)曲線的局部斜率,張量函數(shù)的梯度表示該函數(shù)所對(duì)應(yīng)多維表面的曲率。

舉例來說,物體位置相對(duì)于時(shí)間的梯度是這個(gè)物體的速度,二階梯度則是它的加速度。

2.3.3 隨機(jī)梯度下降

步驟d中更新模型權(quán)重,假設(shè)我們要處理的是一個(gè)可微函數(shù),可以計(jì)算出它的梯度,沿著梯度的反方向更新權(quán)重,每次損失都會(huì)減小一點(diǎn)。

(1)抽取訓(xùn)練樣本x和對(duì)應(yīng)目標(biāo)y_true組成的一個(gè)數(shù)據(jù)批量

(2)在x上運(yùn)行模型,得到預(yù)測(cè)值y_pred(前向傳播)

(3)計(jì)算模型在這批數(shù)據(jù)上的損失值

(4)計(jì)算損失相對(duì)于模型參數(shù)的梯度(反向傳播)

(5)將參數(shù)沿著梯度的反方向移動(dòng)一小步,從而減小損失值

這個(gè)方法叫做小批量隨機(jī)梯度下降(SGD),隨機(jī)是指每批數(shù)據(jù)都是隨機(jī)抽取的;如果每次迭代都在所有數(shù)據(jù)上運(yùn)行,這叫做批量梯度下降,但是計(jì)算成本高得多,折中辦法是選擇合理的小批量大小。

神經(jīng)網(wǎng)絡(luò)的每一個(gè)權(quán)重系數(shù)都是空間中的一個(gè)自由維度,為了對(duì)損失表面有更直觀的認(rèn)識(shí),可以將沿著二維損失表面的梯度下降可視化,但你不可能將神經(jīng)網(wǎng)絡(luò)的真實(shí)訓(xùn)練過程可視化,因?yàn)闊o法用人類可以理解的方式來可視化1 000 000維空間。這些低維表示中建立的直覺,實(shí)踐中不一定總是準(zhǔn)確的。?

AI入門之深度學(xué)習(xí):基本概念篇,深度學(xué)習(xí)

??2.3.4 鏈?zhǔn)角髮?dǎo):反向傳播

在前面的算法中,我們假設(shè)函數(shù)是可微(可以被求導(dǎo))的,所以很容易計(jì)算其梯度。但是在實(shí)踐中如何計(jì)算復(fù)雜表達(dá)式的梯度?這時(shí)就需要用到反向傳播算法。

(1)鏈?zhǔn)椒▌t

利用簡(jiǎn)單運(yùn)算(如加法、rule或張量積)的導(dǎo)數(shù),可以輕松計(jì)算出這些基本運(yùn)算的任意復(fù)雜組合的梯度。鏈?zhǔn)椒▌t規(guī)定:grad(y, x) == grad(y, x1) * grad(x1, x),因此只要知道f和g的導(dǎo)數(shù),就可以求出fg的導(dǎo)數(shù)。如果添加更多的中間函數(shù),看起來就像是一條鏈。將鏈?zhǔn)椒▌t應(yīng)用于神經(jīng)網(wǎng)絡(luò)梯度值的計(jì)算,就得到了一種叫做反向傳播的算法。

(2)用計(jì)算圖進(jìn)行自動(dòng)微分

思考反向傳播的一種有用方法是利用計(jì)算圖。計(jì)算圖是TensorFlow和深度學(xué)習(xí)革命的核心數(shù)據(jù)結(jié)構(gòu)。它是一種由運(yùn)算構(gòu)成的有向無環(huán)圖。如今,現(xiàn)代框架比如TensorFlow,支持基于計(jì)算圖的自動(dòng)微分,可以計(jì)算任意可維張量運(yùn)算組合的梯度,只需寫出前向傳播,而無需做任何額外工作。

GradientTape是一個(gè)API,讓你可以充分利用TensorFlow強(qiáng)大的自動(dòng)微分能力。它是一個(gè)Python作用域,能夠以計(jì)算圖(tape)的形式記錄在其中運(yùn)行的張量運(yùn)算。

3、實(shí)踐:使用Python的Kears庫(kù)識(shí)別手寫數(shù)字

在這個(gè)例子中,我們要解決的問題是,將手寫數(shù)字的灰度圖像(28像素 * 28像素)劃分到10個(gè)類別(從0到9)中,我們將使用MNIST數(shù)據(jù)集,它是機(jī)器學(xué)習(xí)領(lǐng)域的一個(gè)經(jīng)典數(shù)據(jù)集。你可以將解決MNIST問題看作深度學(xué)習(xí)的“Hello World”。

3.1 加載Kears中的MNIST數(shù)據(jù)集

from tensorflow.keras.datasets import mnist
(train_images, train_labels), (test_images, test_labels) = mnist.load_data()

train_images, train_labels組成了訓(xùn)練集,模型將從這些數(shù)據(jù)中進(jìn)行學(xué)習(xí)。我們會(huì)在測(cè)試集test_images, test_labels上對(duì)模型進(jìn)行測(cè)試。

查看數(shù)據(jù)集形狀:

>>> train_images.shape
(60000, 28, 28) //訓(xùn)練集為60000張圖片,每張圖片中28*28像素點(diǎn)數(shù)據(jù)
>>> test_images.shape
(10000, 28, 28) //測(cè)試集為10000張圖片,每張圖片中28*28像素點(diǎn)數(shù)據(jù)

3.2 神經(jīng)網(wǎng)絡(luò)架構(gòu)模型

from tensorflow import keras
from tensorflow.keras import layers
model = keras.Sequential([
    layers.Dense(512, activation="relu"),
    layers.Dense(10, activation="softmax")
])

神經(jīng)網(wǎng)絡(luò)的核心組件是層(layer),大多數(shù)深度學(xué)習(xí)工作設(shè)計(jì)將簡(jiǎn)單的層鏈接起來,從而實(shí)現(xiàn)漸進(jìn)式的數(shù)據(jù)蒸餾,從輸入數(shù)據(jù)中提取表示。

本例中的模型包含2個(gè)Dense層,每層都對(duì)輸入數(shù)據(jù)做一些簡(jiǎn)單的張量運(yùn)算(relu、softmax),這些運(yùn)算都涉及權(quán)重張量,權(quán)重張量是該層的屬性或參數(shù),里面保存了模型所學(xué)到的知識(shí)。

3.3 模型編譯

model.compile(
    optimizer="rmsprop",
    loss="sparse_categorical_crossentropy",
    metrics=["accuracy"]
)

這里指定了編譯的3個(gè)步驟:優(yōu)化器、損失函數(shù)以及監(jiān)控的指標(biāo)。其中

sparse_categorical_crossentropy是損失函數(shù),用于學(xué)習(xí)權(quán)重張量的反饋信號(hào);使用rmsprop優(yōu)化器,通過小批量隨機(jī)梯度下降(SGD)降低損失值。

3.4 準(zhǔn)備圖像數(shù)據(jù)

train_images = train_images.reshape((60000, 28*28))
train_images = train_images.astype("float32") / 255
test_images = test_images.reshape((10000, 28*28))
test_images = test_images.astype("float32") / 255

在開始訓(xùn)練之前,我們先對(duì)數(shù)據(jù)進(jìn)行預(yù)處理,將其變化為模型要求的形狀,并縮放到所有值都在[0, 1]區(qū)間。

3.5 擬合模型

model.fit(train_images, train_labels, epochs=5, batch_size=128)

在Keras中通過調(diào)用模型的fit方法來完成訓(xùn)練數(shù)據(jù)上的擬合模型:模型開始在訓(xùn)練數(shù)據(jù)上進(jìn)行迭代(每個(gè)小批量包含128個(gè)樣本),共迭代5輪。對(duì)于每批數(shù)據(jù),模型會(huì)計(jì)算損失相對(duì)于權(quán)重的梯度,并將權(quán)重沿著減小該批量對(duì)應(yīng)損失值的方向移動(dòng),5輪迭代后訓(xùn)練精度到達(dá)了98.9%。

3.6 利用模型預(yù)測(cè)

>>> test_digits = test_images[0:10]
>>> predictions = model.predict(test_digits)
>>> predictions[0]
//為了方面閱讀,以下數(shù)據(jù)均為示例
array([1.07, 1.69, 6.13, 8.41, 2.99, 3.03, 8.36, 9.99, 2.66, 3.81], dtype=float32)

這個(gè)數(shù)組中的每個(gè)值,為對(duì)應(yīng)數(shù)字圖像test_digits[0]屬于0-9類別的概率,可以看到第7個(gè)概率最大,因此這個(gè)數(shù)字一定是7。檢查測(cè)試標(biāo)簽是否與之一致:

>>> test_lables[0]
7

3.7 在新數(shù)據(jù)上評(píng)估模型

>>> test_loss, test_acc = model.evaluate(test_images, test_lables)
>>> print(f"test_acc: {test_acc}")
test_acc: 0.9785

測(cè)試精度約為97.8%,比訓(xùn)練精度98.9%低不少。訓(xùn)練精度和測(cè)試精度之間的這種差距是過擬合造成的。

以上就是本次分享的內(nèi)容,感謝大家支持。您的關(guān)注、點(diǎn)贊、收藏是我創(chuàng)作的動(dòng)力。

萬水千山總是情,點(diǎn)個(gè) ?? 行不行。文章來源地址http://www.zghlxwxcb.cn/news/detail-841231.html

到了這里,關(guān)于AI入門之深度學(xué)習(xí):基本概念篇的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場(chǎng)。本站僅提供信息存儲(chǔ)空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請(qǐng)注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請(qǐng)點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • OneFlow新概念清單,AI深度學(xué)習(xí)的革命性突破(AI寫作)

    OneFlow新概念清單,AI深度學(xué)習(xí)的革命性突破(AI寫作)

    首先,這篇文章是基于 筆尖AI寫作 進(jìn)行文章創(chuàng)作的,喜歡的寶子,也可以去體驗(yàn)下,解放雙手,上班直接摸魚~ 按照慣例,先介紹下這款筆尖AI寫作,寶子也可以直接下滑跳過看正文~ 筆尖Ai寫作:只要輸入簡(jiǎn)單的要求和描述,就能自動(dòng)生成各種高質(zhì)量文稿內(nèi)容。 筆尖Ai寫作:

    2024年04月28日
    瀏覽(25)
  • 網(wǎng)絡(luò)協(xié)議從入門到底層原理學(xué)習(xí)(一)—— 簡(jiǎn)介及基本概念

    網(wǎng)絡(luò)協(xié)議從入門到底層原理學(xué)習(xí)(一)—— 簡(jiǎn)介及基本概念

    一、簡(jiǎn)介 1、網(wǎng)絡(luò)協(xié)議的定義 什么是網(wǎng)絡(luò)協(xié)議? 網(wǎng)絡(luò)協(xié)議是由定義網(wǎng)絡(luò)上兩個(gè)或多個(gè)設(shè)備之間通信的規(guī)則、過程和格式組成的正式標(biāo)準(zhǔn)和策略 它們確保計(jì)算機(jī)網(wǎng)絡(luò)設(shè)備可以使用一種通用語言傳輸和接收數(shù)據(jù),而不管它們的設(shè)計(jì)、硬件或基礎(chǔ)設(shè)施如何。 網(wǎng)絡(luò)協(xié)議管理及時(shí)、安全

    2024年02月09日
    瀏覽(40)
  • 【強(qiáng)化學(xué)習(xí)入門】二.強(qiáng)化學(xué)習(xí)的基本概念:狀態(tài)、動(dòng)作、智能體、策略、獎(jiǎng)勵(lì)、狀態(tài)轉(zhuǎn)移、軌跡、回報(bào)、價(jià)值函數(shù)

    【強(qiáng)化學(xué)習(xí)入門】二.強(qiáng)化學(xué)習(xí)的基本概念:狀態(tài)、動(dòng)作、智能體、策略、獎(jiǎng)勵(lì)、狀態(tài)轉(zhuǎn)移、軌跡、回報(bào)、價(jià)值函數(shù)

    超級(jí)瑪麗游戲中,觀測(cè)到的這一幀畫面就是一個(gè) 狀態(tài)(State) 。 瑪麗做的動(dòng)作:向左、向右、向上即為 動(dòng)作(Action) 。 動(dòng)作是由誰做的,誰就是 智能體(Agent) 。自動(dòng)駕駛中,汽車就是智能體;機(jī)器人控制中,機(jī)器人就是智能體;超級(jí)瑪麗游戲中,瑪麗就是智能體。 策略

    2024年02月03日
    瀏覽(56)
  • 深度學(xué)習(xí)入門——卷積神經(jīng)網(wǎng)絡(luò)CNN基本原理+實(shí)戰(zhàn)

    深度學(xué)習(xí)入門——卷積神經(jīng)網(wǎng)絡(luò)CNN基本原理+實(shí)戰(zhàn)

    ? 卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,CNN)是深度學(xué)習(xí)技術(shù)中最基礎(chǔ)的網(wǎng)絡(luò)結(jié)構(gòu),模擬人腦工作,具備強(qiáng)大的特征學(xué)習(xí)能力。CNN結(jié)構(gòu)主要由兩部分組成:特征提取部分和分類部分color{blue}{特征提取部分和分類部分}特征提取部分和分類部分。特征提取部分網(wǎng)絡(luò)將執(zhí)行一系列

    2024年01月21日
    瀏覽(37)
  • 圖的數(shù)據(jù)結(jié)構(gòu),系統(tǒng)學(xué)習(xí)圖的基本概念、定義和建立,學(xué)會(huì)鄰接矩陣、鄰接表以及實(shí)現(xiàn)六度空間案例,遍歷圖的方式——廣度、深度訪問

    圖的數(shù)據(jù)結(jié)構(gòu),系統(tǒng)學(xué)習(xí)圖的基本概念、定義和建立,學(xué)會(huì)鄰接矩陣、鄰接表以及實(shí)現(xiàn)六度空間案例,遍歷圖的方式——廣度、深度訪問

    圖 :G = (V,E) Graph = (Vertex, Edge) V:頂點(diǎn)(數(shù)據(jù)元素)的有窮非空集合; E:邊的有窮集合。 有向圖 :每條邊都是有方向的 ? ? 無向圖 :每條邊都是無方向的 ? 完全圖 :任意兩點(diǎn)之間都有一條邊相連 ? ?無向完全圖:n個(gè)頂點(diǎn),n(n-1)/2條邊 無向完全圖:n個(gè)頂點(diǎn),n(n-1)條邊 稀疏

    2023年04月22日
    瀏覽(19)
  • 【入門向】光流法(optical flow)基本原理+深度學(xué)習(xí)中的應(yīng)用【FlowNet】【RAFT】

    【入門向】光流法(optical flow)基本原理+深度學(xué)習(xí)中的應(yīng)用【FlowNet】【RAFT】

    光流(optical flow)是空間運(yùn)動(dòng)物體在成像平面上的 像素運(yùn)動(dòng)的瞬時(shí)速度 。 通常將一個(gè)描述點(diǎn)的瞬時(shí)速度的二維矢量 u ? = ( u , v ) vec u = (u,v) u = ( u , v ) 稱為光流矢量。 空間中的運(yùn)動(dòng)場(chǎng)轉(zhuǎn)移到圖像上就表示為光流場(chǎng)(optical flow field)。 光流場(chǎng)是很多光流的集合; 構(gòu)建光流場(chǎng)

    2023年04月10日
    瀏覽(20)
  • 第二章:AI大模型的基本原理2.2 深度學(xué)習(xí)基礎(chǔ)2.2.3 循環(huán)神經(jīng)網(wǎng)絡(luò)

    循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Networks,RNN)是一種特殊的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),它可以處理序列數(shù)據(jù),如自然語言、時(shí)間序列預(yù)測(cè)等。RNN的核心特點(diǎn)是包含反饋連接,使得網(wǎng)絡(luò)具有內(nèi)存功能,可以在處理序列數(shù)據(jù)時(shí)保留以前的信息。這一特性使得RNN成為處理自然語言和時(shí)間序列數(shù)據(jù)的

    2024年01月16日
    瀏覽(28)
  • 【AI】《動(dòng)手學(xué)-深度學(xué)習(xí)-PyTorch版》筆記(十七):卷積神經(jīng)網(wǎng)絡(luò)入門

    我們?cè)谇懊鎸W(xué)習(xí)的多層感知機(jī)中,已經(jīng)認(rèn)識(shí)了全鏈接層,缺點(diǎn)很明顯,在稍微大點(diǎn)的網(wǎng)絡(luò)模型中,參數(shù)成指數(shù)級(jí)別增長(zhǎng)。參數(shù)量很快就達(dá)到數(shù)十億,這樣的量級(jí)幾乎無法計(jì)算。為此科學(xué)家們想出一個(gè)減少參數(shù)的方法:卷積。 從全鏈接層到卷積的推論,使用如下兩個(gè)原則: 平

    2024年02月13日
    瀏覽(58)
  • 【openGauss基本概念---快速入門】

    【openGauss基本概念---快速入門】

    ??【上一篇】 ??The Begin?? 點(diǎn)點(diǎn)關(guān)注,收藏不迷路?? 【下一篇】?? ?? 1.1 openGauss openGauss是一款 關(guān)系型數(shù)據(jù)庫(kù)管理系統(tǒng) —RDBMS。關(guān)系型數(shù)據(jù)庫(kù)是指采用了關(guān)系模型來組織數(shù)據(jù)的數(shù)據(jù)庫(kù), 以行和列的形式存儲(chǔ)數(shù)據(jù) 。 openGauss的數(shù)據(jù)庫(kù)節(jié)點(diǎn)負(fù)責(zé)存儲(chǔ)數(shù)據(jù),其 存儲(chǔ)介質(zhì)是磁盤

    2024年02月09日
    瀏覽(24)
  • nodejs 入門基本概念

    nodejs 入門基本概念

    ??Node.js 是2009的時(shí)候由大神 Ryan Dahl 開發(fā)的。Ryan 的本職工作是用 C++ 寫服務(wù)器,后來他總結(jié)出一個(gè)經(jīng)驗(yàn), 一個(gè)高性能服務(wù)器應(yīng)該是滿足“事件驅(qū)動(dòng),非阻塞 I/O”模型的 。C++ 開發(fā)起來比較麻煩,于是 Ryan 就想找一種更高級(jí)的語言,以便快速開發(fā)。 ?? Ryan 發(fā)現(xiàn) JS 語言本身

    2024年02月05日
    瀏覽(23)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請(qǐng)作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包