国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

ubuntu深度學(xué)習(xí)使用TensorFlow卷積神經(jīng)網(wǎng)絡(luò)——圖片數(shù)據(jù)集的制作以及制作好的數(shù)據(jù)集的使用

這篇具有很好參考價(jià)值的文章主要介紹了ubuntu深度學(xué)習(xí)使用TensorFlow卷積神經(jīng)網(wǎng)絡(luò)——圖片數(shù)據(jù)集的制作以及制作好的數(shù)據(jù)集的使用。希望對(duì)大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請(qǐng)大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問(wèn)。

首先我事先準(zhǔn)備好五分類的圖片放在對(duì)應(yīng)的文件夾,圖片資源在我的gitee文件夾中鏈接如下:文件管理: 用于存各種數(shù)據(jù)https://gitee.com/xiaoxiaotai/file-management.git

?里面有imgs目錄和npy目錄,imgs就是存放5分類的圖片的目錄,里面有桂花、楓葉、五味子、銀杏、竹葉5種植物,npy目錄存放的是我用這些圖片制作好的npy文件數(shù)據(jù)集,里面有32x32大小和64x64大小的npy文件。

接下來(lái)是數(shù)據(jù)集制作過(guò)程:

首先導(dǎo)入所需的庫(kù)

import os
import cv2
import random
import numpy as np
import matplotlib.pyplot as plt
import matplotlib.image as mpimg
from mpl_toolkits.axes_grid1 import ImageGrid
%matplotlib inline
import math
from tqdm import tqdm

下面是先顯示本地分類中部分圖片

#先顯示楓葉圖片
folder_path = './datas/imgs/fengye'
# 可視化圖像的個(gè)數(shù)
N = 36
# n 行 n 列
n = math.floor(np.sqrt(N))

images = []
for each_img in os.listdir(folder_path)[:N]:
    img_path = os.path.join(folder_path, each_img)
    #img_bgr = cv2.imread(img_path)
    img_bgr = cv2.imdecode(np.fromfile(img_path, dtype=np.uint8), 1) #解決路徑中存在中文的問(wèn)題
    img_rgb = cv2.cvtColor(img_bgr, cv2.COLOR_BGR2RGB)
    images.append(img_rgb)

fig = plt.figure(figsize=(6, 8),dpi=80)
grid = ImageGrid(fig, 111,  # 類似繪制子圖 subplot(111)
                 nrows_ncols=(n, n),  # 創(chuàng)建 n 行 m 列的 axes 網(wǎng)格
                 axes_pad=0.02,  # 網(wǎng)格間距
                 share_all=True
                 )

# 遍歷每張圖像
for ax, im in zip(grid, images):
    ax.imshow(im)
    ax.axis('off')

plt.tight_layout()
plt.show()

?輸出結(jié)果如下:

ubuntu深度學(xué)習(xí)使用TensorFlow卷積神經(jīng)網(wǎng)絡(luò)——圖片數(shù)據(jù)集的制作以及制作好的數(shù)據(jù)集的使用

?下面是輸出各個(gè)圖片的信息包括圖片寬高、圖片名、所屬類別,os.chdir('../')意思是將當(dāng)前路徑指針指向上一個(gè)目錄,可以用os.getcwd()輸出當(dāng)前所指路徑

# 指定數(shù)據(jù)集路徑
dataset_path = './datas/imgs/'
os.chdir(dataset_path)
print(os.listdir())

df = pd.DataFrame()
for fruit in tqdm(os.listdir()): # 遍歷每個(gè)類別    
    os.chdir(fruit)
    for file in os.listdir(): # 遍歷每張圖像
        try:
            img = cv2.imread(file)
            df = df.append({'類別':fruit, '文件名':file, '圖像寬':img.shape[1], '圖像高':img.shape[0]}, ignore_index=True)
        except:
            print(os.path.join(fruit, file), '讀取錯(cuò)誤')
    os.chdir('../')
os.chdir('../../')
df

輸出結(jié)果如下:

ubuntu深度學(xué)習(xí)使用TensorFlow卷積神經(jīng)網(wǎng)絡(luò)——圖片數(shù)據(jù)集的制作以及制作好的數(shù)據(jù)集的使用

定義標(biāo)簽數(shù)字,因?yàn)閿?shù)據(jù)集標(biāo)簽一般是數(shù)字,訓(xùn)練才更快

# 定義5個(gè)類別的標(biāo)簽
labels = {
    'wuweizi': 0,
    'fengye': 1,
    'guihua': 2,
    'zhuye': 3,
    'yinxing': 4
}

# 定義訓(xùn)練集和測(cè)試集的比例
train_ratio = 0.8

# 定義一個(gè)空列表用于存儲(chǔ)訓(xùn)練集和測(cè)試集
train_data = []
test_data = []

?數(shù)據(jù)增強(qiáng),我這里是將每一張圖片縮小為64x64,你也可以改成32x32或者其他大小,要注意的是,大小越大數(shù)據(jù)集制作越久,得到的數(shù)據(jù)集大小越大。

# 定義數(shù)據(jù)增強(qiáng)的方法
def data_augmentation(img):
    # 隨機(jī)裁剪
    img = cv2.resize(img, (256, 256))
    x = random.randint(0, 256 - 64)
    y = random.randint(0, 256 - 64)
    img = img[x:x+64, y:y+64]
    

    # 隨機(jī)翻轉(zhuǎn)
    if random.random() < 0.5:
        img = cv2.flip(img, 1)
    
    # 隨機(jī)旋轉(zhuǎn)
    angle = random.randint(-10, 10)
    M = cv2.getRotationMatrix2D((32, 32), angle, 1)
    img = cv2.warpAffine(img, M, (64, 64))
    
    return img
# 定義讀取圖片的方法
def read_image(path):
    img = cv2.imread(path)
    img = cv2.cvtColor(img, cv2.COLOR_BGR2RGB)
    img = data_augmentation(img)
    img = img / 255.0
    return img

下面是給圖片打上標(biāo)簽了,也就是每一張圖片都給它標(biāo)注屬于哪一種類別(身份),這樣卷積神經(jīng)網(wǎng)絡(luò)就可以在訓(xùn)練的時(shí)候知道類別,從而記住所屬特征的標(biāo)簽值

# 遍歷5個(gè)文件夾,讀取圖片并打上標(biāo)簽
for path, label in labels.items():
    files = os.listdir('./datas/imgs/'+path)
    random.shuffle(files)
    train_files = files[:int(len(files) * train_ratio)]
    test_files = files[int(len(files) * train_ratio):]
    for file in train_files:
        img = read_image(os.path.join('./datas/imgs/'+path, file))
        train_data.append((img, label))
    for file in test_files:
        img = read_image(os.path.join('./datas/imgs/'+path, file))
        test_data.append((img, label))
    # 工整地輸出每一類別的數(shù)據(jù)個(gè)數(shù)
    print('類別:{} 訓(xùn)練集個(gè)數(shù):{} 測(cè)試集數(shù)據(jù):{}'.format(path, len(train_files), len(test_files)))

這里的輸出結(jié)果:

ubuntu深度學(xué)習(xí)使用TensorFlow卷積神經(jīng)網(wǎng)絡(luò)——圖片數(shù)據(jù)集的制作以及制作好的數(shù)據(jù)集的使用

現(xiàn)在可以看一下裁剪后的結(jié)果

df = pd.DataFrame()
for img,label in train_data: # 遍歷每個(gè)類別    

#     img = cv2.imread(fruit)
    df = df.append({'類別':label, '文件名':file, '圖像寬':img.shape[1], '圖像高':img.shape[0]}, ignore_index=True)
df

?結(jié)果如下,我們可以看到大小已經(jīng)變成64x64了,當(dāng)然這是沒(méi)有打亂順序的,類別是從0開(kāi)始到4:

ubuntu深度學(xué)習(xí)使用TensorFlow卷積神經(jīng)網(wǎng)絡(luò)——圖片數(shù)據(jù)集的制作以及制作好的數(shù)據(jù)集的使用

接下來(lái)就是打亂順序,這也是為了防止過(guò)擬合化

# 打亂訓(xùn)練集和測(cè)試集的順序
random.shuffle(train_data)
random.shuffle(test_data)

?再次輸出

df = pd.DataFrame()
for img,label in train_data: # 遍歷每個(gè)類別    

#     img = cv2.imread(fruit)
    df = df.append({'類別':label, '文件名':file, '圖像寬':img.shape[1], '圖像高':img.shape[0]}, ignore_index=True)
df

?這一次的結(jié)果如下,類別順序已經(jīng)被打亂:

ubuntu深度學(xué)習(xí)使用TensorFlow卷積神經(jīng)網(wǎng)絡(luò)——圖片數(shù)據(jù)集的制作以及制作好的數(shù)據(jù)集的使用

下面是保存訓(xùn)練集和測(cè)試集的數(shù)據(jù)集和標(biāo)簽

# 將訓(xùn)練集和測(cè)試集的圖片和標(biāo)簽分別存儲(chǔ)在numpy數(shù)組中
train_imgs = np.array([data[0] for data in train_data])
train_labels = np.array([data[1] for data in train_data])
test_imgs = np.array([data[0] for data in test_data])
test_labels = np.array([data[1] for data in test_data])

# 保存訓(xùn)練集和測(cè)試集
np.save('./datas/npy/32px/train_imgs_64.npy', train_imgs)
np.save('./datas/npy/32px/train_labels_64.npy', train_labels)
np.save('./datas/npy/32px/test_imgs_64.npy', test_imgs)
np.save('./datas/npy/32px/test_labels_64.npy', test_labels)

上面的數(shù)據(jù)集已經(jīng)做好了,那么接下來(lái)就到模型的訓(xùn)練了,模型的訓(xùn)練我就不一一解釋了,大家自己看代碼,我使用的是anaconda中的jupyter工具寫代碼

#導(dǎo)庫(kù)
import tensorflow as tf
import numpy as np
import os
import matplotlib.pyplot as plt
import urllib
import cv2

# 加載上面制作的數(shù)據(jù)集
train_imgs = np.load('./datas/npy/64px/train_imgs_64.npy')
train_labels = np.load('./datas/npy/64px/train_labels_64.npy')
test_imgs = np.load('./datas/npy/64px/test_imgs_64.npy')
test_labels = np.load('./datas/npy/64px/test_labels_64.npy')

#可以看看輸出緯度
train_imgs.shape

#模型構(gòu)建,這里我就構(gòu)建一個(gè)簡(jiǎn)單模型
def creatAlexNet():
    model = tf.keras.models.Sequential([
        tf.keras.layers.Conv2D(64, kernel_size=(3, 3), strides=(1, 1), activation='relu', input_shape=(64, 64, 3)),
        tf.keras.layers.MaxPooling2D(pool_size=(2, 2), strides=(1, 1)),
        tf.keras.layers.Conv2D(128, kernel_size=(3, 3), strides=(1, 1), activation='relu'),
        tf.keras.layers.MaxPooling2D(pool_size=(2, 2), strides=(1, 1)),
        tf.keras.layers.Flatten(),
        tf.keras.layers.Dense(5, activation='softmax')
    ])
    return model

#加載模型
model = creatAlexNet()

#顯示摘要
model.summary()


# 定義超參數(shù)
learning_rate = 0.001 #study 
batch_size = 100 #單次訓(xùn)練樣本數(shù)(批次大小)
epochs = 20 #訓(xùn)練輪數(shù)

# 定義訓(xùn)練模式
model.compile(optimizer ='adam',#優(yōu)化器
loss='sparse_categorical_crossentropy',#損失函數(shù)
              metrics=['accuracy'])#評(píng)估模型的方式

# 加載數(shù)據(jù)集并訓(xùn)練模型
history = model.fit(train_imgs, train_labels, batch_size=batch_size, epochs=epochs, 
                    validation_split = 0.2)

# 評(píng)估模型
test_loss, test_acc = model.evaluate(test_imgs, test_labels, verbose=2)
print('Test accuracy:', test_acc)

#模型測(cè)試
preds = model.predict(test_imgs)
np.argmax(preds[20])

# 可視化測(cè)試
# 定義顯示圖像數(shù)據(jù)及其對(duì)應(yīng)標(biāo)簽的函數(shù)
# 圖像列表
label_dict={0:"wuweizi",1:"fengye",2:"guihua",3:"zhuye",4:"yinxing"}
def plot_images_labels_prediction(images,# 標(biāo)簽列表
                                  labels,
                                  preds,#預(yù)測(cè)值列表
                                  index,#從第index個(gè)開(kāi)始顯示
                                  num = 5):  # 缺省一次顯示5幅
    fig=plt.gcf()#獲取當(dāng)前圖表,Get Current Figure 
    fig.set_size_inches(12,6)#1英寸等于2.54cm 
    if num > 10:#最多顯示10個(gè)子圖
        num = 10
    for i in range(0, num):
        ax = plt.subplot(2,5,i+1)#獲取當(dāng)前要處理的子圖
        plt.tight_layout()
        ax.imshow(images[index])
        title=str(i)+','+label_dict[labels[index]]#構(gòu)建該圖上要顯示的title信息
        if len(preds)>0:
            title +='=>' + label_dict[np.argmax(preds[index])]
        ax.set_title(title,fontsize=10)#顯示圖上的title信息
        index += 1 
    plt.show()

plot_images_labels_prediction(test_imgs,test_labels, preds,10,30)

# 然后保存模型
model_filename ='models/plant_model.h5'
model.save(model_filename)

# 這里是從本地加載圖片對(duì)模型進(jìn)行測(cè)試
from PIL import Image
import numpy as np

loaded_model = tf.keras.models.load_model('models/plant_model.h5')
label_dict={0:"wuweizi",1:"fengye",2:"guihua",3:"zhuye",4:"yinxing"}

img = Image.open('./fengye.jpeg')
img = img.resize((64, 64))
img_arr = np.array(img) / 255.0
img_arr = img_arr.reshape(1, 64, 64, 3)
pred = model.predict(img_arr)
class_idx = np.argmax(pred)
plt.title("type:{}, pre_label:{}".format(label_dict[class_idx],class_idx))
plt.imshow(img, cmap=plt.get_cmap('gray'))

# 加載模型
loaded_model = tf.keras.models.load_model('models/plant_model.h5')
# 使用模型預(yù)測(cè)瀏覽器上的一張圖片
label_dict={0:"wuweizi",1:"fengye",2:"guihua",3:"zhuye",4:"yinxing"}

# 這里是從瀏覽器的網(wǎng)址中加載圖片進(jìn)行識(shí)別
url = 'https://newbbs-fd.zol-img.com.cn/t_s1200x5000/g5/M00/05/08/ChMkJ1wFsOGIcMt4AAGFQDPiUhEAAtkTQCj_EoAAYVY306.jpg'
with urllib.request.urlopen(url) as url_response:
    img_array = np.asarray(bytearray(url_response.read()), dtype=np.uint8)
    img = cv2.imdecode(img_array, cv2.IMREAD_COLOR)
    img_array = cv2.resize(img, (64, 64))
    img_array = img_array / 255.0
    img_array = np.expand_dims(img_array, axis=0)
    
    predict_label = np.argmax(loaded_model.predict(img_array), axis=-1)[0]
    plt.imshow(img, cmap=plt.get_cmap('gray'))
    plt.title("Predict: {},Predict_label: {}".format(label_dict[predict_label],predict_label))
    plt.xticks([])
    plt.yticks([])

本次文章就到這里,感謝大家的支持!文章來(lái)源地址http://www.zghlxwxcb.cn/news/detail-446377.html

到了這里,關(guān)于ubuntu深度學(xué)習(xí)使用TensorFlow卷積神經(jīng)網(wǎng)絡(luò)——圖片數(shù)據(jù)集的制作以及制作好的數(shù)據(jù)集的使用的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來(lái)自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場(chǎng)。本站僅提供信息存儲(chǔ)空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請(qǐng)注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請(qǐng)點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • 魚類識(shí)別Python+深度學(xué)習(xí)人工智能+TensorFlow+卷積神經(jīng)網(wǎng)絡(luò)算法

    魚類識(shí)別Python+深度學(xué)習(xí)人工智能+TensorFlow+卷積神經(jīng)網(wǎng)絡(luò)算法

    魚類識(shí)別系統(tǒng)。使用Python作為主要編程語(yǔ)言開(kāi)發(fā),通過(guò)收集常見(jiàn)的30種魚類(‘墨魚’, ‘多寶魚’, ‘帶魚’, ‘石斑魚’, ‘秋刀魚’, ‘章魚’, ‘紅魚’, ‘羅非魚’, ‘胖頭魚’, ‘草魚’, ‘銀魚’, ‘青魚’, ‘馬頭魚’, ‘魷魚’, ‘鲇魚’, ‘鱸魚’, ‘鮑魚’, ‘鮭

    2024年02月02日
    瀏覽(113)
  • 40 深度學(xué)習(xí)(四):卷積神經(jīng)網(wǎng)絡(luò)|深度可分離卷積|colab和kaggle的基礎(chǔ)使用

    40 深度學(xué)習(xí)(四):卷積神經(jīng)網(wǎng)絡(luò)|深度可分離卷積|colab和kaggle的基礎(chǔ)使用

    卷積神經(jīng)網(wǎng)絡(luò)的基本結(jié)構(gòu) 1: (卷積層+(可選)池化層) * N+全連接層 * M(N=1,M=0) 卷積層的輸入和輸出都是矩陣,全連接層的輸入和輸出都是向量,在最后一層的卷積上,把它做一個(gè)展平,這樣就可以和全連接層進(jìn)行運(yùn)算了,為什么卷積要放到前面,因?yàn)檎蛊絾适Я司S度信息,因

    2024年02月08日
    瀏覽(18)
  • 深度學(xué)習(xí):使用卷積神經(jīng)網(wǎng)絡(luò)CNN實(shí)現(xiàn)MNIST手寫數(shù)字識(shí)別

    深度學(xué)習(xí):使用卷積神經(jīng)網(wǎng)絡(luò)CNN實(shí)現(xiàn)MNIST手寫數(shù)字識(shí)別

    本項(xiàng)目基于pytorch構(gòu)建了一個(gè)深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò),網(wǎng)絡(luò)包含卷積層、池化層、全連接層,通過(guò)此網(wǎng)絡(luò)實(shí)現(xiàn)對(duì)MINST數(shù)據(jù)集手寫數(shù)字的識(shí)別,通過(guò)本項(xiàng)目代碼,從原理上理解手寫數(shù)字識(shí)別的全過(guò)程,包括反向傳播,梯度下降等。 卷積神經(jīng)網(wǎng)絡(luò)是一種多層、前饋型神經(jīng)網(wǎng)絡(luò)。從功能上

    2024年02月13日
    瀏覽(20)
  • 深度學(xué)習(xí)——使用卷積神經(jīng)網(wǎng)絡(luò)改進(jìn)識(shí)別鳥與飛機(jī)模型

    深度學(xué)習(xí)——使用卷積神經(jīng)網(wǎng)絡(luò)改進(jìn)識(shí)別鳥與飛機(jī)模型

    驗(yàn)證下,是否獲取成功 使用 DataLoader 封裝數(shù)據(jù)集 我們打算放棄 nn.Sequential 帶來(lái)的靈活性。使用更自由的子類化 nn.Module 。 為了子類化 nn.Module ,我們至少需要定義一個(gè) forward() 函數(shù),該函數(shù)用于接收模塊的輸入并返回輸出,這便是模塊計(jì)算的之處。 在 Pytorch 中,如果使用標(biāo)準(zhǔn)

    2023年04月08日
    瀏覽(22)
  • 從零使用TensorFlow搭建CNN(卷積)神經(jīng)網(wǎng)絡(luò)

    從零使用TensorFlow搭建CNN(卷積)神經(jīng)網(wǎng)絡(luò)

    ?? 寫在前面 ????? 博主介紹:大家好,這里是hyk寫算法了嗎,一枚致力于學(xué)習(xí)算法和人工智能領(lǐng)域的小菜鳥。 ??個(gè)人主頁(yè):主頁(yè)鏈接(歡迎各位大佬光臨指導(dǎo)) ??近期專欄:機(jī)器學(xué)習(xí)與深度學(xué)習(xí) ???????????????????????LeetCode算法實(shí)例 本節(jié)內(nèi)容主要向大家

    2023年04月22日
    瀏覽(27)
  • 深度神經(jīng)網(wǎng)絡(luò)基礎(chǔ)——深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)基礎(chǔ) & Tensorflow在深度學(xué)習(xí)的應(yīng)用

    深度神經(jīng)網(wǎng)絡(luò)基礎(chǔ)——深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)基礎(chǔ) & Tensorflow在深度學(xué)習(xí)的應(yīng)用

    Tensorflow入門(1)——深度學(xué)習(xí)框架Tesnsflow入門 環(huán)境配置 認(rèn)識(shí)Tensorflow 深度學(xué)習(xí)框架Tesnsflow 線程+隊(duì)列+IO操作 文件讀取案例 神經(jīng)網(wǎng)絡(luò)的種類: 基礎(chǔ)神經(jīng)網(wǎng)絡(luò):?jiǎn)螌痈兄鳎€性神經(jīng)網(wǎng)絡(luò),BP神經(jīng)網(wǎng)絡(luò),Hopfield神經(jīng)網(wǎng)絡(luò)等 進(jìn)階神經(jīng)網(wǎng)絡(luò):玻爾茲曼機(jī),受限玻爾茲曼機(jī),遞歸神經(jīng)

    2024年02月16日
    瀏覽(24)
  • AI:162-如何使用Python進(jìn)行圖像識(shí)別與處理深度學(xué)習(xí)與卷積神經(jīng)網(wǎng)絡(luò)的應(yīng)用

    AI:162-如何使用Python進(jìn)行圖像識(shí)別與處理深度學(xué)習(xí)與卷積神經(jīng)網(wǎng)絡(luò)的應(yīng)用

    本文收錄于專欄:精通AI實(shí)戰(zhàn)千例專欄合集 從基礎(chǔ)到實(shí)踐,深入學(xué)習(xí)。無(wú)論你是初學(xué)者還是經(jīng)驗(yàn)豐富的老手,對(duì)于本專欄案例和項(xiàng)目實(shí)踐都有參考學(xué)習(xí)意義。 每一個(gè)案例都附帶關(guān)鍵代碼,詳細(xì)講解供大家學(xué)習(xí),希望可以幫到大家。正在不斷更新中~ 在當(dāng)今數(shù)字化時(shí)代,圖像處

    2024年04月26日
    瀏覽(292)
  • 深度學(xué)習(xí),卷積神經(jīng)網(wǎng)絡(luò)

    深度學(xué)習(xí),卷積神經(jīng)網(wǎng)絡(luò)

    ? CV領(lǐng)域發(fā)展 CV領(lǐng)域是計(jì)算機(jī)視覺(jué)(Computer Vision)領(lǐng)域的簡(jiǎn)稱。 計(jì)算機(jī)視覺(jué)是指利用計(jì)算機(jī)模擬人類視覺(jué)系統(tǒng)的科學(xué),讓計(jì)算機(jī)具有類似于人類在觀察外界的視覺(jué)、圖像的能力,包括圖像處理、圖像分析、圖像理解等。 計(jì)算機(jī)視覺(jué)領(lǐng)域發(fā)展有以下特點(diǎn): 視覺(jué)系統(tǒng)的出現(xiàn)和不

    2024年02月15日
    瀏覽(27)
  • 深度學(xué)習(xí)|卷積神經(jīng)網(wǎng)絡(luò)

    深度學(xué)習(xí)|卷積神經(jīng)網(wǎng)絡(luò)

    卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,CNN)是一種深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),主要用于 圖像識(shí)別 、 計(jì)算機(jī)視覺(jué) 等領(lǐng)域。該結(jié)構(gòu)在處理圖像等高維數(shù)據(jù)時(shí)表現(xiàn)出色,因?yàn)樗哂泄蚕頇?quán)重和局部感知的特點(diǎn),一方面減少了權(quán)值的數(shù)量使得網(wǎng)絡(luò)易于優(yōu)化,另一方面降低了模型的復(fù)

    2024年02月11日
    瀏覽(25)
  • 【深度學(xué)習(xí)】6-1 卷積神經(jīng)網(wǎng)絡(luò) - 卷積層

    【深度學(xué)習(xí)】6-1 卷積神經(jīng)網(wǎng)絡(luò) - 卷積層

    卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network, CNN )。 CNN 被用于圖像識(shí)別、語(yǔ)音識(shí)別等各種場(chǎng)合,在圖像識(shí)別的比賽中,基于深度學(xué)習(xí)的方法幾乎都以 CNN 為基礎(chǔ)。 首先,來(lái)看一下 CNN 的網(wǎng)絡(luò)結(jié)構(gòu),了解 CNN 的大致框架。CNN 和之前介紹的神經(jīng)網(wǎng)絡(luò)一樣,可以像樂(lè)高積木一樣通過(guò)組裝層

    2024年02月10日
    瀏覽(23)

覺(jué)得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請(qǐng)作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包