0 前言
?? 優(yōu)質(zhì)競賽項(xiàng)目系列,今天要分享的是
?? 深度學(xué)習(xí)動(dòng)物識別 - 卷積神經(jīng)網(wǎng)絡(luò) 機(jī)器視覺 圖像識別
該項(xiàng)目較為新穎,適合作為競賽課題方向,學(xué)長非常推薦!
??學(xué)長這里給一個(gè)題目綜合評分(每項(xiàng)滿分5分)
- 難度系數(shù):3分
- 工作量:3分
- 創(chuàng)新點(diǎn):4分
?? 更多資料, 項(xiàng)目分享:文章來源:http://www.zghlxwxcb.cn/news/detail-718589.html
https://gitee.com/dancheng-senior/postgraduate文章來源地址http://www.zghlxwxcb.cn/news/detail-718589.html
1 背景
目前,由于計(jì)算機(jī)能力和相關(guān)理論的發(fā)展獲得了重大突破,基于深度學(xué)習(xí)的圖像檢測與識別技術(shù)已經(jīng)廣泛應(yīng)用到人們的生產(chǎn)生活中。學(xué)長將深度學(xué)習(xí)的技術(shù)應(yīng)用到野生動(dòng)物圖像識別中,優(yōu)化了傳統(tǒng)的識別方法,形成對野生動(dòng)物圖像更為準(zhǔn)確的識別,為實(shí)現(xiàn)高效的野生動(dòng)物圖像識別提供了可能。不同于傳統(tǒng)的野生動(dòng)物識別,基于深度學(xué)習(xí)的野生動(dòng)物識別技術(shù)可以捕獲到野生動(dòng)物更加細(xì)致的信息,有利于對野生動(dòng)物進(jìn)行更加準(zhǔn)確的識別和研究。因此,對基于深度學(xué)習(xí)的野生動(dòng)物識別和研究,可以更好的幫助社會(huì)管理者和政府全面有效的對野生動(dòng)物進(jìn)行保護(hù)和監(jiān)管,這也正是保護(hù)和識別野生動(dòng)物的關(guān)鍵,同時(shí)這對整個(gè)自然和社會(huì)的和諧發(fā)展具有極大的推動(dòng)作用。
2 算法原理
2.1 動(dòng)物識別方法概況
基于人工特征的野生動(dòng)物識別方法主要通過人工對野生動(dòng)物圖像中具有辨識度的特征信息進(jìn)行提取,并通過特征比對的方式就可以對野生動(dòng)物所屬的類別進(jìn)行識別判斷。
在深度學(xué)習(xí)技術(shù)普及之前,傳統(tǒng)的數(shù)字圖像處理技術(shù)與傳統(tǒng)機(jī)器學(xué)習(xí)技術(shù)一直是研究的熱點(diǎn)。傳統(tǒng)的數(shù)字圖像處理技術(shù)有模塊分割、降低噪聲點(diǎn)、邊緣檢測等方法。傳統(tǒng)的機(jī)器學(xué)習(xí)技術(shù)有支持向量機(jī)、隨機(jī)森林算法、BP
神經(jīng)網(wǎng)絡(luò)算法等。
深度學(xué)習(xí)技術(shù)是通過計(jì)算機(jī)模擬人類大腦的分層表達(dá)結(jié)構(gòu)來建立網(wǎng)絡(luò)模型,從原始數(shù)據(jù)集中對相關(guān)信息逐層提取。之后通過建立相應(yīng)的神經(jīng)網(wǎng)絡(luò)對數(shù)據(jù)進(jìn)行學(xué)習(xí)和分析,從而提高對目標(biāo)預(yù)測和識別的準(zhǔn)確率。如今,深度學(xué)習(xí)技術(shù)已經(jīng)相對成熟,在對目標(biāo)進(jìn)行特征提取方面,卷積神經(jīng)網(wǎng)絡(luò)技術(shù)逐漸取代了傳統(tǒng)的圖像處理技術(shù),并且在人類的生產(chǎn)生活中得到了廣泛應(yīng)用,這為研究野生動(dòng)物更高效的識別方法奠定了基礎(chǔ)。
2.2 常用的網(wǎng)絡(luò)模型
圖像識別是指對原始圖像進(jìn)行整體分析來達(dá)到預(yù)測原始圖像所屬類別的技術(shù)。計(jì)算機(jī)視覺領(lǐng)域中對圖像識別技術(shù)進(jìn)行了優(yōu)化,與此同時(shí),深度學(xué)習(xí)技術(shù)也對圖像識別領(lǐng)域展開了突破。目前在圖像識別領(lǐng)域中,研究人員開始使用深度學(xué)習(xí)的技術(shù),并通過在實(shí)際應(yīng)用中發(fā)現(xiàn),基于深度學(xué)習(xí)的識別技術(shù)比傳統(tǒng)的識別技術(shù)效果更好,且更具有優(yōu)勢。
2.2.1 B-CNN
雙線性卷積神經(jīng)網(wǎng)絡(luò)(Bilinear
CNN,B-CNN)[34]是用兩個(gè)卷積神經(jīng)網(wǎng)絡(luò)對圖像進(jìn)行特征提取,然后使用相應(yīng)的函數(shù)將得到所有特征進(jìn)行組合,組合的數(shù)據(jù)帶入到分類器中進(jìn)行分類。
2.2.2 SSD
經(jīng)典的 SSD 模型是由經(jīng)典網(wǎng)絡(luò)和特征提取網(wǎng)絡(luò)組成。
通過引入性能更好的特征提取網(wǎng)絡(luò)對 SSD
目標(biāo)檢測模型進(jìn)行了優(yōu)化。Fu[49]等人提出了增加卷積神經(jīng)網(wǎng)絡(luò)層數(shù)和深度的方法用于提高識別準(zhǔn)確率。通過實(shí)際應(yīng)用之后,發(fā)現(xiàn)該方法識別準(zhǔn)確率確實(shí)得到了一定程度的提高,但是模型結(jié)構(gòu)卻越來越復(fù)雜,同時(shí)對深層次的網(wǎng)絡(luò)訓(xùn)練也越來越困難。
3 SSD動(dòng)物目標(biāo)檢測流程
學(xué)長首先對 DenseNet-169 網(wǎng)絡(luò)進(jìn)行初始化,使用 DenseNet-169 網(wǎng)絡(luò)作為目標(biāo)檢測的前置網(wǎng)絡(luò)結(jié)構(gòu),并運(yùn)用遷移學(xué)習(xí)的方法對
DenseNet-169 進(jìn)行預(yù)訓(xùn)練,并將Snapshot Serengeti數(shù)據(jù)集下的權(quán)重值遷移到野生動(dòng)物檢測任務(wù)中,使數(shù)據(jù)集的訓(xùn)練速度得到提升。將
DenseNet-169 作為前置網(wǎng)絡(luò)置于 SSD 中的目標(biāo)提取檢測網(wǎng)絡(luò)之前,更換完前置網(wǎng)絡(luò)的 SSD 目標(biāo)檢測網(wǎng)絡(luò)依然完整。
4 實(shí)現(xiàn)效果
做一個(gè)GUI交互界面
5 部分相關(guān)代碼
5.1 數(shù)據(jù)預(yù)處理
?
import cv2 as cv
import os
import numpy as np
import random
import pickle
import time
start_time = time.time()
data_dir = './data'
batch_save_path = './batch_files'
# 創(chuàng)建batch文件存儲(chǔ)的文件夾
os.makedirs(batch_save_path, exist_ok=True)
# 圖片統(tǒng)一大?。?00 * 100
# 訓(xùn)練集 20000:100個(gè)batch文件,每個(gè)文件200張圖片
# 驗(yàn)證集 5000:一個(gè)測試文件,測試時(shí) 50張 x 100 批次
# 進(jìn)入圖片數(shù)據(jù)的目錄,讀取圖片信息
all_data_files = os.listdir(os.path.join(data_dir, 'train/'))
# print(all_data_files)
# 打算數(shù)據(jù)的順序
random.shuffle(all_data_files)
all_train_files = all_data_files[:20000]
all_test_files = all_data_files[20000:]
train_data = []
train_label = []
train_filenames = []
test_data = []
test_label = []
test_filenames = []
# 訓(xùn)練集
for each in all_train_files:
img = cv.imread(os.path.join(data_dir,'train/',each),1)
resized_img = cv.resize(img, (100,100))
img_data = np.array(resized_img)
train_data.append(img_data)
if 'cat' in each:
train_label.append(0)
elif 'dog' in each:
train_label.append(1)
else:
raise Exception('%s is wrong train file'%(each))
train_filenames.append(each)
# 測試集
for each in all_test_files:
img = cv.imread(os.path.join(data_dir,'train/',each), 1)
resized_img = cv.resize(img, (100,100))
img_data = np.array(resized_img)
test_data.append(img_data)
if 'cat' in each:
test_label.append(0)
elif 'dog' in each:
test_label.append(1)
else:
raise Exception('%s is wrong test file'%(each))
test_filenames.append(each)
print(len(train_data), len(test_data))
# 制作100個(gè)batch文件
start = 0
end = 200
for num in range(1, 101):
batch_data = train_data[start: end]
batch_label = train_label[start: end]
batch_filenames = train_filenames[start: end]
batch_name = 'training batch {} of 15'.format(num)
all_data = {
'data':batch_data,
'label':batch_label,
'filenames':batch_filenames,
'name':batch_name
}
with open(os.path.join(batch_save_path, 'train_batch_{}'.format(num)), 'wb') as f:
pickle.dump(all_data, f)
start += 200
end += 200
# 制作測試文件
all_test_data = {
'data':test_data,
'label':test_label,
'filenames':test_filenames,
'name':'test batch 1 of 1'
}
with open(os.path.join(batch_save_path, 'test_batch'), 'wb') as f:
pickle.dump(all_test_data, f)
end_time = time.time()
print('制作結(jié)束, 用時(shí){}秒'.format(end_time - start_time))
5.2 構(gòu)建卷積神經(jīng)網(wǎng)絡(luò)
cnn卷積神經(jīng)網(wǎng)絡(luò)的編寫如下,編寫卷積層、池化層和全連接層的代碼
?
conv1_1 = tf.layers.conv2d(x, 16, (3, 3), padding='same', activation=tf.nn.relu, name='conv1_1')
conv1_2 = tf.layers.conv2d(conv1_1, 16, (3, 3), padding='same', activation=tf.nn.relu, name='conv1_2')
pool1 = tf.layers.max_pooling2d(conv1_2, (2, 2), (2, 2), name='pool1')
conv2_1 = tf.layers.conv2d(pool1, 32, (3, 3), padding='same', activation=tf.nn.relu, name='conv2_1')
conv2_2 = tf.layers.conv2d(conv2_1, 32, (3, 3), padding='same', activation=tf.nn.relu, name='conv2_2')
pool2 = tf.layers.max_pooling2d(conv2_2, (2, 2), (2, 2), name='pool2')
conv3_1 = tf.layers.conv2d(pool2, 64, (3, 3), padding='same', activation=tf.nn.relu, name='conv3_1')
conv3_2 = tf.layers.conv2d(conv3_1, 64, (3, 3), padding='same', activation=tf.nn.relu, name='conv3_2')
pool3 = tf.layers.max_pooling2d(conv3_2, (2, 2), (2, 2), name='pool3')
conv4_1 = tf.layers.conv2d(pool3, 128, (3, 3), padding='same', activation=tf.nn.relu, name='conv4_1')
conv4_2 = tf.layers.conv2d(conv4_1, 128, (3, 3), padding='same', activation=tf.nn.relu, name='conv4_2')
pool4 = tf.layers.max_pooling2d(conv4_2, (2, 2), (2, 2), name='pool4')
flatten = tf.layers.flatten(pool4)
fc1 = tf.layers.dense(flatten, 512, tf.nn.relu)
fc1_dropout = tf.nn.dropout(fc1, keep_prob=keep_prob)
fc2 = tf.layers.dense(fc1, 256, tf.nn.relu)
fc2_dropout = tf.nn.dropout(fc2, keep_prob=keep_prob)
fc3 = tf.layers.dense(fc2, 2, None)
5.3 tensorflow計(jì)算圖可視化
?
self.x = tf.placeholder(tf.float32, [None, IMAGE_SIZE, IMAGE_SIZE, 3], 'input_data')
self.y = tf.placeholder(tf.int64, [None], 'output_data')
self.keep_prob = tf.placeholder(tf.float32)
# 圖片輸入網(wǎng)絡(luò)中
fc = self.conv_net(self.x, self.keep_prob)
self.loss = tf.losses.sparse_softmax_cross_entropy(labels=self.y, logits=fc)
self.y_ = tf.nn.softmax(fc) # 計(jì)算每一類的概率
self.predict = tf.argmax(fc, 1)
self.acc = tf.reduce_mean(tf.cast(tf.equal(self.predict, self.y), tf.float32))
self.train_op = tf.train.AdamOptimizer(LEARNING_RATE).minimize(self.loss)
self.saver = tf.train.Saver(max_to_keep=1)
最后的saver是要將訓(xùn)練好的模型保存到本地。
5.4 網(wǎng)絡(luò)模型訓(xùn)練
然后編寫訓(xùn)練部分的代碼,訓(xùn)練步驟為1萬步
?
acc_list = []
with tf.Session() as sess:
sess.run(tf.global_variables_initializer())
for i in range(TRAIN_STEP):
train_data, train_label, _ = self.batch_train_data.next_batch(TRAIN_SIZE)
eval_ops = [self.loss, self.acc, self.train_op]
eval_ops_results = sess.run(eval_ops, feed_dict={
self.x:train_data,
self.y:train_label,
self.keep_prob:0.7
})
loss_val, train_acc = eval_ops_results[0:2]
acc_list.append(train_acc)
if (i+1) % 100 == 0:
acc_mean = np.mean(acc_list)
print('step:{0},loss:{1:.5},acc:{2:.5},acc_mean:{3:.5}'.format(
i+1,loss_val,train_acc,acc_mean
))
if (i+1) % 1000 == 0:
test_acc_list = []
for j in range(TEST_STEP):
test_data, test_label, _ = self.batch_test_data.next_batch(TRAIN_SIZE)
acc_val = sess.run([self.acc],feed_dict={
self.x:test_data,
self.y:test_label,
self.keep_prob:1.0
})
test_acc_list.append(acc_val)
print('[Test ] step:{0}, mean_acc:{1:.5}'.format(
i+1, np.mean(test_acc_list)
))
# 保存訓(xùn)練后的模型
os.makedirs(SAVE_PATH, exist_ok=True)
self.saver.save(sess, SAVE_PATH + 'my_model.ckpt')
訓(xùn)練結(jié)果如下:
5.5 對貓狗圖像進(jìn)行2分類
6 最后
?? 更多資料, 項(xiàng)目分享:
https://gitee.com/dancheng-senior/postgraduate
到了這里,關(guān)于競賽選題 深度學(xué)習(xí)動(dòng)物識別 - 卷積神經(jīng)網(wǎng)絡(luò) 機(jī)器視覺 圖像識別的文章就介紹完了。如果您還想了解更多內(nèi)容,請?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!