国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

計(jì)算機(jī)競(jìng)賽 基于深度學(xué)習(xí)的動(dòng)物識(shí)別 - 卷積神經(jīng)網(wǎng)絡(luò) 機(jī)器視覺 圖像識(shí)別

這篇具有很好參考價(jià)值的文章主要介紹了計(jì)算機(jī)競(jìng)賽 基于深度學(xué)習(xí)的動(dòng)物識(shí)別 - 卷積神經(jīng)網(wǎng)絡(luò) 機(jī)器視覺 圖像識(shí)別。希望對(duì)大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請(qǐng)大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問。

0 前言

?? 優(yōu)質(zhì)競(jìng)賽項(xiàng)目系列,今天要分享的是

基于深度學(xué)習(xí)的動(dòng)物識(shí)別算法研究與實(shí)現(xiàn)

該項(xiàng)目較為新穎,適合作為競(jìng)賽課題方向,學(xué)長(zhǎng)非常推薦!

?? 更多資料, 項(xiàng)目分享:

https://gitee.com/dancheng-senior/postgraduate文章來源地址http://www.zghlxwxcb.cn/news/detail-701815.html

1 背景

目前,由于計(jì)算機(jī)能力和相關(guān)理論的發(fā)展獲得了重大突破,基于深度學(xué)習(xí)的圖像檢測(cè)與識(shí)別技術(shù)已經(jīng)廣泛應(yīng)用到人們的生產(chǎn)生活中。學(xué)長(zhǎng)將深度學(xué)習(xí)的技術(shù)應(yīng)用到野生動(dòng)物圖像識(shí)別中,優(yōu)化了傳統(tǒng)的識(shí)別方法,形成對(duì)野生動(dòng)物圖像更為準(zhǔn)確的識(shí)別,為實(shí)現(xiàn)高效的野生動(dòng)物圖像識(shí)別提供了可能。不同于傳統(tǒng)的野生動(dòng)物識(shí)別,基于深度學(xué)習(xí)的野生動(dòng)物識(shí)別技術(shù)可以捕獲到野生動(dòng)物更加細(xì)致的信息,有利于對(duì)野生動(dòng)物進(jìn)行更加準(zhǔn)確的識(shí)別和研究。因此,對(duì)基于深度學(xué)習(xí)的野生動(dòng)物識(shí)別和研究,可以更好的幫助社會(huì)管理者和政府全面有效的對(duì)野生動(dòng)物進(jìn)行保護(hù)和監(jiān)管,這也正是保護(hù)和識(shí)別野生動(dòng)物的關(guān)鍵,同時(shí)這對(duì)整個(gè)自然和社會(huì)的和諧發(fā)展具有極大的推動(dòng)作用。

2 算法原理

2.1 動(dòng)物識(shí)別方法概況

基于人工特征的野生動(dòng)物識(shí)別方法主要通過人工對(duì)野生動(dòng)物圖像中具有辨識(shí)度的特征信息進(jìn)行提取,并通過特征比對(duì)的方式就可以對(duì)野生動(dòng)物所屬的類別進(jìn)行識(shí)別判斷。

在深度學(xué)習(xí)技術(shù)普及之前,傳統(tǒng)的數(shù)字圖像處理技術(shù)與傳統(tǒng)機(jī)器學(xué)習(xí)技術(shù)一直是研究的熱點(diǎn)。傳統(tǒng)的數(shù)字圖像處理技術(shù)有模塊分割、降低噪聲點(diǎn)、邊緣檢測(cè)等方法。傳統(tǒng)的機(jī)器學(xué)習(xí)技術(shù)有支持向量機(jī)、隨機(jī)森林算法、BP
神經(jīng)網(wǎng)絡(luò)算法等。

深度學(xué)習(xí)技術(shù)是通過計(jì)算機(jī)模擬人類大腦的分層表達(dá)結(jié)構(gòu)來建立網(wǎng)絡(luò)模型,從原始數(shù)據(jù)集中對(duì)相關(guān)信息逐層提取。之后通過建立相應(yīng)的神經(jīng)網(wǎng)絡(luò)對(duì)數(shù)據(jù)進(jìn)行學(xué)習(xí)和分析,從而提高對(duì)目標(biāo)預(yù)測(cè)和識(shí)別的準(zhǔn)確率。如今,深度學(xué)習(xí)技術(shù)已經(jīng)相對(duì)成熟,在對(duì)目標(biāo)進(jìn)行特征提取方面,卷積神經(jīng)網(wǎng)絡(luò)技術(shù)逐漸取代了傳統(tǒng)的圖像處理技術(shù),并且在人類的生產(chǎn)生活中得到了廣泛應(yīng)用,這為研究野生動(dòng)物更高效的識(shí)別方法奠定了基礎(chǔ)。

2.2 常用的網(wǎng)絡(luò)模型

圖像識(shí)別是指對(duì)原始圖像進(jìn)行整體分析來達(dá)到預(yù)測(cè)原始圖像所屬類別的技術(shù)。計(jì)算機(jī)視覺領(lǐng)域中對(duì)圖像識(shí)別技術(shù)進(jìn)行了優(yōu)化,與此同時(shí),深度學(xué)習(xí)技術(shù)也對(duì)圖像識(shí)別領(lǐng)域展開了突破。目前在圖像識(shí)別領(lǐng)域中,研究人員開始使用深度學(xué)習(xí)的技術(shù),并通過在實(shí)際應(yīng)用中發(fā)現(xiàn),基于深度學(xué)習(xí)的識(shí)別技術(shù)比傳統(tǒng)的識(shí)別技術(shù)效果更好,且更具有優(yōu)勢(shì)。

2.2.1 B-CNN

雙線性卷積神經(jīng)網(wǎng)絡(luò)(Bilinear
CNN,B-CNN)[34]是用兩個(gè)卷積神經(jīng)網(wǎng)絡(luò)對(duì)圖像進(jìn)行特征提取,然后使用相應(yīng)的函數(shù)將得到所有特征進(jìn)行組合,組合的數(shù)據(jù)帶入到分類器中進(jìn)行分類。

計(jì)算機(jī)競(jìng)賽 基于深度學(xué)習(xí)的動(dòng)物識(shí)別 - 卷積神經(jīng)網(wǎng)絡(luò) 機(jī)器視覺 圖像識(shí)別,python,java

2.2.2 SSD

經(jīng)典的 SSD 模型是由經(jīng)典網(wǎng)絡(luò)和特征提取網(wǎng)絡(luò)組成。

通過引入性能更好的特征提取網(wǎng)絡(luò)對(duì) SSD
目標(biāo)檢測(cè)模型進(jìn)行了優(yōu)化。Fu[49]等人提出了增加卷積神經(jīng)網(wǎng)絡(luò)層數(shù)和深度的方法用于提高識(shí)別準(zhǔn)確率。通過實(shí)際應(yīng)用之后,發(fā)現(xiàn)該方法識(shí)別準(zhǔn)確率確實(shí)得到了一定程度的提高,但是模型結(jié)構(gòu)卻越來越復(fù)雜,同時(shí)對(duì)深層次的網(wǎng)絡(luò)訓(xùn)練也越來越困難。

計(jì)算機(jī)競(jìng)賽 基于深度學(xué)習(xí)的動(dòng)物識(shí)別 - 卷積神經(jīng)網(wǎng)絡(luò) 機(jī)器視覺 圖像識(shí)別,python,java

3 SSD動(dòng)物目標(biāo)檢測(cè)流程

計(jì)算機(jī)競(jìng)賽 基于深度學(xué)習(xí)的動(dòng)物識(shí)別 - 卷積神經(jīng)網(wǎng)絡(luò) 機(jī)器視覺 圖像識(shí)別,python,java

學(xué)長(zhǎng)首先對(duì) DenseNet-169 網(wǎng)絡(luò)進(jìn)行初始化,使用 DenseNet-169 網(wǎng)絡(luò)作為目標(biāo)檢測(cè)的前置網(wǎng)絡(luò)結(jié)構(gòu),并運(yùn)用遷移學(xué)習(xí)的方法對(duì)
DenseNet-169 進(jìn)行預(yù)訓(xùn)練,并將Snapshot Serengeti數(shù)據(jù)集下的權(quán)重值遷移到野生動(dòng)物檢測(cè)任務(wù)中,使數(shù)據(jù)集的訓(xùn)練速度得到提升。將
DenseNet-169 作為前置網(wǎng)絡(luò)置于 SSD 中的目標(biāo)提取檢測(cè)網(wǎng)絡(luò)之前,更換完前置網(wǎng)絡(luò)的 SSD 目標(biāo)檢測(cè)網(wǎng)絡(luò)依然完整。

4 實(shí)現(xiàn)效果

計(jì)算機(jī)競(jìng)賽 基于深度學(xué)習(xí)的動(dòng)物識(shí)別 - 卷積神經(jīng)網(wǎng)絡(luò) 機(jī)器視覺 圖像識(shí)別,python,java
計(jì)算機(jī)競(jìng)賽 基于深度學(xué)習(xí)的動(dòng)物識(shí)別 - 卷積神經(jīng)網(wǎng)絡(luò) 機(jī)器視覺 圖像識(shí)別,python,java

做一個(gè)GUI交互界面

計(jì)算機(jī)競(jìng)賽 基于深度學(xué)習(xí)的動(dòng)物識(shí)別 - 卷積神經(jīng)網(wǎng)絡(luò) 機(jī)器視覺 圖像識(shí)別,python,java

5 部分相關(guān)代碼

5.1 數(shù)據(jù)預(yù)處理

?


    import cv2 as cv
    import os
    import numpy as np
    

    import random
    import pickle
    
    import time
    
    start_time = time.time()
    
    data_dir = './data'
    batch_save_path = './batch_files'
    
    # 創(chuàng)建batch文件存儲(chǔ)的文件夾
    os.makedirs(batch_save_path, exist_ok=True)
    
    # 圖片統(tǒng)一大?。?00 * 100
    # 訓(xùn)練集 20000:100個(gè)batch文件,每個(gè)文件200張圖片
    # 驗(yàn)證集 5000:一個(gè)測(cè)試文件,測(cè)試時(shí) 50張 x 100 批次
    
    # 進(jìn)入圖片數(shù)據(jù)的目錄,讀取圖片信息
    all_data_files = os.listdir(os.path.join(data_dir, 'train/'))
    
    # print(all_data_files)
    
    # 打算數(shù)據(jù)的順序
    random.shuffle(all_data_files)
    
    all_train_files = all_data_files[:20000]
    all_test_files = all_data_files[20000:]
    
    train_data = []
    train_label = []
    train_filenames = []
    
    test_data = []
    test_label = []
    test_filenames = []
    
    # 訓(xùn)練集
    for each in all_train_files:
        img = cv.imread(os.path.join(data_dir,'train/',each),1)
        resized_img = cv.resize(img, (100,100))
    
        img_data = np.array(resized_img)
        train_data.append(img_data)
        if 'cat' in each:
            train_label.append(0)
        elif 'dog' in each:
            train_label.append(1)
        else:
            raise Exception('%s is wrong train file'%(each))
        train_filenames.append(each)
    
    # 測(cè)試集
    for each in all_test_files:
        img = cv.imread(os.path.join(data_dir,'train/',each), 1)
        resized_img = cv.resize(img, (100,100))
    
        img_data = np.array(resized_img)
        test_data.append(img_data)
        if 'cat' in each:
            test_label.append(0)
        elif 'dog' in each:
            test_label.append(1)
        else:
            raise Exception('%s is wrong test file'%(each))
        test_filenames.append(each)
    
    print(len(train_data), len(test_data))
    
    # 制作100個(gè)batch文件
    start = 0
    end = 200
    for num in range(1, 101):
        batch_data = train_data[start: end]
        batch_label = train_label[start: end]
        batch_filenames = train_filenames[start: end]
        batch_name = 'training batch {} of 15'.format(num)
    
        all_data = {
        'data':batch_data,
        'label':batch_label,
        'filenames':batch_filenames,
        'name':batch_name
        }
    
        with open(os.path.join(batch_save_path, 'train_batch_{}'.format(num)), 'wb') as f:
            pickle.dump(all_data, f)
    
        start += 200
        end += 200
    
    # 制作測(cè)試文件
    all_test_data = {
        'data':test_data,
        'label':test_label,
        'filenames':test_filenames,
        'name':'test batch 1 of 1'
        }
    
    with open(os.path.join(batch_save_path, 'test_batch'), 'wb') as f:
        pickle.dump(all_test_data, f)
    
    end_time = time.time()
    print('制作結(jié)束, 用時(shí){}秒'.format(end_time - start_time))



5.2 構(gòu)建卷積神經(jīng)網(wǎng)絡(luò)

cnn卷積神經(jīng)網(wǎng)絡(luò)的編寫如下,編寫卷積層、池化層和全連接層的代碼

?


    conv1_1 = tf.layers.conv2d(x, 16, (3, 3), padding='same', activation=tf.nn.relu, name='conv1_1')
    conv1_2 = tf.layers.conv2d(conv1_1, 16, (3, 3), padding='same', activation=tf.nn.relu, name='conv1_2')
    pool1 = tf.layers.max_pooling2d(conv1_2, (2, 2), (2, 2), name='pool1')
    conv2_1 = tf.layers.conv2d(pool1, 32, (3, 3), padding='same', activation=tf.nn.relu, name='conv2_1')
    conv2_2 = tf.layers.conv2d(conv2_1, 32, (3, 3), padding='same', activation=tf.nn.relu, name='conv2_2')
    pool2 = tf.layers.max_pooling2d(conv2_2, (2, 2), (2, 2), name='pool2')
    conv3_1 = tf.layers.conv2d(pool2, 64, (3, 3), padding='same', activation=tf.nn.relu, name='conv3_1')
    conv3_2 = tf.layers.conv2d(conv3_1, 64, (3, 3), padding='same', activation=tf.nn.relu, name='conv3_2')
    pool3 = tf.layers.max_pooling2d(conv3_2, (2, 2), (2, 2), name='pool3')
    conv4_1 = tf.layers.conv2d(pool3, 128, (3, 3), padding='same', activation=tf.nn.relu, name='conv4_1')
    conv4_2 = tf.layers.conv2d(conv4_1, 128, (3, 3), padding='same', activation=tf.nn.relu, name='conv4_2')
    pool4 = tf.layers.max_pooling2d(conv4_2, (2, 2), (2, 2), name='pool4')
    

    flatten = tf.layers.flatten(pool4)
    fc1 = tf.layers.dense(flatten, 512, tf.nn.relu)
    fc1_dropout = tf.nn.dropout(fc1, keep_prob=keep_prob)
    fc2 = tf.layers.dense(fc1, 256, tf.nn.relu)
    fc2_dropout = tf.nn.dropout(fc2, keep_prob=keep_prob)
    fc3 = tf.layers.dense(fc2, 2, None)



5.3 tensorflow計(jì)算圖可視化

?


    self.x = tf.placeholder(tf.float32, [None, IMAGE_SIZE, IMAGE_SIZE, 3], 'input_data')
    self.y = tf.placeholder(tf.int64, [None], 'output_data')
    self.keep_prob = tf.placeholder(tf.float32)
    

    # 圖片輸入網(wǎng)絡(luò)中
    fc = self.conv_net(self.x, self.keep_prob)
    self.loss = tf.losses.sparse_softmax_cross_entropy(labels=self.y, logits=fc)
    self.y_ = tf.nn.softmax(fc) # 計(jì)算每一類的概率
    self.predict = tf.argmax(fc, 1)
    self.acc = tf.reduce_mean(tf.cast(tf.equal(self.predict, self.y), tf.float32))
    self.train_op = tf.train.AdamOptimizer(LEARNING_RATE).minimize(self.loss)
    self.saver = tf.train.Saver(max_to_keep=1)



最后的saver是要將訓(xùn)練好的模型保存到本地。

5.4 網(wǎng)絡(luò)模型訓(xùn)練

然后編寫訓(xùn)練部分的代碼,訓(xùn)練步驟為1萬步

?


    acc_list = []
    with tf.Session() as sess:
        sess.run(tf.global_variables_initializer())
    

        for i in range(TRAIN_STEP):
            train_data, train_label, _ = self.batch_train_data.next_batch(TRAIN_SIZE)
    
            eval_ops = [self.loss, self.acc, self.train_op]
            eval_ops_results = sess.run(eval_ops, feed_dict={
                self.x:train_data,
                self.y:train_label,
                self.keep_prob:0.7
            })
            loss_val, train_acc = eval_ops_results[0:2]
    
            acc_list.append(train_acc)
            if (i+1) % 100 == 0:
                acc_mean = np.mean(acc_list)
                print('step:{0},loss:{1:.5},acc:{2:.5},acc_mean:{3:.5}'.format(
                    i+1,loss_val,train_acc,acc_mean
                ))
            if (i+1) % 1000 == 0:
                test_acc_list = []
                for j in range(TEST_STEP):
                    test_data, test_label, _ = self.batch_test_data.next_batch(TRAIN_SIZE)
                    acc_val = sess.run([self.acc],feed_dict={
                        self.x:test_data,
                        self.y:test_label,
                        self.keep_prob:1.0
                })
                test_acc_list.append(acc_val)
                print('[Test ] step:{0}, mean_acc:{1:.5}'.format(
                    i+1, np.mean(test_acc_list)
                ))
        # 保存訓(xùn)練后的模型
        os.makedirs(SAVE_PATH, exist_ok=True)
        self.saver.save(sess, SAVE_PATH + 'my_model.ckpt')



訓(xùn)練結(jié)果如下:

計(jì)算機(jī)競(jìng)賽 基于深度學(xué)習(xí)的動(dòng)物識(shí)別 - 卷積神經(jīng)網(wǎng)絡(luò) 機(jī)器視覺 圖像識(shí)別,python,java

5.5 對(duì)貓狗圖像進(jìn)行2分類

計(jì)算機(jī)競(jìng)賽 基于深度學(xué)習(xí)的動(dòng)物識(shí)別 - 卷積神經(jīng)網(wǎng)絡(luò) 機(jī)器視覺 圖像識(shí)別,python,java

計(jì)算機(jī)競(jìng)賽 基于深度學(xué)習(xí)的動(dòng)物識(shí)別 - 卷積神經(jīng)網(wǎng)絡(luò) 機(jī)器視覺 圖像識(shí)別,python,java

6 最后

?? 更多資料, 項(xiàng)目分享:

https://gitee.com/dancheng-senior/postgraduate

到了這里,關(guān)于計(jì)算機(jī)競(jìng)賽 基于深度學(xué)習(xí)的動(dòng)物識(shí)別 - 卷積神經(jīng)網(wǎng)絡(luò) 機(jī)器視覺 圖像識(shí)別的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場(chǎng)。本站僅提供信息存儲(chǔ)空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請(qǐng)注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請(qǐng)點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請(qǐng)作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包