0 前言
?? 這兩年開始畢業(yè)設(shè)計和畢業(yè)答辯的要求和難度不斷提升,傳統(tǒng)的畢設(shè)題目缺少創(chuàng)新和亮點,往往達不到畢業(yè)答辯的要求,這兩年不斷有學弟學妹告訴學長自己做的項目系統(tǒng)達不到老師的要求。
為了大家能夠順利以及最少的精力通過畢設(shè),學長分享優(yōu)質(zhì)畢業(yè)設(shè)計項目,今天要分享的是
?? 單片機 圖像分類 智能識別機器人 - 物聯(lián)網(wǎng) 嵌入式 AI
??學長這里給一個題目綜合評分(每項滿分5分)
- 難度系數(shù):4分
- 工作量:4分
- 創(chuàng)新點:3分
1 項目背景
我們正面臨著越來越多的嵌入機器學習革命。而當我們談到機器學習(ML)時,首先想到的就是圖像分類,一種 ML Hello World!
ESP32-CAM 是最受歡迎且價格合理的已集成攝像頭的開發(fā)板之一,它結(jié)合了 Espressif ESP32-S MCU 芯片和 ArduCam
OV2640 攝像頭。
ESP32 芯片功能強大,甚至可以處理圖像。它包括 I2C、SPI、UART 通信以及 PWM 和 DAC 輸出。
參數(shù):
- 工作電壓:4.75-5.25V
- 飛濺:默認 32Mbit
- RAM:內(nèi)部 520KB + 外部 8MB PSRAM
- 無線網(wǎng)絡(luò):802.11b/g/n/e/i
- 藍牙:藍牙 4.2BR/EDR 和 BLE 標準
- 支持接口(2Mbps):UART、SPI、I2C、PWM
- 支持TF卡:最大支持4G
- IO口:9
- 串口速率:默認115200bps
- 頻譜范圍:2400 ~2483.5MHz
- 天線形式:板載PCB天線,增益2dBi
- 圖像輸出格式:JPEG(僅支持OV2640)、BMP、GRAYSCALE
下面,一般電路板引腳排列:
請注意,此設(shè)備沒有集成 USB-TTL 串行模塊,因此要將代碼上傳到 ESP32-CAM 需要一個特殊的適配器,如下所示:
或 USB-TTL 串行轉(zhuǎn)換適配器如下:
2 在 Arduino IDE 上安裝 ESP32-Cam
從 Arduino IDE 打開首選項窗口并轉(zhuǎn)到:Arduino >偏好
使用以下行輸入:
https://dl.espressif.com/dl/package_esp32_index.json
在 Additional Board Manager URLs 中輸入下圖內(nèi)容
接著,打開 boards manager,轉(zhuǎn)到Tools > Board > Boards Manager…并使用esp32
輸入。選擇并安裝最新的軟件包
選擇 ESP32 開發(fā)板:
- 例如,AI-Thinker ESP32-CAM
最后別忘記選擇連接 ESP32-Cam的端口。
這就對了!設(shè)備應該沒問題。讓我們做一些測試。
3 用 BLINK 測試電路板
ESP32-CAM 有一個與 GPIO33 連接的內(nèi)置 LED。因此,相應地更改 Blink 草圖:
?
#define LED_BUILT_IN 33
void setup() {
pinMode(LED_BUILT_IN, OUTPUT); // Set the pin as output
}
// Remember that the pin work with inverted logic
// LOW to Turn on and HIGH to turn off
void loop() {
digitalWrite(LED_BUILT_IN, LOW); //Turn on
delay (1000); //Wait 1 sec
digitalWrite(LED_BUILT_IN, HIGH); //Turn off
delay (1000); //Wait 1 sec
}
特別提醒,LED 位于電路板下方。
4 測試 WiFi
ESP32S 的聲音特性之一是其 WiFi 功能。所以,讓我們測試一下它的收音機,掃描它周圍的 wifi 網(wǎng)絡(luò)。你可以做到這一點,運行板附帶的代碼示例之一。
轉(zhuǎn)到 Arduino IDE 示例并查找WiFI ==> WiFIScan
在串行監(jiān)視器上,您應該會看到設(shè)備范圍內(nèi)的 wifi 網(wǎng)絡(luò)(SSID 和 RSSI)。這是我在家里得到的:
5 測試相機
對于相機測試,您可以使用以下代碼:
示例 ==> ESP32 ==> 相機 ==> CameraWebServer
只選擇合適的相機:
#define CAMERA_MODEL_AI_THINKER
并使用網(wǎng)絡(luò)憑據(jù)輸入:
const char* ssid = "*********";
const char* psd = "*********";
---
在串行監(jiān)視器上,您將獲得正確的地址來運行您可以控制攝像機的服務(wù)器:
這里我輸入的是:http: //172.16.42.26
6 運行你的網(wǎng)絡(luò)服務(wù)器
到目前為止,我們可以測試所有 ESP32-Cam 硬件(MCU 和攝像頭)以及 wifi
連接?,F(xiàn)在,讓我們運行一個更簡單的代碼來捕獲單個圖像并將其呈現(xiàn)在一個簡單的網(wǎng)頁上。本代碼基于 Rui Santos 偉大的教程:ESP32-CAM
Take Photo and Display in Web Server
開發(fā)
從 GitHub
下載文件:ESP332_CAM_HTTP_Server_STA
,更改 wifi 憑據(jù)并運行代碼。結(jié)果如下:
嘗試檢查代碼;更容易理解相機的工作原理。
7 水果與蔬菜 - 圖像分類
現(xiàn)在我們已經(jīng)運行了嵌入式相機,是時候嘗試圖像分類了。
我們應該開始訓練模型并繼續(xù)在 ESP32-CAM 上進行推理。我們需要找到大量的數(shù)據(jù)用于訓練模型。
TinyML
是一組與嵌入式設(shè)備上的機器學習推理相關(guān)的技術(shù),由于限制(在這種情況下主要是內(nèi)存),我們應該將分類限制為三到四個類別。我們將蘋果與香蕉和土豆區(qū)分開來(您可以嘗試其他類別)。
因此,讓我們找到一個包含這些類別的圖像的特定數(shù)據(jù)集。Kaggle 是一個好的開始:
https://www.kaggle.com/kritikseth/fruit-and-vegetable-image-recognition
該數(shù)據(jù)集包含以下食品的圖像:
- 水果-香蕉、蘋果、梨、葡萄、橙子、獼猴桃、西瓜、石榴、菠蘿、芒果。
- 蔬菜- 黃瓜、胡蘿卜、辣椒、洋蔥、土豆、檸檬、番茄、蘿卜、甜菜根、卷心菜、生菜、菠菜、大豆、花椰菜、甜椒、辣椒、蘿卜、玉米、甜玉米、紅薯、辣椒粉、墨西哥胡椒、姜、 大蒜、 豌豆、 茄子。
- 每個類別分為訓練(100 張圖像)、測試(10 張圖像)和驗證(10 張圖像)。
- 將數(shù)據(jù)集從 Kaggle 網(wǎng)站下載到您的計算機。
使用 Edge Impulse Studio 訓練模型
我們將使用 Edge Impulse 進行培訓,這是在邊緣設(shè)備上進行機器學習的領(lǐng)先開發(fā)平臺。
在 Edge Impulse 輸入您的帳戶憑據(jù)(或創(chuàng)建一個免費帳戶)。接下來,創(chuàng)建一個新項目:
數(shù)據(jù)采集
接下來,在上傳數(shù)據(jù)部分,從您的計算機上傳所選類別的文件:
如果您以三類數(shù)據(jù)結(jié)束,閱讀培訓會有所幫助
您還可以上傳額外的數(shù)據(jù)以進行進一步的模型測試或拆分訓練數(shù)據(jù)。
沖動設(shè)計
脈沖獲取原始數(shù)據(jù)(在本例中為圖像),提取特征(調(diào)整圖片大?。?,然后使用學習塊對新數(shù)據(jù)進行分類。
如前所述,對圖像進行分類是深度學習最常見的用途,但要完成這項任務(wù)需要使用大量數(shù)據(jù)。每個類別我們有大約 90
張圖片。這個數(shù)字夠嗎?一點也不!我們將需要數(shù)千張圖像來“教授或建模”以區(qū)分蘋果和香蕉。但是,我們可以通過使用數(shù)千張圖像重新訓練先前訓練的模型來解決這個問題。我們將這種技術(shù)稱為“遷移學習”(TL)。
使用 TL,我們可以在我們的數(shù)據(jù)上微調(diào)預訓練的圖像分類模型,即使在相對較小的圖像數(shù)據(jù)集(我們的案例)中也能達到良好的性能。
因此,從原始圖像開始,我們將調(diào)整它們的大?。?6x96)像素,然后將它們提供給我們的遷移學習塊:
預處理(特征生成)
除了調(diào)整圖像大小外,我們還應該將它們更改為灰度,以保持實際的 RGB 顏色深度。這樣做,我們的每個數(shù)據(jù)樣本都將具有 9 維、216 個特征
(96x96x1)。保持RGB,這個尺寸會大三倍。使用灰度有助于減少推理所需的最終內(nèi)存量。
不要忘記“保存參數(shù)”。這將生成要在訓練中使用的特征。
培訓(遷移學習和數(shù)據(jù)增強)
2007 年,Google
推出了[MobileNetV1](https://research.googleblog.com/2017/06/mobilenets-open-
source-models-for.html),這是一個通用計算機視覺神經(jīng)網(wǎng)絡(luò)系列,專為移動設(shè)備而設(shè)計,支持分類、檢測等。MobileNets
是小型、低延遲、低功耗的模型,參數(shù)化以滿足各種用例的資源限制。
盡管基本的 MobileNet
架構(gòu)已經(jīng)很小并且具有低延遲,但很多時候,特定用例或應用程序可能需要模型更小更快。為了構(gòu)建這些更小且計算成本更低的模型,MobileNet
引入了一個非常簡單的參數(shù)α (alpha),稱為寬度乘數(shù)。寬度乘數(shù) α 的作用是在每一層均勻地細化網(wǎng)絡(luò)。
Edge Impulse Studio 提供 MobileNet V1(96x96 圖像)和 V2(96x96 和 160x160
圖像),具有多個不同的α值(從 0.05 到 1.0)。例如,對于 V2、160x160 圖像和
α=1.0,您將獲得最高準確度。當然,有一個權(quán)衡。精度越高,運行模型所需的內(nèi)存就越多(大約 1.3M RAM 和 2.6M ROM),這意味著更多的延遲。
在另一個極端,使用 MobileNet V1 和 α=0.10(大約 53.2K RAM 和 101K ROM)將獲得更小的占用空間。
為了在 ESP32-CAM 上運行這個項目,我們應該停留在可能性的較低端,保證推理的情況,但不能保證高精度。
與深度學習一起使用的另一項必要技術(shù)是數(shù)據(jù)增強。數(shù)據(jù)增強是一種可以幫助提高機器學習模型準確性的方法。數(shù)據(jù)增強系統(tǒng)在訓練過程中(如翻轉(zhuǎn)、裁剪或旋轉(zhuǎn)圖像)對訓練數(shù)據(jù)進行小的、隨機的更改。
在這里,您可以看到 Edge Impulse 如何對您的數(shù)據(jù)實施數(shù)據(jù)增強策略:
# Implements the data augmentation policy
def augment_image(image, label):
# Flips the image randomly
image = tf.image.random_flip_left_right(image)
# Increase the image size, then randomly crop it down to
# the original dimensions
resize_factor = random.uniform(1, 1.2)
new_height = math.floor(resize_factor * INPUT_SHAPE[0])
new_width = math.floor(resize_factor * INPUT_SHAPE[1])
image = tf.image.resize_with_crop_or_pad(image, new_height, new_width)
image = tf.image.random_crop(image, size=INPUT_SHAPE)
# Vary the brightness of the image
image = tf.image.random_brightness(image, max_delta=0.2)
return image, label
---
在訓練期間暴露于這些變化可以幫助防止模型通過“記憶”訓練數(shù)據(jù)中的表面線索而走捷徑,這意味著它可以更好地反映數(shù)據(jù)集中深層的潛在模式。
我們模型的最后一層將有 16 個神經(jīng)元,其中 10% 的 dropout 用于防止過擬合。這是訓練輸出:
結(jié)果不是很好。該模型達到了大約 77% 的準確率,但預計在推理期間使用的 RAM 內(nèi)存量非常?。ù蠹s 60 KB),這非常好。
部署
訓練后的模型將部署為 .zip Arduino 庫,用于特定的 ESP32-Cam 代碼。
打開您的 Arduino IDE 并在Sketch 下,轉(zhuǎn)到Include Library并添加.ZIP Library。選擇您剛剛從 Edge
Impulse Studio 下載的文件,就是這樣!
在Arduino IDE 的示例選項卡下,您應該在項目名稱下找到一個草圖代碼。
打開靜態(tài)緩沖區(qū)示例:
您可以看到,第一段代碼正是調(diào)用了一個庫,該庫具有在您的設(shè)備上運行推理所需的一切。
#include <ESP32-CAM-Fruit-vs-Veggies_inferencing.h>
當然,這是一個通用代碼(一個“模板”),它只獲取一個原始數(shù)據(jù)樣本(存儲在變量中:features = {} 并運行分類器,進行推理。結(jié)果顯示在串行監(jiān)視器上。
我們應該做的是從相機中獲取樣本(圖像),對其進行預處理(調(diào)整為
96x96,轉(zhuǎn)換為灰度并平整它。這將是我們模型的輸入張量。輸出張量將是一個包含三個值,顯示每個類的概率。
在網(wǎng)站上:https ??/github.com/edgeimpulse/example-
esp32-cam,Edge impulse
改編了可用于相機測試的代碼(示例 ==> ESP32 ==> 相機 ==> CameraWebServer),包括必要的在 ESP32-CAM
上運行推理。在 GitHub 上,下載代碼[Basic-Image-
Classification](https://github.com/edgeimpulse/example-
esp32-cam/tree/main/Examples/Basic-Image-Classification),包括您的項目庫,選擇您的相機和您的
wifi 網(wǎng)絡(luò)憑據(jù):
將代碼上傳到您的 ESP32-Cam,您應該可以開始對水果和蔬菜進行分類了!您可以在串行監(jiān)視器上檢查它:
測試模型(推理)
用相機拍照,分類結(jié)果會出現(xiàn)在串口監(jiān)視器上:
可以在網(wǎng)頁上驗證相機捕獲的圖像:
其他測試:
文章來源:http://www.zghlxwxcb.cn/news/detail-809819.html
8 結(jié)論
ESP32-Cam 是一種非常靈活、不昂貴且易于編程的設(shè)備。該項目可以證明 TinyML的潛力,但我不確定整體結(jié)果是否可以應用于實際應用程序(以開發(fā)的方式)。只有最小的遷移學習模型才能正常工作(MobileNet-V1,α=0.10),任何使用更大的α來提高準確性的嘗試都會導致 Arena分配錯誤??赡艿脑蛑皇沁\行相機的最終通用代碼中已經(jīng)使用的內(nèi)存量。因此,項目的下一步是優(yōu)化最終代碼,釋放更多內(nèi)存用于運行模型。文章來源地址http://www.zghlxwxcb.cn/news/detail-809819.html
9 最后
到了這里,關(guān)于單片機項目分享 單片機 圖像分類 智能識別機器人 - 物聯(lián)網(wǎng) 深度學習 AI的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!