Meta不久前開源發(fā)布了一款圖像處理模型,即分割一切模型:Segment Anything Model,簡稱 SAM,號(hào)稱要從任意一張圖片中分割萬物,源碼地址為:
https://github.com/facebookresearch/segment-anything
打開后看到目錄結(jié)構(gòu)大概這樣:
一般一個(gè)開源項(xiàng)目中都會(huì)有項(xiàng)目介紹和示例代碼。本示例中的文件 README.md 即為項(xiàng)目概況介紹,主要說明了使用 SAM 模型需要的 python 環(huán)境安裝方法,和 SAM 的使用方法。notebooks 文件夾內(nèi)是幾個(gè) jupyter notebook 格式的 python 示例代碼。
運(yùn)行示例代碼步驟如下:
1、按照 README.md 文件所述,逐步安裝所有依賴庫。記得 python 要安裝3.8,3.9, 3.10 其中的一個(gè),目前不建議安裝 3.11,因?yàn)闀?huì)和最新的 pytorch 不兼容。
2、安裝 jupyter。
3、下載模型文件到本地:點(diǎn)擊 README.md 文件中的模型下載鏈接,即可下載指定的模型:
模型總共有三個(gè),其中 vit-h 最大,有越 2G ,fit-l 為 1.2G, vit-b 最小為 366M。我測試了 最小的 vit-b。
4、運(yùn)行 jupyter notebook ,打開示例文件 automatic_mask_generator_example.ipynb,修改以下兩行:
即模型文件路徑和 設(shè)備類型( 使用 cpu 還是 gpu, 如果是gpu則設(shè)置為 cuda, 是 cpu 的話設(shè)為 cpu 即可 )。
5、將 automatic_mask_generator_example.ipynb 文件內(nèi)的所有代碼運(yùn)行一遍,會(huì)自動(dòng)從網(wǎng)上下載一個(gè)圖片進(jìn)行原圖顯示和 mask 處理,最后會(huì)得出 圖片處理的 mask 結(jié)果:
總結(jié):
1、SAM 模型確實(shí)很強(qiáng)大,唯一缺點(diǎn)可能是運(yùn)行比較消耗資源,如果是普通 cpu,運(yùn)行起來會(huì)非常慢。我的 cpu 是 Intel? Core? i7-7500U CPU @ 2.70GHz 2.90 GHz,內(nèi)存是 8G,筆記本為華為 MateBook X,用的是最小的模型,mask 處理用了足足有至少半分鐘,或者更久。等了一會(huì)兒發(fā)現(xiàn)還沒結(jié)果,就只好先去洗澡。洗完澡發(fā)現(xiàn)結(jié)果出來了。。土豪們可以用 GPU 嘗試,相信一定快很多。
2、實(shí)際操練難點(diǎn)可能在于環(huán)境的搭建,晚點(diǎn)介紹環(huán)境安裝。如果安裝過程中發(fā)現(xiàn)某些步驟不成功,可以嘗試跳過該步驟繼續(xù)下一步,最后仍然嘗試運(yùn)行腳本,可能也可以。文章來源:http://www.zghlxwxcb.cn/news/detail-426738.html
祝大家進(jìn)步!文章來源地址http://www.zghlxwxcb.cn/news/detail-426738.html
到了這里,關(guān)于Meta的分割一切模型SAM( Segment Anything )測試的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!