国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

Meta的分割一切模型SAM( Segment Anything )測試

這篇具有很好參考價(jià)值的文章主要介紹了Meta的分割一切模型SAM( Segment Anything )測試。希望對(duì)大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請(qǐng)大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問。

Meta不久前開源發(fā)布了一款圖像處理模型,即分割一切模型:Segment Anything Model,簡稱 SAM,號(hào)稱要從任意一張圖片中分割萬物,源碼地址為:

https://github.com/facebookresearch/segment-anything

打開后看到目錄結(jié)構(gòu)大概這樣:
Meta的分割一切模型SAM( Segment Anything )測試
一般一個(gè)開源項(xiàng)目中都會(huì)有項(xiàng)目介紹和示例代碼。本示例中的文件 README.md 即為項(xiàng)目概況介紹,主要說明了使用 SAM 模型需要的 python 環(huán)境安裝方法,和 SAM 的使用方法。notebooks 文件夾內(nèi)是幾個(gè) jupyter notebook 格式的 python 示例代碼。

運(yùn)行示例代碼步驟如下:
1、按照 README.md 文件所述,逐步安裝所有依賴庫。記得 python 要安裝3.8,3.9, 3.10 其中的一個(gè),目前不建議安裝 3.11,因?yàn)闀?huì)和最新的 pytorch 不兼容。
2、安裝 jupyter。
3、下載模型文件到本地:點(diǎn)擊 README.md 文件中的模型下載鏈接,即可下載指定的模型:
Meta的分割一切模型SAM( Segment Anything )測試
模型總共有三個(gè),其中 vit-h 最大,有越 2G ,fit-l 為 1.2G, vit-b 最小為 366M。我測試了 最小的 vit-b。

4、運(yùn)行 jupyter notebook ,打開示例文件 automatic_mask_generator_example.ipynb,修改以下兩行:
Meta的分割一切模型SAM( Segment Anything )測試
即模型文件路徑和 設(shè)備類型( 使用 cpu 還是 gpu, 如果是gpu則設(shè)置為 cuda, 是 cpu 的話設(shè)為 cpu 即可 )。

5、將 automatic_mask_generator_example.ipynb 文件內(nèi)的所有代碼運(yùn)行一遍,會(huì)自動(dòng)從網(wǎng)上下載一個(gè)圖片進(jìn)行原圖顯示和 mask 處理,最后會(huì)得出 圖片處理的 mask 結(jié)果:
Meta的分割一切模型SAM( Segment Anything )測試

總結(jié):

1、SAM 模型確實(shí)很強(qiáng)大,唯一缺點(diǎn)可能是運(yùn)行比較消耗資源,如果是普通 cpu,運(yùn)行起來會(huì)非常慢。我的 cpu 是 Intel? Core? i7-7500U CPU @ 2.70GHz 2.90 GHz,內(nèi)存是 8G,筆記本為華為 MateBook X,用的是最小的模型,mask 處理用了足足有至少半分鐘,或者更久。等了一會(huì)兒發(fā)現(xiàn)還沒結(jié)果,就只好先去洗澡。洗完澡發(fā)現(xiàn)結(jié)果出來了。。土豪們可以用 GPU 嘗試,相信一定快很多。
2、實(shí)際操練難點(diǎn)可能在于環(huán)境的搭建,晚點(diǎn)介紹環(huán)境安裝。如果安裝過程中發(fā)現(xiàn)某些步驟不成功,可以嘗試跳過該步驟繼續(xù)下一步,最后仍然嘗試運(yùn)行腳本,可能也可以。

祝大家進(jìn)步!文章來源地址http://www.zghlxwxcb.cn/news/detail-426738.html

到了這里,關(guān)于Meta的分割一切模型SAM( Segment Anything )測試的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場。本站僅提供信息存儲(chǔ)空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請(qǐng)注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請(qǐng)點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • Segment Anything Model (SAM)——卷起來了,那個(gè)號(hào)稱分割一切的CV大模型他來了

    Segment Anything Model (SAM)——卷起來了,那個(gè)號(hào)稱分割一切的CV大模型他來了

    最近每天打開微信看到10個(gè)公眾號(hào)里面差不多有11個(gè)都在各種玩賺chatGPT,每個(gè)都在說是各種大好風(fēng)口,哎,看得眼睛都是累的。 今天下午無意間看到Meta發(fā)布了一款號(hào)稱能分割一切的CV大模型,CV圈也開始卷起來,今年各種大模型要爆發(fā)了感覺。 吃瓜群眾滿懷好奇,點(diǎn)開了解一

    2023年04月10日
    瀏覽(27)
  • 【CV大模型SAM(Segment-Anything)】真是太強(qiáng)大了,分割一切的SAM大模型使用方法:可通過不同的提示得到想要的分割目標(biāo)

    【CV大模型SAM(Segment-Anything)】真是太強(qiáng)大了,分割一切的SAM大模型使用方法:可通過不同的提示得到想要的分割目標(biāo)

    本文主要介紹SAM模型的使用方法:如何使用不同的提示進(jìn)行目標(biāo)分割。而且該模型在CPU的環(huán)境下就可以快速運(yùn)行,真心不錯(cuò)~,趕緊來試試吧 關(guān)于Segment-Anything模型的 相關(guān)代碼、論文PDF、預(yù)訓(xùn)練模型、使用方法 等,我都已打包好,供需要的小伙伴交流研究, 獲取方式如下 : 關(guān)

    2023年04月18日
    瀏覽(29)
  • Meta AI最新出品,全能的分割模型SAM:掀桌子的Segment Anything,CV屆的ChatGPT已經(jīng)到來!

    Meta AI最新出品,全能的分割模型SAM:掀桌子的Segment Anything,CV屆的ChatGPT已經(jīng)到來!

    本來不打算再發(fā)關(guān)于分割的相關(guān)內(nèi)容的,但是13小時(shí)前,2023年4月5號(hào),Meta AI在Arxiv網(wǎng)站發(fā)布了文章《Segment Anything》,并將SAM模型代碼和數(shù)據(jù)開源。作為通用的分割網(wǎng)絡(luò),SAM或許將成為,甚至是已經(jīng)成為了CV屆的ChatGPT。簡簡單單的兩個(gè)詞Segment Anything,簡單粗暴卻不失優(yōu)雅。 說

    2023年04月15日
    瀏覽(23)
  • Segment Anything Model (SAM)——分割一切,具有預(yù)測提示輸入的圖像分割實(shí)踐

    Segment Anything Model (SAM)——分割一切,具有預(yù)測提示輸入的圖像分割實(shí)踐

    不得不說,最近的AI技術(shù)圈很火熱,前面的風(fēng)頭大都是chatGPT的,自從前提Meta發(fā)布了可以分割一切的CV大模型之后,CV圈也熱起來了,昨天只是初步了解了一下SAM,然后寫了一篇基礎(chǔ)介紹說明的博客,早上一大早起來已經(jīng)有2k左右的閱讀量了。 ?我果斷跑去官方項(xiàng)目地址看下:

    2023年04月19日
    瀏覽(29)
  • 使用 java-onnx 部署 Meta-ai Segment anything 分割一切

    使用 java-onnx 部署 Meta-ai Segment anything 分割一切

    ? 近日,Meta AI在官網(wǎng)發(fā)布了基礎(chǔ)模型 Segment Anything Model(SAM)并開源,其本質(zhì)是用GPT的方式(基于Transform 模型架構(gòu))讓計(jì)算機(jī)具備理解了圖像里面的一個(gè)個(gè)“對(duì)象”的通用能力。SAM模型建立了一個(gè)可以接受文本提示、基于海量數(shù)據(jù)(603138)訓(xùn)練而獲得泛化能力的圖像分割大模型

    2024年02月05日
    瀏覽(24)
  • 【Meta-AI】Sam-分割一切 測試

    【Meta-AI】Sam-分割一切 測試

    ? 【什么是?SAM】 ? 近日,Meta AI在官網(wǎng)發(fā)布了基礎(chǔ)模型 Segment Anything Model(SAM)并開源,其本質(zhì)是用GPT的方式(基于Transform 模型架構(gòu))讓計(jì)算機(jī)具備理解了圖像里面的一個(gè)個(gè)“對(duì)象”的通用能力。SAM模型建立了一個(gè)可以接受文本提示、基于海量數(shù)據(jù)(603138)訓(xùn)練而獲得泛化能力

    2024年02月12日
    瀏覽(24)
  • 【圖像分割】Meta分割一切(SAM)模型環(huán)境配置和使用教程

    【圖像分割】Meta分割一切(SAM)模型環(huán)境配置和使用教程

    注意: python=3.8 , pytorch=1.7, torchvision=0.8 Feel free to ask any question. 遇到問題歡迎評(píng)論區(qū)討論. 官方教程: (1)pip: 有可能出現(xiàn)錯(cuò)誤,需要配置好Git。 (2)本地安裝: 有可能出現(xiàn)錯(cuò)誤,需要配置好Git。 (3)手動(dòng)下載+手動(dòng)本地安裝: ?zip文件: 解壓后運(yùn)行:? matplotlib 3.7.1和

    2023年04月12日
    瀏覽(34)
  • 計(jì)算機(jī)視覺:分割一切AI大模型segment-anything

    計(jì)算機(jī)視覺:分割一切AI大模型segment-anything

    Segment Anything Model (SAM)來源于Facebook公司Meta AI實(shí)驗(yàn)室。據(jù)Mata實(shí)驗(yàn)室介紹,SAM 已經(jīng)學(xué)會(huì)了關(guān)于物體的一般概念,并且它可以為任何圖像或視頻中的任何物體生成 mask,甚至包括在訓(xùn)練過程中沒有遇到過的物體和圖像類型。SAM 足夠通用,可以涵蓋廣泛的用例,并且可以在新的圖像

    2024年02月11日
    瀏覽(26)
  • 【Python&語義分割】Segment Anything(SAM)模型介紹&安裝教程

    【Python&語義分割】Segment Anything(SAM)模型介紹&安裝教程

    1.1 概況 ????????Meta AI 公司的 Segment Anything 模型是一項(xiàng)革命性的技術(shù),該模型能夠根據(jù)文本指令或圖像識(shí)別,實(shí)現(xiàn)對(duì)任意物體的識(shí)別和分割。這一模型的推出,將極大地推動(dòng)計(jì)算機(jī)視覺領(lǐng)域的發(fā)展,并使得圖像分割技術(shù)進(jìn)一步普及化。 ? ? ? ? 論文地址:https://arxiv.org/

    2024年02月05日
    瀏覽(43)
  • 【Python&語義分割】Segment Anything(SAM)模型全局語義分割代碼+掩膜保存(二)

    【Python&語義分割】Segment Anything(SAM)模型全局語義分割代碼+掩膜保存(二)

    我上篇博文分享了Segment Anything(SAM)模型的基本操作,這篇給大家分享下官方的整張圖片的語義分割代碼(全局),同時(shí)我還修改了一部分支持掩膜和疊加影像的保存。 1.1 概況 ????????Meta AI 公司的 Segment Anything 模型是一項(xiàng)革命性的技術(shù),該模型能夠根據(jù)文本指令或圖像

    2024年02月03日
    瀏覽(24)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請(qǐng)作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包