国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

CV界的chatgpt出現(xiàn)——Segment Anything能分割萬物

這篇具有很好參考價值的文章主要介紹了CV界的chatgpt出現(xiàn)——Segment Anything能分割萬物。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點擊"舉報違法"按鈕提交疑問。

一、前言

今天親手體驗了一下meta公司發(fā)布的Segment Anything,我們認(rèn)為是cv界的chatgpt,這個模型太厲害了,厲害到可以對任意一張圖進(jìn)行分割,他們的網(wǎng)站上的例子也是挺復(fù)雜的,能夠說明其強大的能力—demo鏈接,人工智能的技術(shù)迭代真是太快了。在模型的介紹中,有句話著實驚人——號稱:“SAM已經(jīng)學(xué)會了物體是什么的一般概念”:
CV界的chatgpt出現(xiàn)——Segment Anything能分割萬物

通常人們認(rèn)為,人工智能大致可以分為三個階段:

(1)弱人工智能(Weak AI)

弱人工智能(Weak AI)簡稱弱智,指特定場景解決特定領(lǐng)域的問題。比如前段時間出現(xiàn)的AlphaGo,實現(xiàn)了圍棋領(lǐng)域的的人工智能。

(2)強人工智能(General AI)

強人工智能更貼切的翻譯是通用人工智能,就是以ChatGPT為代表的完全人工智能,能夠適應(yīng)人類大部分甚至是所有工作領(lǐng)域的一類人工智能。可以說我們?nèi)缃?,正在處于通用人工智能技術(shù)突破的時間轉(zhuǎn)折點上。

(3)超人工智能(Super AI)

顧名思意,這個時候,人工智能在人類定義的”智能“領(lǐng)域已經(jīng)全面超過了人類,隨著量子計算等技術(shù)發(fā)展,相信實現(xiàn)是時間問題。真希望這個時代晚點到來,或者那時候,人類或許已經(jīng)和超人工智能實現(xiàn)了融合,成為了新一代的超人。也希望那個時代,人類的道德境界也實現(xiàn)了滿格。

二、SAM的一些介紹

2.1 模型的結(jié)構(gòu)是什么?

  • ViT-H 圖像編碼器,每個圖像運行一次并輸出圖像嵌入
  • 嵌入輸入提示(如單擊或框)的提示編碼器
  • 基于轉(zhuǎn)換器的輕量級掩碼解碼器,可從圖像嵌入和提示嵌入中預(yù)測對象掩碼

2.2 支持哪些類型的提示?

  • 前景/背景點
  • 邊界框
  • 遮罩

2.3 該模型使用什么平臺?

  • 圖像編碼器在 PyTorch 中實現(xiàn),需要 GPU 才能進(jìn)行高效推理。
  • 提示編碼器和掩碼解碼器可以直接使用 PyTroch 運行,也可以轉(zhuǎn)換為 ONNX,并在支持 ONNX 運行時的各種平臺上的 CPU 或 GPU 上高效運行。

2.4 模型有多大?

  • 圖像編碼器具有632M參數(shù)。
  • 提示編碼器和掩碼解碼器具有4M參數(shù)。

2.5 推理需要多長時間?

  • 圖像編碼器在 NVIDIA A0 GPU 上需要 ~15.100 秒。(沒查到這款GPU,有知情的評論區(qū)告知)
  • 提示編碼器和掩碼解碼器在瀏覽器中使用多線程 SIMD 執(zhí)行的 CPU 上占用 ~50 毫秒。

2.6 訓(xùn)練模型需要多長時間?

  • 該模型在 3 個 A5 GPU 上訓(xùn)練了 256-100 天。

2.7 模型是在哪些數(shù)據(jù)上訓(xùn)練的?

  • 該模型在meta的SA-1B數(shù)據(jù)集上進(jìn)行了訓(xùn)練。

2.8 模型是否生成掩碼標(biāo)簽?

  • 否,模型僅預(yù)測對象掩碼,不生成標(biāo)簽。

三、象棋摳圖測試

筆者上傳了自己的一個棋盤圖片,利用Segment Anything提供的模型工具進(jìn)行了測試,測試結(jié)果發(fā)現(xiàn),能夠很好地?fù)赋銎灞P中的棋子。

3.1、圖片上傳

CV界的chatgpt出現(xiàn)——Segment Anything能分割萬物

3.2、鼠標(biāo)物體響應(yīng)

上傳后,通過一點時間的識別后,把鼠標(biāo)放到圖片上面,就可以對上面的棋子做出響應(yīng),顯然自動分離出了棋子棋盤。有一點厲害的是,它把棋子的厚度也給識別出來,認(rèn)為也是棋子的一部分。
CV界的chatgpt出現(xiàn)——Segment Anything能分割萬物

3.3、一鍵扣圖

Segment Anything提供了手動框選分割功能,此外還有一個牛逼的功能是,自動對圖像進(jìn)行分割:
CV界的chatgpt出現(xiàn)——Segment Anything能分割萬物
點擊自動分割后,可以準(zhǔn)確的識別出棋子:
CV界的chatgpt出現(xiàn)——Segment Anything能分割萬物
識別完后,它會自動切出分離的物體如下32個棋子一個不少:
CV界的chatgpt出現(xiàn)——Segment Anything能分割萬物

四、運動場景測試

輸入一張隨機的羽毛球圖片:
CV界的chatgpt出現(xiàn)——Segment Anything能分割萬物

識別結(jié)果如下:
CV界的chatgpt出現(xiàn)——Segment Anything能分割萬物
好吧,我承認(rèn),我用opecv遠(yuǎn)遠(yuǎn)還不能達(dá)到以上的效果。

五、后記

以上的象棋、羽毛球圖片其實場景并不復(fù)雜,比它網(wǎng)站上面的圖片要簡單的多,但是足夠可以說明一件事,該模型可以勝任多個領(lǐng)域的機器視覺任務(wù),或者是給各領(lǐng)域的cv工作者提供了底層解決方案或者思路。文章來源地址http://www.zghlxwxcb.cn/news/detail-417343.html

到了這里,關(guān)于CV界的chatgpt出現(xiàn)——Segment Anything能分割萬物的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實不符,請點擊違法舉報進(jìn)行投訴反饋,一經(jīng)查實,立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費用

相關(guān)文章

  • CV不存在了?體驗用Segment Anything Meta分割清明上河圖

    CV不存在了?體驗用Segment Anything Meta分割清明上河圖

    在圖像處理與計算機視覺領(lǐng)域, 圖像分割(image segmentation) 是在像素級別將一個完整圖像劃分為若干具有特定語義 區(qū)域(region) 或 對象(object) 的過程。每個分割區(qū)域是一系列擁有相似特征——例如顏色、強度、紋理等的像素集合,因此圖像分割也可視為 以圖像屬性為特征空間,

    2023年04月20日
    瀏覽(26)
  • CV大模型應(yīng)用:Grounded-Segment-Anything實現(xiàn)目標(biāo)分割、檢測與風(fēng)格遷移

    CV大模型應(yīng)用:Grounded-Segment-Anything實現(xiàn)目標(biāo)分割、檢測與風(fēng)格遷移

    代碼鏈接:https://github.com/facebookresearch/segment-anything 論文地址:https://arxiv.org/abs/2304.02643 官網(wǎng)地址:https://segment-anything.com/ 繼2023年4月5日meta AI發(fā)布了Segment Anything的論文和源碼后,在github上已經(jīng)超過了25.3k個?? 號稱分割一切的此模型,打破了傳統(tǒng)的分割任務(wù)思路,將CV界震撼

    2024年02月09日
    瀏覽(24)
  • Segment Anything Model (SAM)——卷起來了,那個號稱分割一切的CV大模型他來了

    Segment Anything Model (SAM)——卷起來了,那個號稱分割一切的CV大模型他來了

    最近每天打開微信看到10個公眾號里面差不多有11個都在各種玩賺chatGPT,每個都在說是各種大好風(fēng)口,哎,看得眼睛都是累的。 今天下午無意間看到Meta發(fā)布了一款號稱能分割一切的CV大模型,CV圈也開始卷起來,今年各種大模型要爆發(fā)了感覺。 吃瓜群眾滿懷好奇,點開了解一

    2023年04月10日
    瀏覽(27)
  • 【CV大模型SAM(Segment-Anything)】如何保存分割后的對象mask?并提取mask對應(yīng)的圖片區(qū)域?

    【CV大模型SAM(Segment-Anything)】如何保存分割后的對象mask?并提取mask對應(yīng)的圖片區(qū)域?

    上一篇文章【CV大模型SAM(Segment-Anything)】真是太強大了,分割一切的SAM大模型使用方法:可通過不同的提示得到想要的分割目標(biāo)中 詳細(xì)介紹了大模型SAM(Segment-Anything)的不同使用方法 ,后面有很多小伙伴給我留言問我分割后的目標(biāo)對象如何保存,這篇介紹一下分割后的ma

    2024年02月09日
    瀏覽(34)
  • 【CV大模型SAM(Segment-Anything)】真是太強大了,分割一切的SAM大模型使用方法:可通過不同的提示得到想要的分割目標(biāo)

    【CV大模型SAM(Segment-Anything)】真是太強大了,分割一切的SAM大模型使用方法:可通過不同的提示得到想要的分割目標(biāo)

    本文主要介紹SAM模型的使用方法:如何使用不同的提示進(jìn)行目標(biāo)分割。而且該模型在CPU的環(huán)境下就可以快速運行,真心不錯~,趕緊來試試吧 關(guān)于Segment-Anything模型的 相關(guān)代碼、論文PDF、預(yù)訓(xùn)練模型、使用方法 等,我都已打包好,供需要的小伙伴交流研究, 獲取方式如下 : 關(guān)

    2023年04月18日
    瀏覽(29)
  • 【Segment Anything】CV的大模型Segment Anything也來了,強人工智能的時代究竟還有多遠(yuǎn)?

    【Segment Anything】CV的大模型Segment Anything也來了,強人工智能的時代究竟還有多遠(yuǎn)?

    論文鏈接:https://arxiv.org/pdf/2304.02643.pdf 論文解讀后續(xù)更新…… 官方文檔:https://ai.facebook.com/blog/segment-anything-foundation-model-image-segmentation/ 項目地址:https://github.com/facebookresearch/segment-anything demo地址:https://segment-anything.com/demo 我自己上傳了一張圖片,結(jié)果還是挺好的(我上傳

    2023年04月17日
    瀏覽(53)
  • Segment anything(圖片分割大模型)

    Segment anything(圖片分割大模型)

    目錄 1.Segment anything ?2.補充圖像分割和目標(biāo)檢測的區(qū)別 定義 :圖像分割通用大模型 延深 :可以預(yù)計視覺檢測大模型,也快了。 進(jìn)一步理解 :傳統(tǒng)圖像分割對于下圖處理時,識別房子的是識別房子的模型,識別草的是識別草的模型,識別人的是識別人的模型,而Segment anyt

    2024年02月14日
    瀏覽(25)
  • 圖像分割之SAM(Segment Anything Model)

    圖像分割之SAM(Segment Anything Model)

    論文:Segment Anything Github:https://github.com/facebookresearch/segment-anything 論文從zero-shot主干網(wǎng)絡(luò)的基礎(chǔ)出發(fā),提出了SAM(Segment Anything Model)模型。該模型有別于傳統(tǒng)的分割模型。傳統(tǒng)分割模型只能輸入原圖輸出固定的分割結(jié)果,SAM在設(shè)計上可以同時輸入原圖和特定提示(點、框、

    2024年02月07日
    瀏覽(28)
  • 【圖像分割】Segment Anything(Meta AI)論文解讀

    【圖像分割】Segment Anything(Meta AI)論文解讀

    論文地址:https://arxiv.org/abs/2304.02643 項目地址:https://github.com/facebookresearch/segment-anything Demo 與數(shù)據(jù)集SA-1B地址:https://segment-anything.com/ Meta 發(fā)布的新模型名叫 Segment Anything Model (SAM) 。他們在博客中介紹說,「SAM 已經(jīng)學(xué)會了關(guān)于物體的一般概念,并且它可以為任何圖像或視頻中

    2023年04月10日
    瀏覽(23)
  • 基于Segment anything的實例分割半自動標(biāo)注

    基于Segment anything的實例分割半自動標(biāo)注

    使用Meta AI的SAM,并添加了一個基本界面來標(biāo)記圖像,并保存COCO格式的掩碼。 https://github.com/anuragxel/salt 安裝SAM; 創(chuàng)建conda虛擬環(huán)境,使用 conda env create -f environment.yaml ; 安裝coco-viewer來快速可視化標(biāo)注結(jié)果。 1、將圖片放入到 dataset_name/images/* 并且創(chuàng)建空目錄 dataset_name/embeddin

    2024年02月06日
    瀏覽(24)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包