国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

【Segment Anything】CV的大模型Segment Anything也來了,強人工智能的時代究竟還有多遠?

這篇具有很好參考價值的文章主要介紹了【Segment Anything】CV的大模型Segment Anything也來了,強人工智能的時代究竟還有多遠?。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點擊"舉報違法"按鈕提交疑問。

Segment Anything

【Segment Anything】CV的大模型Segment Anything也來了,強人工智能的時代究竟還有多遠?

1. 論文

論文鏈接:https://arxiv.org/pdf/2304.02643.pdf
【Segment Anything】CV的大模型Segment Anything也來了,強人工智能的時代究竟還有多遠?
論文解讀后續(xù)更新……

2. 官方文檔

官方文檔:https://ai.facebook.com/blog/segment-anything-foundation-model-image-segmentation/

項目地址:https://github.com/facebookresearch/segment-anything

3. 測試網站

demo地址:https://segment-anything.com/demo

我自己上傳了一張圖片,結果還是挺好的(我上傳的圖片比較簡單)。
【Segment Anything】CV的大模型Segment Anything也來了,強人工智能的時代究竟還有多遠?
【Segment Anything】CV的大模型Segment Anything也來了,強人工智能的時代究竟還有多遠?

4. 本地測試

4.1 下載預訓練權重

https://github.com/facebookresearch/segment-anything#model-checkpoints

4.2 新建get_masks.py

新建get_masks.py內容如下:

from segment_anything import build_sam, SamPredictor
import numpy as np
import cv2
image = cv2.imread('/home/scholar/ldw/segment-anything/images/01.jpg')
image = cv2.cvtColor(image, cv2.COLOR_BGR2RGB)
predictor = SamPredictor(build_sam(checkpoint="/data_1/ldw_checkpoints/segment-anything/sam_vit_l_0b3195.pth"))
predictor.set_image(image)
input_point = np.array([[500, 375]])
input_label = np.array([1])

masks, _, _ = predictor.predict(    point_coords=input_point,
    point_labels=input_label,
    multimask_output=True,)
print('Done')

由于自己的3090顯存有限,無法使用build_sam_vit_hpth,所以選用了build_sam_vit_l.pth

修改segment_anything/build_sam.py

build_sam = build_sam_vit_l
sam_model_registry = {
    "default": build_sam_vit_l,
    "vit_h": build_sam,
    "vit_l": build_sam_vit_l,
    "vit_b": build_sam_vit_b,
}

4.4 測試

# origin
python scripts/amg.py --checkpoint <path/to/sam/checkpoint> --input <image_or_folder> --output <output_directory>

# mine
python scripts/amg.py --checkpoint '/data_1/ldw_checkpoints/segment-anything/sam_vit_l_0b3195.pth' --input '/home/scholar/ldw/segment-anything/images/01.jpg' --output 'output'

【Segment Anything】CV的大模型Segment Anything也來了,強人工智能的時代究竟還有多遠?
【Segment Anything】CV的大模型Segment Anything也來了,強人工智能的時代究竟還有多遠?文章來源地址http://www.zghlxwxcb.cn/news/detail-416802.html

到了這里,關于【Segment Anything】CV的大模型Segment Anything也來了,強人工智能的時代究竟還有多遠?的文章就介紹完了。如果您還想了解更多內容,請在右上角搜索TOY模板網以前的文章或繼續(xù)瀏覽下面的相關文章,希望大家以后多多支持TOY模板網!

本文來自互聯(lián)網用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務,不擁有所有權,不承擔相關法律責任。如若轉載,請注明出處: 如若內容造成侵權/違法違規(guī)/事實不符,請點擊違法舉報進行投訴反饋,一經查實,立即刪除!

領支付寶紅包贊助服務器費用

相關文章

  • Meta AI最新出品,全能的分割模型SAM:掀桌子的Segment Anything,CV屆的ChatGPT已經到來!

    Meta AI最新出品,全能的分割模型SAM:掀桌子的Segment Anything,CV屆的ChatGPT已經到來!

    本來不打算再發(fā)關于分割的相關內容的,但是13小時前,2023年4月5號,Meta AI在Arxiv網站發(fā)布了文章《Segment Anything》,并將SAM模型代碼和數(shù)據開源。作為通用的分割網絡,SAM或許將成為,甚至是已經成為了CV屆的ChatGPT。簡簡單單的兩個詞Segment Anything,簡單粗暴卻不失優(yōu)雅。 說

    2023年04月15日
    瀏覽(23)
  • 【CV大模型SAM(Segment-Anything)】如何保存分割后的對象mask?并提取mask對應的圖片區(qū)域?

    【CV大模型SAM(Segment-Anything)】如何保存分割后的對象mask?并提取mask對應的圖片區(qū)域?

    上一篇文章【CV大模型SAM(Segment-Anything)】真是太強大了,分割一切的SAM大模型使用方法:可通過不同的提示得到想要的分割目標中 詳細介紹了大模型SAM(Segment-Anything)的不同使用方法 ,后面有很多小伙伴給我留言問我分割后的目標對象如何保存,這篇介紹一下分割后的ma

    2024年02月09日
    瀏覽(34)
  • 【CV大模型SAM(Segment-Anything)】真是太強大了,分割一切的SAM大模型使用方法:可通過不同的提示得到想要的分割目標

    【CV大模型SAM(Segment-Anything)】真是太強大了,分割一切的SAM大模型使用方法:可通過不同的提示得到想要的分割目標

    本文主要介紹SAM模型的使用方法:如何使用不同的提示進行目標分割。而且該模型在CPU的環(huán)境下就可以快速運行,真心不錯~,趕緊來試試吧 關于Segment-Anything模型的 相關代碼、論文PDF、預訓練模型、使用方法 等,我都已打包好,供需要的小伙伴交流研究, 獲取方式如下 : 關

    2023年04月18日
    瀏覽(29)
  • CV界的chatgpt出現(xiàn)——Segment Anything能分割萬物

    CV界的chatgpt出現(xiàn)——Segment Anything能分割萬物

    今天親手體驗了一下meta公司發(fā)布的Segment Anything,我們認為是cv界的chatgpt,這個模型太厲害了,厲害到可以對任意一張圖進行分割,他們的網站上的例子也是挺復雜的,能夠說明其強大的能力—demo鏈接,人工智能的技術迭代真是太快了。在模型的介紹中,有句話著實驚人——

    2023年04月18日
    瀏覽(22)
  • CV不存在了?體驗用Segment Anything Meta分割清明上河圖

    CV不存在了?體驗用Segment Anything Meta分割清明上河圖

    在圖像處理與計算機視覺領域, 圖像分割(image segmentation) 是在像素級別將一個完整圖像劃分為若干具有特定語義 區(qū)域(region) 或 對象(object) 的過程。每個分割區(qū)域是一系列擁有相似特征——例如顏色、強度、紋理等的像素集合,因此圖像分割也可視為 以圖像屬性為特征空間,

    2023年04月20日
    瀏覽(25)
  • Segment Anything CV界的GPT—prompt-based里程碑式研究成果

    Segment Anything CV界的GPT—prompt-based里程碑式研究成果

    Segment Anything受chatGPT式的prompt-based思路啟發(fā),訓練數(shù)據集涵蓋10億masks,根據提供的圖片注釋實時產生不同的mask分割結果,試用效果驚人。 Segment Anything之于Computer Vision,相當于chatGPT之于NLP。 4月5日,Meta AI發(fā)布了博客:Introducing Segment Anything: Working toward the first foundation model f

    2023年04月13日
    瀏覽(28)
  • ChatGPT4也來了,大語言模型未來可期?注重當下很關鍵!

    ChatGPT4也來了,大語言模型未來可期?注重當下很關鍵!

    當?shù)貢r間周二(3月14日), 人工智能研究公司OpenAI公布了其大型語言模型的最新版本——GPT-4 。該公司表示:“GPT-4在許多專業(yè)測試中表現(xiàn)出超過絕大多數(shù)人類的水平?!痹趦炔吭u估中,GPT-4產生正確回應的可能性要比GPT-3.5高出40%,而且GPT-4是多模態(tài)的,同時支持文本和圖像

    2024年02月11日
    瀏覽(21)
  • Segment Anything模型結構解讀

    Segment Anything模型結構解讀

    論文地址 代碼下載 官網 使用公開數(shù)據集訓練,并且讓人工標注團隊進行標注預測的mask,該過程總共進行6次,并產生430萬個mask 模型產生的置信度相對較高的mask,不需要人工標注,而置信度相對不高的mask,由人工完成標注。舉個例子,模型分割一張圖片,總共產生了10個m

    2024年02月06日
    瀏覽(23)
  • Segment anything(圖片分割大模型)

    Segment anything(圖片分割大模型)

    目錄 1.Segment anything ?2.補充圖像分割和目標檢測的區(qū)別 定義 :圖像分割通用大模型 延深 :可以預計視覺檢測大模型,也快了。 進一步理解 :傳統(tǒng)圖像分割對于下圖處理時,識別房子的是識別房子的模型,識別草的是識別草的模型,識別人的是識別人的模型,而Segment anyt

    2024年02月14日
    瀏覽(24)
  • 使用Segment Anything(SAM)模型進行自動標注

    使用Segment Anything(SAM)模型進行自動標注

    1.下載項目 項目1:https://github.com/zhouayi/SAM-Tool 項目2:https://github.com/facebookresearch/segment-anything 下載 SAM 模型:https://dl.fbaipublicfiles.com/segment_anything/sam_vit_h_4b8939.pth 2.把數(shù)據放置在 dataset_path/images/* 這樣的路徑中,并創(chuàng)建空文件夾 dataset_path/embeddings 3.將項目1中的 helpers 文件夾復

    2024年02月04日
    瀏覽(29)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領取紅包,優(yōu)惠每天領

二維碼1

領取紅包

二維碼2

領紅包