国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

CV不存在了?體驗(yàn)用Segment Anything Meta分割清明上河圖

這篇具有很好參考價(jià)值的文章主要介紹了CV不存在了?體驗(yàn)用Segment Anything Meta分割清明上河圖。希望對(duì)大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請(qǐng)大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問。

1 Facebook摳圖神器

在圖像處理與計(jì)算機(jī)視覺領(lǐng)域,圖像分割(image segmentation)是在像素級(jí)別將一個(gè)完整圖像劃分為若干具有特定語義區(qū)域(region)對(duì)象(object)的過程。每個(gè)分割區(qū)域是一系列擁有相似特征——例如顏色、強(qiáng)度、紋理等的像素集合,因此圖像分割也可視為以圖像屬性為特征空間,為全體像素賦予標(biāo)簽的分類問題

圖像分割是高級(jí)圖像處理的基礎(chǔ)技術(shù),它將原始冗余而繁雜的圖像,轉(zhuǎn)化為一種更具意義且簡單緊湊的組織形式。在智能安防、衛(wèi)星遙感、醫(yī)學(xué)影像處理、生物特征識(shí)別等領(lǐng)域,圖像分割通過提供精簡且可靠的圖像特征信息,有效地提高后續(xù)從而利于后續(xù)圖像分析、理解等技術(shù)的計(jì)算效率,具有重要意義。

CV不存在了?體驗(yàn)用Segment Anything Meta分割清明上河圖

但是,針對(duì)特定任務(wù)創(chuàng)建準(zhǔn)確的分割模型通常需要技術(shù)專家進(jìn)行高度專業(yè)化的標(biāo)注工作,而近期FaceBook推出的Segment Anything Model(SAM)項(xiàng)目旨在實(shí)現(xiàn)圖像分割的大眾化。

如果說ChatGPT是自然語言處理領(lǐng)域的大模型,那SAM就算是計(jì)算機(jī)視覺領(lǐng)域的大模型。這次,FaceBook發(fā)布了通用Segment Anything模型和我們的Segment Anything10億掩模數(shù)據(jù)集SA-1B——這是有史以來最大的分割數(shù)據(jù)集,以便實(shí)現(xiàn)廣泛的應(yīng)用和促進(jìn)計(jì)算機(jī)視覺基礎(chǔ)模型的進(jìn)一步研究

CV不存在了?體驗(yàn)用Segment Anything Meta分割清明上河圖

降低圖像分割所需的任務(wù)特定建模專業(yè)知識(shí)、訓(xùn)練計(jì)算和自定義數(shù)據(jù)注釋是Segment Anything項(xiàng)目的核心。SAM已經(jīng)學(xué)習(xí)到了物體的通用概念,并且可以為任何圖像或任何視頻中的任何物體生成掩模,甚至包括它在訓(xùn)練中沒有遇到過的物體和圖像類型。SAM足夠通用,可以覆蓋廣泛的用例,并且可以在新的圖像“領(lǐng)域”上直接使用——無論是水下照片還是細(xì)胞顯微鏡——而不需要額外的訓(xùn)練——通常被稱為零樣本遷移能力

將來,SAM可以用于幫助驅(qū)動(dòng)許多領(lǐng)域需要在任何圖像中查找和分割任何物體的應(yīng)用程序

2 本地版SAM配置

本項(xiàng)目的環(huán)境并不復(fù)雜,按以下步驟配置即可

  • 克隆庫到本地

    git clone git@github.com:facebookresearch/segment-anything.git
    cd segment-anything; pip install -e .
    
  • 安裝依賴(可選)

    這些依賴項(xiàng)用于對(duì)掩模進(jìn)行后處理、將掩模保存為COCO格式以及將模型導(dǎo)出為ONNX格式

    pip install opencv-python pycocotools matplotlib onnxruntime onnx
    
  • 下載模型文件ViT-H SAM model.

  • 測(cè)試代碼

import torch
import numpy as np
import cv2
import matplotlib.pyplot as plt
from segment_anything import sam_model_registry, SamPredictor
from segment_anything.utils.onnx import SamOnnxModel

import onnxruntime
from onnxruntime.quantization import QuantType
from onnxruntime.quantization.quantize import quantize_dynamic

def show_mask(mask, ax):
    color = np.array([30/255, 144/255, 255/255, 0.6])
    h, w = mask.shape[-2:]
    mask_image = mask.reshape(h, w, 1) * color.reshape(1, 1, -1)
    ax.imshow(mask_image)

checkpoint = "D:\AIProject\segment-anything\sam_vit_h_4b8939.pth"
model_type = "vit_h"
sam = sam_model_registry[model_type](checkpoint=checkpoint)

image = cv2.imread('images/truck.jpg')
image = cv2.cvtColor(image, cv2.COLOR_BGR2RGB)

predictor = SamPredictor(sam)
predictor.set_image(image)
image_embedding = predictor.get_image_embedding().cpu().numpy()

ort_inputs = {
    "image_embeddings": image_embedding,
    "point_coords": onnx_coord,
    "point_labels": onnx_label,
    "mask_input": onnx_mask_input,
    "has_mask_input": onnx_has_mask_input,
    "orig_im_size": np.array(image.shape[:2], dtype=np.float32)
}

masks, _, low_res_logits = ort_session.run(None, ort_inputs)

plt.figure(figsize=(10,10))
plt.imshow(image)
show_mask(masks, plt.gca())
show_points(input_point, input_label, plt.gca())
plt.axis('off')
plt.show() 

原圖:

CV不存在了?體驗(yàn)用Segment Anything Meta分割清明上河圖
分割圖

CV不存在了?體驗(yàn)用Segment Anything Meta分割清明上河圖

3 Web版SAM體驗(yàn)

可以到SAM官網(wǎng)體驗(yàn)分割效果,這里以清明上河圖為例

我們通過Upload選項(xiàng)上傳清明上河圖原圖

CV不存在了?體驗(yàn)用Segment Anything Meta分割清明上河圖

我們先試試自動(dòng)分割Everything,其實(shí)效果一般,很多精細(xì)的地方?jīng)]分出來

CV不存在了?體驗(yàn)用Segment Anything Meta分割清明上河圖

但這不代表不能進(jìn)行精細(xì)的分割,我們可以點(diǎn)擊Hover & Click選項(xiàng),接著把鼠標(biāo)移到圖中,就能看到分割的效果。

CV不存在了?體驗(yàn)用Segment Anything Meta分割清明上河圖
這個(gè)圖中主要有三個(gè)元素:車夫、推車人和車,現(xiàn)在這三個(gè)元素使混合在一起的。可以通過左側(cè)的Remove Area選項(xiàng)進(jìn)行更細(xì)粒度地分割,比如分割出車夫

CV不存在了?體驗(yàn)用Segment Anything Meta分割清明上河圖

4 總結(jié)

SAM的更多應(yīng)用大家可以進(jìn)一步發(fā)掘。展望未來,像素級(jí)別的圖像理解與視覺內(nèi)容的更高級(jí)別的語義理解之間更緊密的耦合,將實(shí)現(xiàn)更強(qiáng)大的人工智能系統(tǒng)。


?? 更多精彩專欄文章來源地址http://www.zghlxwxcb.cn/news/detail-419454.html

  • 《ROS從入門到精通》
  • 《Pytorch深度學(xué)習(xí)實(shí)戰(zhàn)》
  • 《機(jī)器學(xué)習(xí)強(qiáng)基計(jì)劃》
  • 《運(yùn)動(dòng)規(guī)劃實(shí)戰(zhàn)精講》

??源碼獲取 · 技術(shù)交流 · 抱團(tuán)學(xué)習(xí) · 咨詢分享 請(qǐng)聯(lián)系??

到了這里,關(guān)于CV不存在了?體驗(yàn)用Segment Anything Meta分割清明上河圖的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場。本站僅提供信息存儲(chǔ)空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請(qǐng)注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請(qǐng)點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • Meta AI Segment Anything Model (SAM)初體驗(yàn)

    Meta AI Segment Anything Model (SAM)初體驗(yàn)

    最近Meta AI發(fā)布了Segment Anything模型,可以直接分割任何圖片。我趁熱乎體驗(yàn)了一下。 打開Segment Anything官網(wǎng)https://segment-anything.com/: 點(diǎn)擊Try the demo,在彈出的對(duì)話框中勾選“I have read…”,進(jìn)入上傳界面: 點(diǎn)擊“Upload an image”,上傳自己的圖片: 我上傳的圖片大小是5.14MB,提

    2024年02月05日
    瀏覽(19)
  • CV界的chatgpt出現(xiàn)——Segment Anything能分割萬物

    CV界的chatgpt出現(xiàn)——Segment Anything能分割萬物

    今天親手體驗(yàn)了一下meta公司發(fā)布的Segment Anything,我們認(rèn)為是cv界的chatgpt,這個(gè)模型太厲害了,厲害到可以對(duì)任意一張圖進(jìn)行分割,他們的網(wǎng)站上的例子也是挺復(fù)雜的,能夠說明其強(qiáng)大的能力—demo鏈接,人工智能的技術(shù)迭代真是太快了。在模型的介紹中,有句話著實(shí)驚人——

    2023年04月18日
    瀏覽(22)
  • 【AIGC】6、Segment Anything | Meta 推出超強(qiáng)悍可分割一切的模型 SAM

    【AIGC】6、Segment Anything | Meta 推出超強(qiáng)悍可分割一切的模型 SAM

    論文:Segment Anything 官網(wǎng):https://segment-anything.com/ 代碼:https://github.com/facebookresearch/segment-anything 出處:Meta、FAIR 時(shí)間:2023.04.05 貢獻(xiàn)點(diǎn): 首次提出基于提示的分割任務(wù),并開源了可以分割一切的模型 SAM 開源了一個(gè)包含 1100 萬張圖像(約包含 10 億 masks)的數(shù)據(jù)集 SA-1B,是目前

    2023年04月23日
    瀏覽(24)
  • 【多模態(tài)】12、Segment Anything | Meta 推出超強(qiáng)悍可分割一切的模型 SAM

    【多模態(tài)】12、Segment Anything | Meta 推出超強(qiáng)悍可分割一切的模型 SAM

    論文:Segment Anything 官網(wǎng):https://segment-anything.com/ 代碼:https://github.com/facebookresearch/segment-anything 出處:Meta、FAIR 時(shí)間:2023.04.05 貢獻(xiàn)點(diǎn): 首次提出基于提示的分割任務(wù),并開源了可以分割一切的模型 SAM 開源了一個(gè)包含 1100 萬張圖像(約包含 10 億 masks)的數(shù)據(jù)集 SA-1B,是目前

    2024年02月17日
    瀏覽(19)
  • 【多模態(tài)】14、Segment Anything | Meta 推出超強(qiáng)悍可分割一切的模型 SAM

    【多模態(tài)】14、Segment Anything | Meta 推出超強(qiáng)悍可分割一切的模型 SAM

    論文:Segment Anything 官網(wǎng):https://segment-anything.com/ 代碼:https://github.com/facebookresearch/segment-anything 出處:Meta、FAIR 時(shí)間:2023.04.05 貢獻(xiàn)點(diǎn): 首次提出基于提示的分割任務(wù),并開源了可以分割一切的模型 SAM 開源了一個(gè)包含 1100 萬張圖像(約包含 10 億 masks)的數(shù)據(jù)集 SA-1B,是目前

    2024年02月16日
    瀏覽(23)
  • 使用 java-onnx 部署 Meta-ai Segment anything 分割一切

    使用 java-onnx 部署 Meta-ai Segment anything 分割一切

    ? 近日,Meta AI在官網(wǎng)發(fā)布了基礎(chǔ)模型 Segment Anything Model(SAM)并開源,其本質(zhì)是用GPT的方式(基于Transform 模型架構(gòu))讓計(jì)算機(jī)具備理解了圖像里面的一個(gè)個(gè)“對(duì)象”的通用能力。SAM模型建立了一個(gè)可以接受文本提示、基于海量數(shù)據(jù)(603138)訓(xùn)練而獲得泛化能力的圖像分割大模型

    2024年02月05日
    瀏覽(23)
  • 【論文閱讀】Segment Anything(SAM)——可分割一切的CV大模型

    【論文閱讀】Segment Anything(SAM)——可分割一切的CV大模型

    【前言】隨著ChatGPT席卷自然語言處理,F(xiàn)acebook憑借著Segment Anything在CV圈也算扳回一城。迄今為止,github的star已經(jīng)超過3萬,火的可謂一塌糊涂。作為AI菜鳥,可不得自己爬到巨人肩膀上瞅一瞅~ 論文地址:https://arxiv.org/abs/2304.02643 代碼地址:GitHub - facebookresearch/segment-anything: T

    2024年02月15日
    瀏覽(20)
  • CV大模型應(yīng)用:Grounded-Segment-Anything實(shí)現(xiàn)目標(biāo)分割、檢測(cè)與風(fēng)格遷移

    CV大模型應(yīng)用:Grounded-Segment-Anything實(shí)現(xiàn)目標(biāo)分割、檢測(cè)與風(fēng)格遷移

    代碼鏈接:https://github.com/facebookresearch/segment-anything 論文地址:https://arxiv.org/abs/2304.02643 官網(wǎng)地址:https://segment-anything.com/ 繼2023年4月5日meta AI發(fā)布了Segment Anything的論文和源碼后,在github上已經(jīng)超過了25.3k個(gè)?? 號(hào)稱分割一切的此模型,打破了傳統(tǒng)的分割任務(wù)思路,將CV界震撼

    2024年02月09日
    瀏覽(24)
  • Segment Anything Model (SAM)——卷起來了,那個(gè)號(hào)稱分割一切的CV大模型他來了

    Segment Anything Model (SAM)——卷起來了,那個(gè)號(hào)稱分割一切的CV大模型他來了

    最近每天打開微信看到10個(gè)公眾號(hào)里面差不多有11個(gè)都在各種玩賺chatGPT,每個(gè)都在說是各種大好風(fēng)口,哎,看得眼睛都是累的。 今天下午無意間看到Meta發(fā)布了一款號(hào)稱能分割一切的CV大模型,CV圈也開始卷起來,今年各種大模型要爆發(fā)了感覺。 吃瓜群眾滿懷好奇,點(diǎn)開了解一

    2023年04月10日
    瀏覽(27)
  • 【CV大模型SAM(Segment-Anything)】如何保存分割后的對(duì)象mask?并提取mask對(duì)應(yīng)的圖片區(qū)域?

    【CV大模型SAM(Segment-Anything)】如何保存分割后的對(duì)象mask?并提取mask對(duì)應(yīng)的圖片區(qū)域?

    上一篇文章【CV大模型SAM(Segment-Anything)】真是太強(qiáng)大了,分割一切的SAM大模型使用方法:可通過不同的提示得到想要的分割目標(biāo)中 詳細(xì)介紹了大模型SAM(Segment-Anything)的不同使用方法 ,后面有很多小伙伴給我留言問我分割后的目標(biāo)對(duì)象如何保存,這篇介紹一下分割后的ma

    2024年02月09日
    瀏覽(34)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請(qǐng)作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包