国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

Android+OnnxRuntime+Opencv+Onnx模型操作圖片擦除多余內(nèi)容

這篇具有很好參考價(jià)值的文章主要介紹了Android+OnnxRuntime+Opencv+Onnx模型操作圖片擦除多余內(nèi)容。希望對(duì)大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請(qǐng)大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問。

今年來AI的發(fā)展非常迅速,在工業(yè)、醫(yī)療等等行業(yè)逐漸出現(xiàn)相應(yīng)的解決方案,AI也逐漸成為各行業(yè)基礎(chǔ)設(shè)施建設(shè)重要的一環(huán),未來發(fā)展的大趨勢(shì),不過這也需要一個(gè)漫長(zhǎng)的過程,需要很多技術(shù)型人才加入其中,除了工業(yè)設(shè)施的基礎(chǔ)建設(shè),在娛樂方向也有很多有趣的能力,不如圖片/視頻換背景、人像(圖片/視頻)動(dòng)漫化、圖片內(nèi)容擦除等等。

今天我們來嘗試操作一下使用圖片內(nèi)容擦除模型來實(shí)現(xiàn)相應(yīng)的功能,首先來看看擦除模型:

1、advimman/lamaGitHub - advimman/lama: ?? LaMa Image Inpainting, Resolution-robust Large Mask Inpainting with Fourier Convolutions, WACV 2022

?2、fenglinglwb/MAT

GitHub - fenglinglwb/MAT: MAT: Mask-Aware Transformer for Large Hole Image Inpainting

3、?Picsart-AI-Research/MI-GA

GitHub - Picsart-AI-Research/MI-GAN: [ICCV 2023] MI-GAN: A Simple Baseline for Image Inpainting on Mobile Devices

還有很多,詳情見MI-GAN: A Simple Baseline for Image Inpainting on Mobile Devices – IOPaint?

擦除模型基于圖片物體興趣區(qū)域(Rect)分割的mask結(jié)果,結(jié)合原圖實(shí)現(xiàn)圖片多余內(nèi)容的擦除。?

其實(shí)在Opencv里也有圖片修復(fù)功能(inpaint),簡(jiǎn)單的圖片修復(fù)、多余內(nèi)容擦除還是可以實(shí)現(xiàn)的,比如圖片/視頻擦除水印、一些小的劃痕等等,但是對(duì)于大范圍的內(nèi)容擦除就無能為力了,雖然可以擦除效果還是太差,有很多像素異常內(nèi)容。

物體分割模型也有很多:?

1、facebookresearch/segment-anything

GitHub - facebookresearch/segment-anything: The repository provides code for running inference with the SegmentAnything Model (SAM), links for downloading the trained model checkpoints, and example notebooks that show how to use the model.

?2、ChaoningZhang/MobileSAM

GitHub - ChaoningZhang/MobileSAM: This is the official code for MobileSAM project that makes SAM lightweight for mobile applications and beyond!

3、?SysCV/sam-hq

GitHub - SysCV/sam-hq: Segment Anything in High Quality [NeurIPS 2023]

4、?chongzhou96/EdgeSAM

GitHub - chongzhou96/EdgeSAM: Official PyTorch implementation of "EdgeSAM: Prompt-In-the-Loop Distillation for On-Device Deployment of SAM"

SEG-CPP是對(duì)于以上物體分割模型的C++實(shí)現(xiàn),也對(duì)其進(jìn)行模型onnx的轉(zhuǎn)化,里面也實(shí)現(xiàn)了對(duì)相關(guān)模型的量化處理,是模型大小減小了數(shù)倍,為物體分割模型在移動(dòng)設(shè)備上使用奠下基礎(chǔ)。

要實(shí)現(xiàn)物體分割模型和物體擦除模型在Android上使用,我們需要文章來源地址http://www.zghlxwxcb.cn/news/detail-849842.html

到了這里,關(guān)于Android+OnnxRuntime+Opencv+Onnx模型操作圖片擦除多余內(nèi)容的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場(chǎng)。本站僅提供信息存儲(chǔ)空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請(qǐng)注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請(qǐng)點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • 【環(huán)境搭建:onnx模型部署】onnxruntime-gpu安裝與測(cè)試(python)

    【環(huán)境搭建:onnx模型部署】onnxruntime-gpu安裝與測(cè)試(python)

    onnx 模型在 CPU 上進(jìn)行推理,在conda環(huán)境中直接使用pip安裝即可 想要 onnx 模型在 GPU 上加速推理,需要安裝 onnxruntime-gpu 。有兩種思路: 依賴于 本地主機(jī) 上已安裝的 cuda 和 cudnn 版本 不依賴于 本地主機(jī) 上已安裝的 cuda 和 cudnn 版本 要注意:onnxruntime-gpu, cuda, cudnn三者的版本要對(duì)

    2024年02月07日
    瀏覽(25)
  • TRT4-trt-integrate - 3 使用onnxruntime進(jìn)行onnx的模型推理過程

    TRT4-trt-integrate - 3 使用onnxruntime進(jìn)行onnx的模型推理過程

    onnx是microsoft開發(fā)的一個(gè)中間格式,而onnxruntime簡(jiǎn)稱ort是microsoft為onnx開發(fā)的推理引擎。 允許使用onnx作為輸入進(jìn)行直接推理得到結(jié)果。 建立一個(gè)InferenceSession,塞進(jìn)去的是onnx的路徑,實(shí)際運(yùn)算的后端選用的是CPU 也可以選用cuda等等 之后就是預(yù)處理 session.run就是運(yùn)行的inference過程

    2024年02月15日
    瀏覽(26)
  • C++模型部署:qt+yolov5/6+onnxruntime+opencv

    C++模型部署:qt+yolov5/6+onnxruntime+opencv

    作者平時(shí)主要是寫 c++ 庫的,界面方面了解不多,也沒有發(fā)現(xiàn)“美”的眼鏡,界面有點(diǎn)丑,大家多包涵。 本次介紹的項(xiàng)目主要是通過 cmake 構(gòu)建一個(gè) 基于 c++ 語言的,以 qt 為框架的,包含 opencv 第三方庫在內(nèi)的,跨平臺(tái)的,使用 ONNX RUNTIME 進(jìn)行前向推理的 yolov5/6 演示平臺(tái)。文章

    2024年02月05日
    瀏覽(23)
  • Ubuntu環(huán)境下C++使用onnxruntime和Opencv進(jìn)行YOLOv8模型部署

    Ubuntu環(huán)境下C++使用onnxruntime和Opencv進(jìn)行YOLOv8模型部署

    目錄 環(huán)境配置 系統(tǒng)環(huán)境 項(xiàng)目文件路徑? 文件環(huán)境 ?config.txt ?CMakeLists.txt type.names ?讀取config.txt配置文件 修改圖片尺寸格式 讀取缺陷標(biāo)志文件 生成缺陷隨機(jī)顏色標(biāo)識(shí) 模型推理 推理結(jié)果獲取 缺陷信息還原并顯示 總代碼 Ubuntu18.04 onnxruntime-linux-x64 1.12.1:https://github.com/microsof

    2024年01月17日
    瀏覽(23)
  • 解決Opencv dnn模塊無法使用onnx模型的問題(將onnx的動(dòng)態(tài)輸入改成靜態(tài))

    解決Opencv dnn模塊無法使用onnx模型的問題(將onnx的動(dòng)態(tài)輸入改成靜態(tài))

    最近做人臉識(shí)別項(xiàng)目,想只用OpenCV自帶的人臉檢測(cè)和識(shí)別模塊實(shí)現(xiàn),使用OpenCV傳統(tǒng)方法:Haar級(jí)聯(lián)分類器人臉檢測(cè)+LBPH算法人臉識(shí)別的教程已經(jīng)有了,于是想著用OpenCV中的dnn模塊來實(shí)現(xiàn),dnn實(shí)現(xiàn)人臉檢測(cè)也有(詳細(xì)教程可見我的這篇博客https://blog.csdn.net/weixin_42149550/article/detai

    2024年02月05日
    瀏覽(19)
  • onnxruntime推理時(shí)切換CPU/GPU以及修改onnx輸入輸出為動(dòng)態(tài)

    前言 onnx模型作為中間模型,相較于pytorch直接推理,是有加速度效果的,且推理代碼簡(jiǎn)單,不需要load各種網(wǎng)絡(luò)。最近某些項(xiàng)目因?yàn)轱@存不夠,onnxruntime推理時(shí)切換CPU/GPU,實(shí)現(xiàn)某些模型在CPU上推理,某些在GPU上推理。 查了一些別人的文章發(fā)現(xiàn)很多人都說onnxruntime推理沒法像py

    2024年02月12日
    瀏覽(28)
  • OpenCV DNN模塊推理YOLOv5 ONNX模型方法

    本文檔主要描述 python 平臺(tái),使用 opencv-python 深度神經(jīng)網(wǎng)絡(luò)模塊 dnn ,推理 YOLOv5 模型的方法。 文檔主要包含以下內(nèi)容: opencv-python 模塊的安裝 YOLOv5 模型格式的說明 ONNX 格式模型的加載 圖片數(shù)據(jù)的預(yù)處理 模型推理 推理結(jié)果后處理,包括 NMS , cxcywh 坐標(biāo)轉(zhuǎn)換為 xyxy 坐標(biāo)等 關(guān)鍵方

    2024年02月16日
    瀏覽(26)
  • 【模型部署 01】C++實(shí)現(xiàn)分類模型(以GoogLeNet為例)在OpenCV DNN、ONNXRuntime、TensorRT、OpenVINO上的推理部署

    【模型部署 01】C++實(shí)現(xiàn)分類模型(以GoogLeNet為例)在OpenCV DNN、ONNXRuntime、TensorRT、OpenVINO上的推理部署

    深度學(xué)習(xí)領(lǐng)域常用的基于CPU/GPU的推理方式有OpenCV DNN、ONNXRuntime、TensorRT以及OpenVINO。這幾種方式的推理過程可以統(tǒng)一用下圖來概述。整體可分為模型初始化部分和推理部分,后者包括步驟2-5。 以GoogLeNet模型為例,測(cè)得幾種推理方式在推理部分的耗時(shí)如下: 結(jié)論: GPU加速首選

    2024年02月06日
    瀏覽(26)
  • 【深度學(xué)習(xí)】【Opencv】【GPU】python/C++調(diào)用onnx模型【基礎(chǔ)】

    【深度學(xué)習(xí)】【Opencv】【GPU】python/C++調(diào)用onnx模型【基礎(chǔ)】

    提示:博主取舍了很多大佬的博文并親測(cè)有效,分享筆記邀大家共同學(xué)習(xí)討論 OpenCV是一個(gè)基于BSD許可發(fā)行的跨平臺(tái)計(jì)算機(jī)視覺和機(jī)器學(xué)習(xí)軟件庫(開源),可以運(yùn)行在Linux、Windows、Android和Mac OS操作系統(tǒng)上??梢詫ytorch中訓(xùn)練好的模型使用ONNX導(dǎo)出,再使用opencv中的dnn模塊直接進(jìn)行

    2024年02月04日
    瀏覽(24)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請(qǐng)作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包