国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

使用FastDeploy在英特爾CPU和獨立顯卡上端到端高效部署AI模型

這篇具有很好參考價值的文章主要介紹了使用FastDeploy在英特爾CPU和獨立顯卡上端到端高效部署AI模型。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點擊"舉報違法"按鈕提交疑問。

目錄

1.1?產(chǎn)業(yè)實踐中部署AI模型的痛點

1.1.1??部署模型的典型流程

1.1.2 端到端的AI性能

1.1.3 部署模型的難點和痛點

1.2 FastDeploy簡介

1.3 英特爾獨立顯卡簡介

1.4 使用FastDeploy在英特爾CPU和獨立顯卡上部署模型的步驟

1.4.1 搭建FastDeploy開發(fā)環(huán)境

1.4.2 下載模型和測試圖處

1.4.3 三行代碼完成在項特爾CPU上的模型部署

1.4.4 使用RuntimeOption 將AI推理硬伯切換項特爾獨立顯卡

1.5 總結(jié)

作者:王一凡 英特爾物聯(lián)網(wǎng)創(chuàng)新大使?

1.1?產(chǎn)業(yè)實踐中部署AI模型的痛點

1.1.1??部署模型的典型流程

????????對于來自于千行百業(yè),打算將AI模型集成到自己的主線產(chǎn)品中,解決本行痛點的AI開發(fā)者來說,部署AI模型,或者說將AI模型集成到自己產(chǎn)品中去的典型步驟(以計算機視覺應(yīng)用為例)有:

  • 采集圖像&圖像解碼
  • 數(shù)據(jù)預(yù)處理
  • 執(zhí)行AI推理計算
  • 推理結(jié)果后處理
  • 將后處理結(jié)果集成到業(yè)務(wù)流程

使用FastDeploy在英特爾CPU和獨立顯卡上端到端高效部署AI模型

1.1.2 端到端的AI性能

????????當AI開發(fā)者將AI模型集成到業(yè)務(wù)流程后,不太關(guān)心AI模型在AI推理硬件上單純的推理速度,而是關(guān)心包含圖像解碼、數(shù)據(jù)預(yù)處理和后處理的端到端的AI性能。

使用FastDeploy在英特爾CPU和獨立顯卡上端到端高效部署AI模型?

????????在產(chǎn)業(yè)實踐中,我們發(fā)現(xiàn)不僅AI推理硬件和對應(yīng)推理引擎(例如:OpenVINO Runtime)對于端到端的性能影響大,數(shù)據(jù)預(yù)處理和后處理代碼是否高效對于端到端的性能影響也大。

????????以CPU上預(yù)處理操作融合優(yōu)化為例,經(jīng)過優(yōu)化后的前處理代碼,可以使得AI端到端性能得到較大提升。

使用FastDeploy在英特爾CPU和獨立顯卡上端到端高效部署AI模型

數(shù)據(jù)來源:感謝FastDeploy團隊完成測試并提供數(shù)據(jù)?

結(jié)論:優(yōu)秀且高效的前后處理代碼,可以明顯提高端到端的AI性能!

1.1.3 部署模型的難點和痛點

????????在產(chǎn)業(yè)實踐中,在某個任務(wù)上當前最優(yōu)的SOTA模型的很有可能與部署相關(guān)的文檔和范例代碼不完整,AI開發(fā)者需要通過閱讀SOTA模型源代碼來手動編寫模型的前后處理代碼,這導致:

  • 耗時耗力:閱讀SOTA模型源代碼來理解模型的前后處理,提高了部署模型的技術(shù)門檻。另外,手動編寫前后處理代碼,也需要更多的測試工作來消除bug。
  • 精度隱患:手動或借助網(wǎng)上開源但未經(jīng)過實踐驗證過的前后處理代碼,會有精度隱患,即當前對于某些圖片精度很好,但對于另外的圖片精度就下降。筆者就遇到過類似問題,原因在于調(diào)用了一個GitHub上下載的NMS()函數(shù),這個函數(shù)對代碼倉提供的范例模型有效,但對于筆者使用的模型恰恰就出現(xiàn)丟失檢測對象的問題。
  • 優(yōu)化困難:解決了精度問題后,下一步就是通過多線程、模型壓縮、Batch優(yōu)化等軟件技術(shù)進一步提升端到端的AI性能,節(jié)約硬件采購成本。這些軟件技術(shù)對于計算機專業(yè)的工程師不算挑戰(zhàn),但對于千行百業(yè)中非計算機專業(yè)的工程師,卻無形中建立起了一道極高的門檻。

????????為了賦能千行百業(yè)的工程師,高效便捷的將AI模型集成到自己的產(chǎn)品中去,急需一個專門面向AI模型部署的軟件工具。

1.2 FastDeploy簡介

????????FastDeploy是一款全場景、易用靈活、極致高效的AI推理部署工具。提供開箱即用云邊端部署體驗, 支持超過?150+?Text,?Vision,?Speech和跨模態(tài)模型,并實現(xiàn)端到端的推理性能優(yōu)化。包括圖像分類、物體檢測、圖像分割、人臉檢測、人臉識別、關(guān)鍵點檢測、摳圖、OCR、NLP、TTS等任務(wù),滿足開發(fā)者多場景、多硬件、多平臺的產(chǎn)業(yè)部署需求。

使用FastDeploy在英特爾CPU和獨立顯卡上端到端高效部署AI模型

?FastDeploy項目鏈接: https://github.com/PaddlePaddle/FastDeploy

1.3 英特爾獨立顯卡簡介

????????英特爾在2021年的構(gòu)架日上發(fā)布了獨立顯卡產(chǎn)品路線圖,OpenVINO從2022.2版本開始支持AI模型在英特爾獨立顯卡上做AI推理計算。

使用FastDeploy在英特爾CPU和獨立顯卡上端到端高效部署AI模型

?????????當前已經(jīng)可以購買的消費類獨立顯卡是英特爾銳炫TM獨立顯卡A7系列,并已發(fā)布在獨立顯卡上做AI推理計算的范例程序。

使用FastDeploy在英特爾CPU和獨立顯卡上端到端高效部署AI模型

1.4 使用FastDeploy在英特爾CPU和獨立顯卡上部署模型的步驟

1.4.1 搭建FastDeploy開發(fā)環(huán)境

????????當前FastDeploy 最新的Release版本是1.0.1,一行命令即可完成FastDeploy的安裝:

pip install fastdeploy-python –f https://www.paddlepaddle.org.cn/whl/fastdeploy.html 

1.4.2 下載模型和測試圖處

????????FastDeploy支持的PaddleSeg預(yù)訓練模型下載地址:FastDeploy/examples/vision/segmentation/paddleseg at develop · PaddlePaddle/FastDeploy · GitHub

????????測試圖片下載地址:https://paddleseg.bj.bcebos.com/dygraph/demo/cityscapes_demo.png

使用命令,下載模型和測試圖片

圖片:

wget https://paddleseg.bj.bcebos.com/dygraph/demo/cityscapes_demo.png

模型:https://github.com/PaddlePaddle/FastDeploy/tree/develop/examples/vision/segmentation/paddleseg

1.4.3 三行代碼完成在項特爾CPU上的模型部署

??? 基于FastDeploy,只需三行代碼即可完成在英特爾CPU上的模型部署,并獲得經(jīng)過后處理的推理結(jié)果。

import fastdeploy as fd

import cv2

# 讀取圖片

im = cv2.imread("cityscapes_demo.png")

# 加載飛槳PaddleSeg模型

model = fd.vision.segmentation.PaddleSegModel(“model.pdmodel”, “model.pdiparams”,“deploy.yaml”)

# 預(yù)測結(jié)果

result = model.predict(im)

print(result)

????????將推理結(jié)果print出來,如下圖所示,經(jīng)過FastDeploy完成的AI推理計算,拿到的是經(jīng)過后處理的結(jié)果,可以直接將該結(jié)果傳給業(yè)務(wù)處理流程

使用FastDeploy在英特爾CPU和獨立顯卡上端到端高效部署AI模型

1.4.4 使用RuntimeOption 將AI推理硬伯切換項特爾獨立顯卡

????????在上述三行代碼的基礎(chǔ)上,只需要使用RuntimeOption將AI推理硬件切換為英特爾獨立顯卡,完成代碼如下所示:?

import fastdeploy as fd

import cv2

# 讀取圖片

im = cv2.imread("cityscapes_demo.png")

h, w, c = im.shape

# 通過RuntimeOption配置后端

option = fd.RuntimeOption()

option.use_openvino_backend()

option.set_openvino_device("GPU.1")

# 固定模型的輸入形狀

option.set_openvino_shape_info({"x": [1,c,h,w]})

# 加載飛槳PaddleSeg模型

model = fd.vision.segmentation.PaddleSegModel(“model.pdmodel”, “model.pdiparams”,“deploy.yaml”,

? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? runtime_option=option) ? ? ? ? ? ? ? ? ? ? ? ? ? ??

# 預(yù)測結(jié)果

result = model.predict(im)

????????set_openvino_device()中字符串填寫“GPU.1”是根據(jù)英特爾獨立顯卡在操作系統(tǒng)的中設(shè)備名稱,如下圖所示:

使用FastDeploy在英特爾CPU和獨立顯卡上端到端高效部署AI模型

?文章來源地址http://www.zghlxwxcb.cn/news/detail-429833.html

當前,在英特爾獨立顯卡上做AI推理,需要注意的問題有:

  • 需要固定模型輸入節(jié)點的形狀(Shape)
  • 英特爾GPU上支持的算子數(shù)量與CPU并不一致,在部署PPYOLE時,如若全采用GPU執(zhí)行,會出現(xiàn)如下提示

使用FastDeploy在英特爾CPU和獨立顯卡上端到端高效部署AI模型

???????????? 這是需要將推理硬件設(shè)置為異構(gòu)方式

option.set_openvino_device("HETERO:GPU.1,CPU")

到此,使用FastDeploy在英特爾CPU和獨立顯卡上部署AI模型的工作全部完成。

1.5 總結(jié)

????????面對千行百業(yè)中部署AI模型的挑戰(zhàn),F(xiàn)astDeploy工具很好的保證了部署AI模型的精度,以及端到端AI性能問題,也提高了部署端工作的效率。通過RuntimeOption,將FastDeploy的推理后端設(shè)置為OpenVINO,可以非常便捷將AI模型部署在英特爾CPU、集成顯卡和獨立顯卡上。

使用FastDeploy在英特爾CPU和獨立顯卡上端到端高效部署AI模型

?

到了這里,關(guān)于使用FastDeploy在英特爾CPU和獨立顯卡上端到端高效部署AI模型的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務(wù),不擁有所有權(quán),不承擔相關(guān)法律責任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實不符,請點擊違法舉報進行投訴反饋,一經(jīng)查實,立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費用

相關(guān)文章

  • 在英特爾 CPU 上加速 Stable Diffusion 推理

    在英特爾 CPU 上加速 Stable Diffusion 推理

    前一段時間,我們向大家介紹了最新一代的 英特爾至強 CPU (代號 Sapphire Rapids),包括其用于加速深度學習的新硬件特性,以及如何使用它們來加速自然語言 transformer 模型的 分布式微調(diào) 和 推理。 英特爾至強處理器: https://www.intel.com/content/www/us/en/products/details/processors/xeon/scal

    2024年02月09日
    瀏覽(27)
  • 在英特爾 CPU 上微調(diào) Stable Diffusion 模型

    在英特爾 CPU 上微調(diào) Stable Diffusion 模型

    擴散模型能夠根據(jù)文本提示生成逼真的圖像,這種能力促進了生成式人工智能的普及。人們已經(jīng)開始把這些模型用在包括數(shù)據(jù)合成及內(nèi)容創(chuàng)建在內(nèi)的多個應(yīng)用領(lǐng)域。Hugging Face Hub 包含超過 5 千個預(yù)訓練的文生圖 模型。這些模型與 Diffusers 庫 結(jié)合使用,使得構(gòu)建圖像生成工作流

    2024年02月15日
    瀏覽(19)
  • Ubuntu Linux 22.04 快速安裝英特爾顯卡驅(qū)動(含Edge AI 包)

    Ubuntu Linux 22.04 快速安裝英特爾顯卡驅(qū)動(含Edge AI 包)

    英特爾 EIV (Edge insight Vision)具有一組預(yù)集成組件,專為邊緣應(yīng)用的計算機視覺和深度學習推理而設(shè)計,并針對英特爾?架構(gòu)進行了優(yōu)化。它作為容器化架構(gòu)或獨立運行時實現(xiàn)。 此軟件包包含用于在英特爾處理器和英特爾顯卡設(shè)備上安裝英特爾?顯卡驅(qū)動程序和為 OpenVINO? 推理

    2024年02月08日
    瀏覽(53)
  • 英特爾集成顯卡+ChatGLM3大語言模型的企業(yè)本地AI知識庫部署

    英特爾集成顯卡+ChatGLM3大語言模型的企業(yè)本地AI知識庫部署

    作者: 英特爾創(chuàng)新大使 劉力 英特爾開發(fā)者技術(shù)推廣經(jīng)理 李翊瑋 ? ??在當今的企業(yè)環(huán)境中,信息的快速獲取和處理對于企業(yè)的成功至關(guān)重要。為了滿足這一需求,我們可以將RAG技術(shù)與企業(yè)本地知識庫相結(jié)合,以提供實時的、自動生成的信息處理和決策支持。這將有助于企業(yè)

    2024年04月26日
    瀏覽(34)
  • 英特爾13代桌面CPU平臺安裝ubuntu20.04LTS記錄

    英特爾13代桌面CPU平臺安裝ubuntu20.04LTS記錄

    安裝環(huán)境一: i7-13700K ?華碩Z790-P ?16X2GB內(nèi)存 ? 華碩 TUF 3070 O8G 安裝環(huán)境二: i5-13400 ? ?華碩B760M-A D4 8x2GB內(nèi)存 ? UHD730核顯 安裝系統(tǒng): ubuntu20.04LTS(首先用光驅(qū)安裝失敗,后面用U盤更換ubuntu22.04.2LTS成功) 因為特殊原因,先用光驅(qū)安裝ubuntu20.04LTS,首先安裝很慢很慢,要等半小時進

    2024年02月06日
    瀏覽(93)
  • 英特爾Raptor Lake Refresh第14代CPU:傳聞發(fā)布日期、價格、規(guī)格等

    英特爾Raptor Lake Refresh第14代CPU:傳聞發(fā)布日期、價格、規(guī)格等

    英特爾預(yù)計將在今年秋天推出第14代Raptor Lake-S Refresh CPU。雖然即將推出的系列芯片沿用了當前的第13代英特爾核心系列,但它們實際上是相同CPU的更新版本。 Raptor Lake-s Refresh芯片沒有任何官方消息,但幾次所謂的泄露讓我們了解了我們可能會期待什么。如果這些傳言和報道屬

    2024年02月11日
    瀏覽(27)
  • 越小越好: Q8-Chat,在英特爾至強 CPU 上體驗高效的生成式 AI

    大語言模型 (LLM) 正在席卷整個機器學習世界。得益于其 transformer 架構(gòu),LLM 擁有從大量非結(jié)構(gòu)化數(shù)據(jù) (如文本、圖像、視頻或音頻) 中學習的不可思議的能力。它們在 多種任務(wù)類型 上表現(xiàn)非常出色,無論是文本分類之類的抽取任務(wù) (extractive task) 還是文本摘要和文生圖像之類的

    2024年02月06日
    瀏覽(19)
  • 英特爾 D435/D435i雙目相機 使用指南

    英特爾 D435/D435i雙目相機 使用指南

    目錄 Intel RealSense D435深度相機介紹: 關(guān)于左右紅外圖像: 關(guān)于像素深度的檢索: Intel RealSense 各種工具: 工具的介紹 相機基本操作 相機自校準 獲取相機參數(shù) python腳本 Linux命令行 相機運行并顯示畫面 獲得深度圖像 點云 幀對齊 英特爾官方手冊:調(diào)整深度攝像頭以獲得最佳

    2024年02月02日
    瀏覽(59)
  • 第三代英特爾 至強 可擴展處理器(Ice Lake)和英特爾 深度學習加速助力阿里巴巴 Transformer 模型性能提升

    第三代英特爾 至強 可擴展處理器(Ice Lake)和英特爾 深度學習加速助力阿里巴巴 Transformer 模型性能提升

    第三代英特爾? 至強? 可擴展處理器采用了英特爾10 納米 + 制程技術(shù)。相比于第二代英特爾? 至強? 可擴展處理器,該系列處理器內(nèi)核更多、內(nèi)存容量和頻率更高。阿里巴巴集團和英特爾的技術(shù)專家共同探索了這些能力對人工智能應(yīng)用的意義,特別是在與英特爾? 深度學習加

    2024年02月16日
    瀏覽(19)
  • 英特爾開始加碼封裝領(lǐng)域 | 百能云芯

    英特爾開始加碼封裝領(lǐng)域 | 百能云芯

    ? 在積極推進先進制程研發(fā)的同時,英特爾正在加大先進封裝領(lǐng)域的投入。在這個背景下,該公司正在馬來西亞檳城興建一座全新的封裝廠,以加強其在2.5D/3D封裝布局領(lǐng)域的實力。據(jù)了解,英特爾計劃到2025年前,將其最先進的3D Foveros封裝產(chǎn)能擴增至目前的四倍,同時還向客

    2024年02月11日
    瀏覽(20)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包