国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

AntSK 0.2.3 版本更新:輕松集成 AI 本地離線模型

這篇具有很好參考價值的文章主要介紹了AntSK 0.2.3 版本更新:輕松集成 AI 本地離線模型。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問。

? ? ? ? 大家好,今天和大家分享?AntSK 知識庫/智能體項(xiàng)目的最新進(jìn)展。

??????? AntSK 是一個基于?.Net 8、Blazor?及?SemanticKernel?開發(fā)的 AI 項(xiàng)目,旨在為開發(fā)者提供一個強(qiáng)大的 AI 知識庫與智能體平臺。最新版本的項(xiàng)目可以在 GitHub 上找到:

https://github.com/AIDotNet/AntSK

? ? ? ? 在 AntSK 之前的版本中,我們已經(jīng)成功地整合了使用?LLamaSharp?加載本地模型的 gguf 類型,但我們并沒有就此止步。為了進(jìn)一步支持更多類型的本地模型,并便于測試不同模型的表現(xiàn),我們更新了項(xiàng)目,加入了?llamafactory?的集成,并且著手準(zhǔn)備接下來的模型微調(diào)功能。

????????下面是我們對?llamafactory?集成工作的一個概述:

????????我們知道,.Net 平臺在運(yùn)行 AI 模型推理和訓(xùn)練方面的組件庫并不如?Python?那樣豐富(雖然博主也是主技能.Net?)。因此,我們這次選擇了一個工程上的簡化方案:直接將?llamafactory?的核心文件集成到 AntSK 項(xiàng)目中,并通過使用?llamafactory?的 API 來完成集成,而非直接使用?python.net。這樣做的主要目的是降低使用門檻,即便是對 Python 不夠熟悉的開發(fā)者也能夠輕松上手。

????????首先,我們將?llamafactory?核心文件整合到了項(xiàng)目中,見下圖:?

AntSK 0.2.3 版本更新:輕松集成 AI 本地離線模型

? ? ? ? 我們原先考慮通過?python.net?來完成集成,但后來發(fā)現(xiàn)那樣會增加很多工作量。因此轉(zhuǎn)而采用了一個間接的方法:自動通過?AntSK?安裝依賴并啟動?llamafactory。

????????代碼實(shí)例 1:安裝python環(huán)境以及安裝?llamafactory?所需的依賴包

 public async Task PipInstall()
 {

     var cmdTask = Task.Factory.StartNew(() =>
     {

         var isProcessComplete = false;

         process = new Process
         {
             StartInfo = new ProcessStartInfo
             {
                 FileName = "pip",
                 Arguments = "install -r requirements.txt -i https://pypi.tuna.tsinghua.edu.cn/simple",
                 UseShellExecute = false,
                 RedirectStandardOutput = true,
                 RedirectStandardError = true,
                 WorkingDirectory = AppDomain.CurrentDomain.BaseDirectory,
             }
         };  
         process.OutputDataReceived += (sender, eventArgs) =>
         {
             Console.WriteLine($"{eventArgs.Data}");
             OnLogMessageReceived(eventArgs.Data);
         };
         process.ErrorDataReceived += (sender, eventArgs) =>
         {
             Console.WriteLine($"{eventArgs.Data}");
             OnLogMessageReceived(eventArgs.Data);
         };
         process.Start();
         process.BeginOutputReadLine();
         process.BeginErrorReadLine();
         process.WaitForExit();
     }, TaskCreationOptions.LongRunning);
 }

  代碼實(shí)例 2:啟動?llamafactory?并指定模型及模板

public async Task StartLLamaFactory(string modelName, string templateName)
 {
     var cmdTask = Task.Factory.StartNew(() =>
     {

         var isProcessComplete = false;

         process = new Process
         {
             StartInfo = new ProcessStartInfo
             {
                 FileName = "python",
                 Arguments = "api_demo.py --model_name_or_path " + modelName + " --template " + templateName + " ",
                 UseShellExecute = false,
                 RedirectStandardOutput = true,
                 RedirectStandardError=true,
                 WorkingDirectory = Path.Combine(Path.GetDirectoryName(System.Reflection.Assembly.GetEntryAssembly().Location), "llamafactory"),
             }
         };
         process.StartInfo.Environment["CUDA_VISIBLE_DEVICES"] = "0";
         process.StartInfo.Environment["API_PORT"] = "8000";
         process.StartInfo.EnvironmentVariables["USE_MODELSCOPE_HUB"] = "1";
         process.OutputDataReceived += (sender, eventArgs) =>
         {
             Console.WriteLine($"{eventArgs.Data}");
             OnLogMessageReceived(eventArgs.Data);
         };
         process.ErrorDataReceived += (sender, eventArgs) =>
         {
             Console.WriteLine($"{eventArgs.Data}");
             OnLogMessageReceived(eventArgs.Data);
         };
         process.Start();
         process.BeginOutputReadLine();
         process.BeginErrorReadLine();
         process.WaitForExit();
     }, TaskCreationOptions.LongRunning);
 }

  

? ? ? ? 隨后,我們將模型的 API 地址設(shè)置為了?llamafactory?的代理地址。這個簡化的流程使得我們能夠迅速使用?llamafactory。

????????效果展示:?

  在創(chuàng)建模型時,選擇LLamaFactory,然后我們就可以選擇很多魔塔的本地模型

AntSK 0.2.3 版本更新:輕松集成 AI 本地離線模型

?文章來源地址http://www.zghlxwxcb.cn/news/detail-842832.html

? ? ? ? 選擇好后我們點(diǎn)擊啟動。

????????為了更容易看到安裝依賴和運(yùn)行llamafactory的日志,我們加入了類似控制臺的顯示組件:

AntSK 0.2.3 版本更新:輕松集成 AI 本地離線模型

?等待模型下載結(jié)束后,我們在請求地址中設(shè)置llamafactory的服務(wù)地址(這里默認(rèn)配置的是8000端口

AntSK 0.2.3 版本更新:輕松集成 AI 本地離線模型

?

? ? ? ? 然后我們就可以開始聊天了?。?/p>

????????通過AntSK可以非常容易集成各種本地模型進(jìn)行使用。

????????我們下一步將會集成bgeembedding模型,以及如何在AntSK中實(shí)現(xiàn)rerank。

????????更進(jìn)一步,我們的下一步計(jì)劃是集成模型微調(diào)功能,為此,我們已經(jīng)在布局相關(guān)工作。希望大家繼續(xù)關(guān)注我的公眾號,持續(xù)跟進(jìn)我們的最新動態(tài)!未來,讓我們共同見證 AntSK 如何使 AI 集成更加簡單化、智能化。

AntSK 0.2.3 版本更新:輕松集成 AI 本地離線模型

?

到了這里,關(guān)于AntSK 0.2.3 版本更新:輕松集成 AI 本地離線模型的文章就介紹完了。如果您還想了解更多內(nèi)容,請?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • 筆記本電腦部署本地離線版類似ChatGPT3.5的AI模型(CPU+內(nèi)存運(yùn)行)

    筆記本電腦部署本地離線版類似ChatGPT3.5的AI模型(CPU+內(nèi)存運(yùn)行)

    如果通過GPU來運(yùn)行,一般辦公電腦的顯卡可能達(dá)不到所需的要求,所以,可以通過CPU+內(nèi)存的方式花最低的代價來部署一套本地運(yùn)行AI的模型。 1、首先下載CPU-Z,運(yùn)行看一下電腦當(dāng)前的指令集是否包含AVX512,非AVX512指令部署完應(yīng)該也能運(yùn)行,但可能運(yùn)行速度會非常慢。(我的電

    2024年02月04日
    瀏覽(38)
  • AI模型部署記錄(一)-ChatGLM:清華開源本地部署(2023/05/06更新)

    文章首發(fā)及后續(xù)更新:https://mwhls.top/4500.html,無圖/無目錄/格式錯誤/更多相關(guān)請至首發(fā)頁查看。 新的更新內(nèi)容請到mwhls.top查看。 歡迎提出任何疑問及批評,非常感謝! 服務(wù)部署匯總 本來這篇是為了打比賽寫的,寫著寫著發(fā)現(xiàn)兩個問題,AI部署連續(xù)幾篇,等我比賽打完再發(fā)模

    2024年02月03日
    瀏覽(59)
  • AI繪畫——本地配置webui啟動器教程,支持一鍵啟動/修復(fù)/更新/模型下載管理+Lora模型推薦

    AI繪畫——本地配置webui啟動器教程,支持一鍵啟動/修復(fù)/更新/模型下載管理+Lora模型推薦

    秋葉aaaki的個人空間_嗶哩嗶哩_bilibili https://space.bilibili.com/12566101/?spm_id_from=333.999.0.0 感謝 秋葉aaaki大佬の免費(fèi)開源 目錄 1.獲取資源整合包 2. 下載并配置webui啟動器 ?3.啟動器功能 ?4.一鍵啟動,開始實(shí)戰(zhàn) 5.效果演示? 露出雞腳哩 ?幻想景色加上lora模型xiaorenshu ?劉亦菲圖生圖

    2024年02月03日
    瀏覽(26)
  • 爬蟲實(shí)戰(zhàn):從網(wǎng)頁到本地,如何輕松實(shí)現(xiàn)小說離線閱讀

    爬蟲實(shí)戰(zhàn):從網(wǎng)頁到本地,如何輕松實(shí)現(xiàn)小說離線閱讀

    今天我們將繼續(xù)進(jìn)行爬蟲實(shí)戰(zhàn),除了常規(guī)的網(wǎng)頁數(shù)據(jù)抓取外,我們還將引入一個全新的下載功能。具體而言,我們的主要任務(wù)是爬取小說內(nèi)容,并實(shí)現(xiàn)將其下載到本地的操作,以便后續(xù)能夠進(jìn)行離線閱讀。 為了確保即使在功能逐漸增多的情況下也不至于使初學(xué)者感到困惑,我

    2024年03月19日
    瀏覽(18)
  • 英特爾集成顯卡+ChatGLM3大語言模型的企業(yè)本地AI知識庫部署

    英特爾集成顯卡+ChatGLM3大語言模型的企業(yè)本地AI知識庫部署

    作者: 英特爾創(chuàng)新大使 劉力 英特爾開發(fā)者技術(shù)推廣經(jīng)理 李翊瑋 ? ??在當(dāng)今的企業(yè)環(huán)境中,信息的快速獲取和處理對于企業(yè)的成功至關(guān)重要。為了滿足這一需求,我們可以將RAG技術(shù)與企業(yè)本地知識庫相結(jié)合,以提供實(shí)時的、自動生成的信息處理和決策支持。這將有助于企業(yè)

    2024年04月26日
    瀏覽(33)
  • 谷歌Bard更新中文支持;GPT-4:1.8萬億參數(shù)、混合專家模型揭秘; Meta推出商用版本AI模型

    谷歌Bard更新中文支持;GPT-4:1.8萬億參數(shù)、混合專家模型揭秘; Meta推出商用版本AI模型

    ?? AI新聞 ?? 谷歌的AI聊天工具Bard更新,增加中文支持 摘要 :谷歌的AI聊天工具Bard新增中文環(huán)境,用戶可以使用簡體和繁體中文進(jìn)行交流。然而,與競品相比,Bard的回復(fù)略顯生硬,語義理解還有待提升。此外,谷歌還更新了Bard的日志頁面,新增了40多種語言支持,并增加了

    2024年02月16日
    瀏覽(20)
  • 解決VsCode 本地安裝離線簡體中文插件版本不兼容問題

    解決VsCode 本地安裝離線簡體中文插件版本不兼容問題

    Unable?to?install?extension?\\\'ms-ceintl.vscode-language-pack-zh-hans\\\'?as?it?is?not?compatible?with?VS?Code?\\\'1.81.1\\\'. 1、首先下載離線簡體中文插件安裝包到本地 2、需要安裝壓縮包工具,如果安裝了 選中文件右鍵使用壓縮包工具打開,比如360壓縮工具 3、進(jìn)入extension/package.json文件 將對應(yīng)版本

    2024年01月25日
    瀏覽(25)
  • 【大語言模型】輕松本地部署Stable Diffusion

    【大語言模型】輕松本地部署Stable Diffusion

    硬件要求: 配備至少8GB VRAM的GPU,如果你的電腦只有CPU,請看到最后。 根據(jù)部署規(guī)模,需要足夠的CPU和RAM。 軟件要求: Python 3.7或更高版本。 支持NVIDIA GPU的PyTorch。 Hugging Face的Diffusers庫。 Hugging Face的Transformers庫。 步驟: 1. 設(shè)置Python環(huán)境 安裝Python并創(chuàng)建一個虛擬環(huán)境: 2.

    2024年04月17日
    瀏覽(23)
  • ChatGPT商業(yè)網(wǎng)站源碼/支持GPT4.0/ai繪畫(MJ繪畫模型)/用戶會員套餐/賺取收益/實(shí)時語音識別輸入/文章資訊發(fā)布功能/邀請分傭功能/后臺一鍵版本更新!

    ChatGPT商業(yè)網(wǎng)站源碼/支持GPT4.0/ai繪畫(MJ繪畫模型)/用戶會員套餐/賺取收益/實(shí)時語音識別輸入/文章資訊發(fā)布功能/邀請分傭功能/后臺一鍵版本更新!

    最新ChatGPT商業(yè)網(wǎng)站源碼/支持GPT4.0/ai繪畫(MJ繪畫模型)/用戶會員套餐/賺取收益/實(shí)時語音識別輸入/文章資訊發(fā)布功能/邀請分傭功能/后臺一鍵版本更新!支持支付寶微信官方支付、第三方支付、個人收款碼支付。 實(shí)時語音識別輸入: 支持中文+英文識別 如果后續(xù)程序有新版,直

    2024年02月08日
    瀏覽(25)
  • 【ChatGLM】本地版ChatGPT ?6G顯存即可輕松使用 !ChatGLM-6B 清華開源模型本地部署教程

    【ChatGLM】本地版ChatGPT ?6G顯存即可輕松使用 !ChatGLM-6B 清華開源模型本地部署教程

    目錄 感謝B站秋葉aaaki大佬 前言 部署資源 部署流程? 實(shí)機(jī)演示 ChatGML微調(diào)(人格煉成)(個人感覺蠻有趣的地方) ?分享有趣の微調(diào)人格 ?實(shí)機(jī)演示(潘金蓮人格) 秋葉aaaki的個人空間_嗶哩嗶哩_bilibili https://space.bilibili.com/12566101 由于ChatGLM-6B的規(guī)模較小,目前已知其具有相當(dāng)

    2024年02月06日
    瀏覽(34)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包