国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

大突破!本地大模型接入微軟Autogen,多專(zhuān)家Agent共事成現(xiàn)實(shí)!支持llama2+chatglm,附代碼!

這篇具有很好參考價(jià)值的文章主要介紹了大突破!本地大模型接入微軟Autogen,多專(zhuān)家Agent共事成現(xiàn)實(shí)!支持llama2+chatglm,附代碼!。希望對(duì)大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請(qǐng)大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問(wèn)。

跑通!跑通!全程跑通!

雄哥認(rèn)為未來(lái)agent的終局大概率是一個(gè)人,管理部門(mén)多個(gè)AI Agent同時(shí)工作,人力將解放!

想象一下,你翹個(gè)二郎腿,偌大的辦公室,只有你一個(gè)人,喊一句:“做個(gè)月度計(jì)劃”,他自動(dòng)分析上月數(shù)據(jù),整合現(xiàn)有資源,做本月的規(guī)劃,人場(chǎng)地資金!做完跟你匯報(bào),你只需說(shuō)“OK”,他自動(dòng)發(fā)給老板!

當(dāng)然!!老板也會(huì)接入專(zhuān)家Agent,幫他全權(quán)管理公司,甚至實(shí)現(xiàn)一個(gè)老板,請(qǐng)三五個(gè)員工,就能干完現(xiàn)在50人+的事情!

想想這多恐怖!!

上篇,我們用GPT4跑通了整個(gè)微軟Autogen項(xiàng)目,并且拉了幾個(gè)專(zhuān)家Agent一起做數(shù)學(xué)題、一起討論干活!

【徹底失眠!把代理Agent拉到一個(gè)群干活!跑完微軟Autogen實(shí)例后emo了!附官方論文原件】

大突破!本地大模型接入微軟Autogen,多專(zhuān)家Agent共事成現(xiàn)實(shí)!支持llama2+chatglm,附代碼!,microsoft

今天我們實(shí)現(xiàn)本地LLM的Agent,接入微軟Autogen的項(xiàng)目,實(shí)現(xiàn)完全本地化部署和推理,直接加快微軟Autogen在國(guó)內(nèi)商業(yè)落地的速度!

我們知道OpenAI的接口是無(wú)法在國(guó)內(nèi)實(shí)現(xiàn)備案+商業(yè)化操作的!那本地llm實(shí)現(xiàn)Agent,是可以完全商業(yè)化運(yùn)作的!

【大模型合法化指南!附算法備案范本!項(xiàng)目商業(yè)落地必看!】

雖然本地部署需要大量計(jì)算資源,但本地的實(shí)現(xiàn),直接打開(kāi)落地的大門(mén)!

今天我們就本地實(shí)現(xiàn)微軟的Autogen過(guò)程做分享:

①是通過(guò)什么方法實(shí)現(xiàn)的?用到什么工具;

②支持哪些模型?功能怎樣;

③跟著代碼跑一個(gè)實(shí)例!一邊跑一邊聊細(xì)節(jié);


>第一部分:通過(guò)什么方法實(shí)現(xiàn)的?用到什么工具?

首先,你需要在知識(shí)星球下載到本地LLM+實(shí)跑教程的代碼原件!

一看便知,整個(gè)實(shí)現(xiàn)過(guò)程非常的簡(jiǎn)單!

公號(hào)獲得方法!

實(shí)現(xiàn)方法非常簡(jiǎn)單!

用FastChat部署啟動(dòng)本地LLM,然后通過(guò)對(duì)齊OpenAI的key,接入到autogen.oai.Completion庫(kù)中,然后你就可以跟著第一篇的教程,部署autogen了!

FastChat>>>啟動(dòng)本地LLM>>>對(duì)齊OpenAI KEY>>>接入Autogen


>第二部分:支持哪些模型?功能怎樣?

目前我們已經(jīng)測(cè)試過(guò)多個(gè)本地的開(kāi)源LLM部署,目前l(fā)lama2反饋的結(jié)果是最好的!閉源模型陣營(yíng)中,除了OpenAI,沒(méi)有測(cè)試過(guò)!

而且,支持微調(diào)后的本地LLM,真正實(shí)現(xiàn)專(zhuān)家Agent就干專(zhuān)長(zhǎng)的事!我們做了一個(gè)簡(jiǎn)單的統(tǒng)計(jì)表,如果你還測(cè)試過(guò)其他模型,歡迎交流!

統(tǒng)計(jì)情況如下(主觀):

大突破!本地大模型接入微軟Autogen,多專(zhuān)家Agent共事成現(xiàn)實(shí)!支持llama2+chatglm,附代碼!,microsoft

如果你在跑其他的試驗(yàn),再次歡迎你加入討論;


>第三部分:跟著代碼跑一個(gè)實(shí)例,一邊跑一邊聊;

剛才我們也說(shuō)了,得益于微軟Autogen的框架,整個(gè)開(kāi)發(fā)過(guò)程,非常的簡(jiǎn)單!Autogen的部署過(guò)程,上節(jié)已經(jīng)講過(guò)了!今天主要講接入Autogen前的過(guò)程!

3.1?FastChat的部署

首先,你需要?jiǎng)?chuàng)建AI環(huán)境,具體創(chuàng)建過(guò)程我不說(shuō)了,雄哥已經(jīng)課程里有一張專(zhuān)門(mén)講環(huán)境搭建的!

第四天!0基礎(chǔ)微調(diào)大模型+知識(shí)庫(kù),部署在微信!手把手安裝AI必備環(huán)境!4/45

克隆FastChat的倉(cāng)庫(kù),并進(jìn)入目錄中

git clone https://github.com/lm-sys/FastChat.git
cd FastChat

如果你本地沒(méi)有基座,需要你先下載

git clone https://huggingface.co/THUDM/chatglm2-6b

安裝serve庫(kù)

python -m fastchat.serve.controller

3.2?啟動(dòng)本地LLM

確保權(quán)重全部下載完成,如果你沒(méi)辦法用抱臉下載,你可以用國(guó)內(nèi)鏡像源或者在雄哥星球的鏈接下載

python -m fastchat.serve.model_worker --model-path chatglm2-6b

3.3?啟動(dòng)接API

這里注意第一個(gè)坑!沒(méi)跑過(guò)的不知道!

這個(gè)“host localhost",你要改本地的地址,例如:127.0.0.1

python -m fastchat.serve.openai_api_server --host localhost --port 8000

他返回的key,是默認(rèn)對(duì)齊OpenAI KEY的,意思是我們本地的LLM的API,“偽裝成”O(jiān)penAI的key,讓他可以被接入到Autogen中!因?yàn)樾乔蛴信笥褑?wèn)到這個(gè)事,簡(jiǎn)單說(shuō)說(shuō)!

3.4?接入Autogen

這時(shí)我們打開(kāi)jupyter-notebook,具體打開(kāi)方法,環(huán)境篇也說(shuō)了!

這里,我們先加載oai.Completion,然后把你得到的api地址,填寫(xiě)到下面去!

記??!一定要加“v1”,否則是無(wú)法被接入的!其他別動(dòng)!

from autogen import oai
?
# create a text completion request
response = oai.Completion.create(
    config_list=[
        {
            "model": "chatglm2-6b",
            "api_base": "http://localhost:8000/v1",
            "api_type": "open_ai",
            "api_key": "NULL", # just a placeholder
        }
    ],
    prompt="Hi",
)
print(response)
# create a chat completion request
response = oai.ChatCompletion.create(
    config_list=[
        {
            "model": "chatglm2-6b",
            "api_base": "http://localhost:8000/v1",
            "api_type": "open_ai",
            "api_key": "NULL",
        }
    ],
    messages=[{"role": "user", "content": "Hi"}]
)
print(response)

他是支持多個(gè)本地LLM啟動(dòng)的!前提是你本地有足夠的算力資源!

這里簡(jiǎn)單說(shuō)下實(shí)現(xiàn)方法!把上面的步驟,稍微改改:

python -m fastchat.serve.multi_model_worker \
    --model-path lmsys/vicuna-7b-v1.3 \
    --model-names vicuna-7b-v1.3 \
    --model-path chatglm2-6b \
    --model-names chatglm2-6b

然后再啟動(dòng)接入!

from autogen import oai
?
# create a chat completion request
response = oai.ChatCompletion.create(
    config_list=[
        {
            "model": "chatglm2-6b",
            "api_base": "http://localhost:8000/v1",
            "api_type": "open_ai",
            "api_key": "NULL",
        },
        {
            "model": "vicuna-7b-v1.3",
            "api_base": "http://localhost:8000/v1",
            "api_type": "open_ai",
            "api_key": "NULL",
        }
    ],
    messages=[{"role": "user", "content": "Hi"}]
)
print(response)

之后你要做的事情,就是跟著第一篇的內(nèi)容,正常配置Autogen即可!

徹底失眠!把代理Agent拉到一個(gè)群干活!跑完微軟Autogen實(shí)例后emo了!附官方論文原件


>也許我們正在見(jiàn)證一個(gè)時(shí)代

期待吧!文章來(lái)源地址http://www.zghlxwxcb.cn/news/detail-741711.html

到了這里,關(guān)于大突破!本地大模型接入微軟Autogen,多專(zhuān)家Agent共事成現(xiàn)實(shí)!支持llama2+chatglm,附代碼!的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來(lái)自互聯(lián)網(wǎng)用戶(hù)投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場(chǎng)。本站僅提供信息存儲(chǔ)空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請(qǐng)注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請(qǐng)點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • 不需要本地部署大模型,modelscope-agent加qwen-max免費(fèi)搭建自己的定制機(jī)器人

    最近阿里開(kāi)源了通用大模型qwen-72b,正在為怎么本地化部署發(fā)愁,轉(zhuǎn)眼看到提供了qwen-max相關(guān)接口的免費(fèi)試用(據(jù)說(shuō)就是基于qwen-72b大模型),這就來(lái)體驗(yàn)一番。 開(kāi)通阿里云靈積平臺(tái),并創(chuàng)建api-key python:3.10+; pydantic 2.0以上,老版本pydantic會(huì)報(bào)一個(gè)tool_schema.model_dump_json的函數(shù)錯(cuò)誤

    2024年01月25日
    瀏覽(23)
  • LLM-分布式訓(xùn)練工具(一):DeepSpeed【微軟】【大模型分布式訓(xùn)練工具,實(shí)現(xiàn)ZeRO并行訓(xùn)練算法】【zero3配置將模型參數(shù)切分后分配到不同的顯卡中,突破單張顯卡容量不足以加載模型參數(shù)的限制】

    DeepSpeed是微軟推出的大規(guī)模模型分布式訓(xùn)練的工具,主要實(shí)現(xiàn)了ZeRO并行訓(xùn)練算法。 原始文檔鏈接: DeepSpeed Optimizer state partitioning (ZeRO stage 1) Gradient partitioning (ZeRO stage 2) Parameter partitioning (ZeRO stage 3) Custom mixed precision training handling A range of fast CUDA-extension-based optimizers ZeRO-Offlo

    2024年02月16日
    瀏覽(23)
  • 微軟推出安全專(zhuān)家服務(wù),攜手合作伙伴建立更安全的世界

    微軟推出安全專(zhuān)家服務(wù),攜手合作伙伴建立更安全的世界

    Vasu Jakkal,微軟公司副總裁,安全、合規(guī)、身份和管理部門(mén) ? 威脅增多,防御不足 對(duì)于客戶(hù)來(lái)說(shuō),安全形勢(shì)日趨復(fù)雜,越來(lái)越具有挑戰(zhàn)性。過(guò)去一年,威脅數(shù)量以驚人的速度增長(zhǎng)著,預(yù)計(jì)到2025年,網(wǎng)絡(luò)犯罪每年將給世界造成10.5萬(wàn)億美元的損失,遠(yuǎn)高于十年前的3萬(wàn)億美元和

    2024年01月24日
    瀏覽(20)
  • 探索微軟Azure Pipelines Agent:高效持續(xù)集成與部署的秘密武器

    項(xiàng)目地址:https://gitcode.com/microsoft/azure-pipelines-agent 在軟件開(kāi)發(fā)的世界中,持續(xù)集成和部署(CI/CD)是速度和質(zhì)量的保證。微軟的Azure Pipelines Agent正是這樣一個(gè)工具,它為你的代碼構(gòu)建、測(cè)試和發(fā)布流程提供了強(qiáng)大的支持。本文將深入探討該項(xiàng)目的核心功能、技術(shù)特點(diǎn),并解釋為

    2024年04月10日
    瀏覽(33)
  • k8s部署服務(wù)接入skywalking之java agent使用(基于sideCar模式)

    java應(yīng)用在接入skywalking的時(shí)候,需要在啟動(dòng)參數(shù)指定 java agent的jar包 -javaagent:/usr/local/skywalking/apache-skywalking-apm-bin/agent/skywalking-agent/skywalking-agent.jar 目前不打算將agent相關(guān)文件制作到j(luò)ava服務(wù)鏡像里面 希望通過(guò) 掛載 的方式將agent包提供出來(lái)供java服務(wù)使用 決定采用 基于sideCar 模式

    2024年02月07日
    瀏覽(23)
  • Quantinuum與微軟攜手突破:開(kāi)創(chuàng)容錯(cuò)量子計(jì)算新紀(jì)元

    Quantinuum與微軟攜手突破:開(kāi)創(chuàng)容錯(cuò)量子計(jì)算新紀(jì)元

    ??每周跟蹤AI熱點(diǎn)新聞動(dòng)向和震撼發(fā)展 想要探索生成式人工智能的前沿進(jìn)展嗎?訂閱我們的簡(jiǎn)報(bào),深入解析最新的技術(shù)突破、實(shí)際應(yīng)用案例和未來(lái)的趨勢(shì)。與全球數(shù)同行一同,從行業(yè)內(nèi)部的深度分析和實(shí)用指南中受益。不要錯(cuò)過(guò)這個(gè)機(jī)會(huì),成為AI領(lǐng)域的領(lǐng)跑者。點(diǎn)擊訂閱,與

    2024年04月10日
    瀏覽(21)
  • 見(jiàn)證歷史:Quantinuum與微軟取得突破性進(jìn)展,開(kāi)啟了可靠量子計(jì)算的新時(shí)代!

    見(jiàn)證歷史:Quantinuum與微軟取得突破性進(jìn)展,開(kāi)啟了可靠量子計(jì)算的新時(shí)代!

    Quantinuum與微軟的合作取得了重大突破,將可靠量子計(jì)算帶入了新的時(shí)代。他們結(jié)合了Quantinuum的System Model H2量子計(jì)算機(jī)和微軟創(chuàng)新的量子比特虛擬化系統(tǒng), 在邏輯量子比特領(lǐng)域取得了800倍于物理電路錯(cuò)誤率的突破 。這一創(chuàng)新不僅影響深遠(yuǎn),加速了量子計(jì)算的進(jìn)展,也挑戰(zhàn)了傳

    2024年04月14日
    瀏覽(31)
  • 深度求索開(kāi)源國(guó)內(nèi)首個(gè) MoE 大模型 | DeepSeekMoE:在專(zhuān)家混合語(yǔ)言模型中實(shí)現(xiàn)終極專(zhuān)家專(zhuān)業(yè)化

    深度求索開(kāi)源國(guó)內(nèi)首個(gè) MoE 大模型 | DeepSeekMoE:在專(zhuān)家混合語(yǔ)言模型中實(shí)現(xiàn)終極專(zhuān)家專(zhuān)業(yè)化

    ?? CSDN 葉庭云 : https://yetingyun.blog.csdn.net/ 在大語(yǔ)言模型時(shí)代,混合專(zhuān)家模型(MoE)是一種很有前途的架構(gòu),用于在擴(kuò)展模型參數(shù)時(shí)管理計(jì)算成本。然而,傳統(tǒng)的 MoE 架構(gòu)(如 GShard)會(huì)激活 N 位專(zhuān)家中的 top-K 專(zhuān)家,但在確保專(zhuān)家專(zhuān)業(yè)化(即每位專(zhuān)家獲取的知識(shí)不重疊且重點(diǎn)突

    2024年01月22日
    瀏覽(22)
  • 數(shù)據(jù)分析專(zhuān)家能力模型

    數(shù)據(jù)分析專(zhuān)家能力模型

    招式:懂商業(yè)(業(yè)務(wù)能力) 外功更偏重于技能,首先需要懂招式,即懂商業(yè),數(shù)據(jù)分析最終是為業(yè)務(wù)服務(wù)的,無(wú)論是互聯(lián)網(wǎng)企業(yè)準(zhǔn)求的用戶(hù)增長(zhǎng)和UJM分解,還是傳統(tǒng)企業(yè)追求的降本增效和精細(xì)化運(yùn)營(yíng),最終都是為了更好的識(shí)別業(yè)務(wù)問(wèn)題,尋求解決方案,提出落地建議。如果不

    2024年04月28日
    瀏覽(19)
  • ChatGPT 混合專(zhuān)家模型

    業(yè)內(nèi)人士近日對(duì) OpenAI 今年 3 月發(fā)布的 GPT-4 大模型進(jìn)行了大揭秘,具體而言,GPT-4 使用了 16 個(gè)混合專(zhuān)家模型 (mixture of experts),每個(gè)有 1110 億個(gè)參數(shù),每次前向傳遞路由經(jīng)過(guò)兩個(gè)專(zhuān)家模型。 什么是混合專(zhuān)家模型? 混合專(zhuān)家模型是一種組合多個(gè)專(zhuān)家模型的方法,旨在通過(guò)利用每

    2024年02月16日
    瀏覽(22)

覺(jué)得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請(qǐng)作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包