国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

IDPChat:探索基于LLaMA和Stable Diffusion的「開源」中文多模態(tài)AI大模型

這篇具有很好參考價(jià)值的文章主要介紹了IDPChat:探索基于LLaMA和Stable Diffusion的「開源」中文多模態(tài)AI大模型。希望對(duì)大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請(qǐng)大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問(wèn)。

中文多模態(tài)模型 IDPChat 和大家見面了。

隨著GPT4、文心一言等的發(fā)布,預(yù)訓(xùn)練大模型正式開啟由單模態(tài)向多模態(tài)模型演進(jìn)。多模態(tài)的特性為語(yǔ)言模型帶來(lái)更加豐富的應(yīng)用場(chǎng)景。

我們認(rèn)為,未來(lái)的AI應(yīng)用將主要以大模型為核心基石。

而在大模型的領(lǐng)域,基于基礎(chǔ)模型(Foundation model)構(gòu)建領(lǐng)域或企業(yè)自有的大模型,會(huì)是近中期的重要發(fā)展趨勢(shì)。

但在私有化大模型微調(diào)和應(yīng)用方面,企業(yè)和機(jī)構(gòu)仍面臨著微調(diào)復(fù)雜、部署困難、成本較高等種種工程化挑戰(zhàn)。

白海作為AI基礎(chǔ)軟件服務(wù)商,我們希望能夠從AI Infra層面,提供端到端的大模型微調(diào)、部署和應(yīng)用工具,降低大模型微調(diào)和應(yīng)用的門檻。白??萍糏DP平臺(tái)目前提供了從大模型數(shù)據(jù)源接入到大模型微調(diào)訓(xùn)練、模型發(fā)布的全流程功能。

我們以IDP平臺(tái)為工具支撐,以預(yù)訓(xùn)練大語(yǔ)言模型LLaMA和開源文生圖預(yù)訓(xùn)練模型Stable Diffusion為基礎(chǔ),快速構(gòu)建了多模態(tài)大模型應(yīng)用IDPChat。開發(fā)者們可根據(jù)場(chǎng)景需求,便捷地對(duì)其進(jìn)行微調(diào)優(yōu)化。

項(xiàng)目地址:https://github.com/BaihaiAI/IDPChat

IDPChat 能做什么

IDPChat目前可以同時(shí)支持文字對(duì)話和圖片生成。

首先是圖像生成,我們可以讓模型根據(jù)文字描述畫一幅畫。

IDPChat:探索基于LLaMA和Stable Diffusion的「開源」中文多模態(tài)AI大模型

基礎(chǔ)的文字對(duì)話聊天示例,可支持中文。

IDPChat:探索基于LLaMA和Stable Diffusion的「開源」中文多模態(tài)AI大模型

IDPChat 快速上手

僅需簡(jiǎn)單的5步和單GPU,即可快速啟用IDPChat。

操作步驟如下:

1.??修改 ./backend/app/stable_diffusion/generate_image.py 文件,設(shè)置 diffusion_path 的值為本地 stable-diffusion 模型存儲(chǔ)路徑,設(shè)置 trans_path 的值為本地中文翻譯模型的存儲(chǔ)路徑

2.??修改 ./backend/app/llama/generate_text.py 文件,設(shè)置 load_model 的 base 參數(shù)值為本地 llama 模型的存儲(chǔ)路徑

3.??執(zhí)行 build.sh 腳本進(jìn)行編譯

4.??編譯成功后執(zhí)行 run.sh 腳本啟動(dòng)服務(wù)

5.??服務(wù)啟動(dòng)成功后,在瀏覽器中打開http://127.0.0.1:8000

在應(yīng)用之前,需要下載準(zhǔn)備所需的模型,LLaMA、Stable diffusion和相應(yīng)的翻譯模型。

具體所需的環(huán)境、模型、和操作步驟可以參考https://github.com/BaihaiAI/IDPChat


目前發(fā)布IDPChat初步版本,打通模型微調(diào)的全流程。

后續(xù)我們會(huì)繼續(xù)對(duì)模型進(jìn)行優(yōu)化和豐富,如多模態(tài)部分增加圖像描述功能。

當(dāng)然要實(shí)現(xiàn)特定領(lǐng)域更高質(zhì)量、針對(duì)性的表現(xiàn),還需要基于領(lǐng)域數(shù)據(jù)的finetune和優(yōu)化。

對(duì) IDPChat 和 IDP 平臺(tái)感興趣的開發(fā)者小伙伴、場(chǎng)景應(yīng)用伙伴等歡迎關(guān)注Github并聯(lián)系我們。我們相信 IDP 平臺(tái)和 IDPChat 將成為您探索多模態(tài)大模型應(yīng)用和私有化大模型構(gòu)建的得力助手。文章來(lái)源地址http://www.zghlxwxcb.cn/news/detail-484374.html

到了這里,關(guān)于IDPChat:探索基于LLaMA和Stable Diffusion的「開源」中文多模態(tài)AI大模型的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來(lái)自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場(chǎng)。本站僅提供信息存儲(chǔ)空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請(qǐng)注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請(qǐng)點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • 最新版本 Stable Diffusion 開源 AI 繪畫工具之中文自動(dòng)提詞篇

    最新版本 Stable Diffusion 開源 AI 繪畫工具之中文自動(dòng)提詞篇

    目錄 ?? 標(biāo)簽生成器 ?? 提示詞自動(dòng)補(bǔ)全 由于輸入正向提示詞 prompt 和反向提示詞 negative prompt 都是使用英文,所以對(duì)學(xué)習(xí)母語(yǔ)的我們非常不友好 使用網(wǎng)址:https://tinygeeker.github.io/menu/autocue/ 這個(gè)網(wǎng)址是為了讓大家在使用 AI 繪畫的時(shí)候更容易去生成想要的提示詞,支持降權(quán),

    2023年04月19日
    瀏覽(25)
  • 首個(gè)中文Stable Diffusion模型開源;TPU演進(jìn)十年;18個(gè)PyTorch性能優(yōu)化技巧 | AI系統(tǒng)前沿動(dòng)態(tài)...

    首個(gè)中文Stable Diffusion模型開源;TPU演進(jìn)十年;18個(gè)PyTorch性能優(yōu)化技巧 | AI系統(tǒng)前沿動(dòng)態(tài)...

    1. TPU演進(jìn)十年:Google的十大經(jīng)驗(yàn)教訓(xùn) 希臘神話中,特洛伊戰(zhàn)爭(zhēng)的起因是兩方爭(zhēng)奪世界上最美的女人——海倫,后世詩(shī)人將海倫的美貌“令成千戰(zhàn)艦為之起航”。TPU就像海倫,它的出現(xiàn)引起了“成千芯片與之競(jìng)逐”。 可以說(shuō),TPU的問(wèn)世引發(fā)了硅谷的“地震”。TPU宣布誕生后,

    2024年02月09日
    瀏覽(23)
  • 哈工大團(tuán)隊(duì)開源醫(yī)學(xué)智能問(wèn)診大模型 | 華佗: 基于中文醫(yī)學(xué)知識(shí)的LLaMa指令微調(diào)模型

    哈工大團(tuán)隊(duì)開源醫(yī)學(xué)智能問(wèn)診大模型 | 華佗: 基于中文醫(yī)學(xué)知識(shí)的LLaMa指令微調(diào)模型

    本文首發(fā)至微信公眾號(hào):CVHub,不得以任何形式轉(zhuǎn)載或售賣,僅供學(xué)習(xí),違者必究! Title: HuaTuo: Tuning LLaMA Model with Chinese Medical Knowledge PDF: https://arxiv.org/pdf/2304.06975v1.pdf Code: https://github.com/scir-hi/huatuo-llama-med-chinese 在生物醫(yī)學(xué)領(lǐng)域, LLM 模型(如 LLaMa , ChatGLM )因?yàn)槿狈σ欢ǖ?/p>

    2024年02月13日
    瀏覽(14)
  • 最強(qiáng)文生圖跨模態(tài)大模型:Stable Diffusion

    最強(qiáng)文生圖跨模態(tài)大模型:Stable Diffusion

    Stable diffusion是一種潛在的文本到圖像的擴(kuò)散模型?;谥暗拇罅抗ぷ鳎ㄈ鏒DPM、LDM的提出),并且在Stability AI的算力支持和LAION的海量數(shù)據(jù)支持下,Stable diffusion才得以成功。 Stable diffusion能夠在來(lái)自 LAION- 5B 數(shù)據(jù)庫(kù)子集的512x512圖像上訓(xùn)練潛在擴(kuò)散模型。與谷歌的Imagen類似,這

    2024年02月03日
    瀏覽(25)
  • 多模態(tài)——使用stable-video-diffusion將圖片生成視頻

    多模態(tài)——使用stable-video-diffusion將圖片生成視頻

    近期,stabilityAI發(fā)布了一個(gè)新的項(xiàng)目,是將圖片作為基礎(chǔ),生成一個(gè)相關(guān)的小視頻,其實(shí)也算是其之前研究?jī)?nèi)容的擴(kuò)展。早在stable-diffusion的模型開源出來(lái)的時(shí)候,除了由prompt生成圖片之外,也可以生成連續(xù)幀的短視頻。 本文主要是體驗(yàn)一下stable-video-diffusion的使用,以及對(duì)其

    2024年02月05日
    瀏覽(126)
  • 中文LLaMa和Alpaca大語(yǔ)言模型開源方案 | 擴(kuò)充中文詞表 & 針對(duì)中文語(yǔ)料進(jìn)行高效編碼

    中文LLaMa和Alpaca大語(yǔ)言模型開源方案 | 擴(kuò)充中文詞表 & 針對(duì)中文語(yǔ)料進(jìn)行高效編碼

    歡迎關(guān)注『CVHub』官方微信公眾號(hào)! Title: Efficient and Effective Text Encoding for Chinese Llama and Alpaca PDF: https://arxiv.org/pdf/2304.08177v1.pdf Code: https://github.com/ymcui/Chinese-LLaMA-Alpaca 大型語(yǔ)言模型 LLM ,如ChatGPT和GPT-4,已經(jīng)徹底改變了自然語(yǔ)言處理研究。然而, LLMs 的昂貴訓(xùn)練和部署對(duì)于透明

    2024年02月09日
    瀏覽(33)
  • 國(guó)內(nèi)最大Llama開源社區(qū)發(fā)布首個(gè)預(yù)訓(xùn)練中文版Llama2

    國(guó)內(nèi)最大Llama開源社區(qū)發(fā)布首個(gè)預(yù)訓(xùn)練中文版Llama2

    \\\" 7月31日,Llama中文社區(qū)率先完成了國(guó)內(nèi) 首個(gè)真正意義上的中文版Llama2-13B大模型 ,從模型底層實(shí)現(xiàn)了Llama2中文能力的大幅優(yōu)化和提升。毋庸置疑,中文版Llama2一經(jīng)發(fā)布將開啟國(guó)內(nèi)大模型新時(shí)代! | 全球最強(qiáng),但中文短板 Llama2是當(dāng)前全球范圍內(nèi)最強(qiáng)的開源大模型,但其中文能

    2024年02月13日
    瀏覽(21)
  • 使用 Docker 快速上手中文版 LLaMA2 開源大模型

    使用 Docker 快速上手中文版 LLaMA2 開源大模型

    本篇文章,我們聊聊如何使用 Docker 容器快速上手朋友團(tuán)隊(duì)出品的中文版 LLaMA2 開源大模型,國(guó)內(nèi)第一個(gè)真正開源,可以運(yùn)行、下載、私有部署,并且支持商業(yè)使用。 感慨于昨天 Meta LLaMA2 模型開放下載之后,GitHub 上出現(xiàn)了許多“只有 Readme 文檔” 的開源模型項(xiàng)目,并一時(shí)間在

    2024年02月16日
    瀏覽(24)
  • AI繪畫與多模態(tài)原理解析:從CLIP到DALLE 3、Stable Diffusion、MDJ

    AI繪畫與多模態(tài)原理解析:從CLIP到DALLE 3、Stable Diffusion、MDJ

    終于開寫本CV多模態(tài)系列的核心主題:stable diffusion相關(guān)的了,為何執(zhí)著于想寫這個(gè)stable diffusion呢,源于三點(diǎn) 去年stable diffusion和midjourney很火的時(shí)候,就想寫,因?yàn)榻?jīng)常被刷屏,但那會(huì)時(shí)間錯(cuò)不開 去年11月底ChatGPT出來(lái)后,我今年1月初開始寫ChatGPT背后的技術(shù)原理,而今年2月份

    2024年02月05日
    瀏覽(28)
  • CV多模態(tài)和AIGC的原理解析:從CLIP、BLIP到Stable Diffusion、Midjourney

    CV多模態(tài)和AIGC的原理解析:從CLIP、BLIP到Stable Diffusion、Midjourney

    終于開寫本CV多模態(tài)系列的核心主題:stable diffusion相關(guān)的了,為何執(zhí)著于想寫這個(gè)stable diffusion呢,源于三點(diǎn) 去年stable diffusion和midjourney很火的時(shí)候,就想寫,因?yàn)榻?jīng)常被刷屏,但那會(huì)時(shí)間錯(cuò)不開 去年11月底ChatGPT出來(lái)后,我今年1月初開始寫ChatGPT背后的技術(shù)原理,而今年2月份

    2024年02月13日
    瀏覽(29)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請(qǐng)作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包