国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

無需GPU無需網(wǎng)絡(luò)“本地部署chatGPT”(更新多模態(tài))

這篇具有很好參考價值的文章主要介紹了無需GPU無需網(wǎng)絡(luò)“本地部署chatGPT”(更新多模態(tài))。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點擊"舉報違法"按鈕提交疑問。

想當初圖像生成從DELL到stable diffusion再到蘋果的移動部署過了兩三年吧
聊天bot才發(fā)展幾個月就可以邊緣部署了,如果蘋果更新silicon,npu和運存翻倍,爭取apple watch也能本地內(nèi)置,最快ios18 mac、ipad、iPhone能內(nèi)置吧
又是一個平民百姓都高興的開源項目,chatGPT這種級別的模型甚至能部署到樹莓派上運行,然后在操作的過程中也遇到一些問題,這篇就是記錄步數(shù)的這個過程。
已經(jīng)為最新版的github更新了(2023.5.23),可以放心食用,實測運行速度快了很多。
哈工大的chinese llama效果不如vicuna7b,所以我把這一塊的內(nèi)容給刪掉了。
vicuna7b的合成需要高運行內(nèi)存的電腦,如果你的電腦不足30個G,可以直接私信我要合成好的模型,只有vicuna-7b的q4.0版本。
最近很多人反應(yīng)老的vicuna-7b已經(jīng)沒辦法在新的llama.cpp上使用了(主要是q4版本),可以問我要新的。

大佬的網(wǎng)址:https://github.com/ggerganov/llama.cpp

下載及生成

打開命令行輸入下面的指令

git clone https://github.com/ggerganov/llama.cpp
cd llama.cpp
make

#對于Windows和CMake,使用下面的方法構(gòu)建:
cd <path_to_llama_folder>
mkdir build
cd build
cmake ..
cmake --build . --config Release

無需GPU無需網(wǎng)絡(luò)“本地部署chatGPT”(更新多模態(tài))

模型下載

我覺得模型下載是最麻煩的,還好有別人給了

git clone https://huggingface.co/nyanko7/LLaMA-7B

好吧我直接給百度云
鏈接: https://pan.baidu.com/s/1ZC2SCG9X8jZ-GysavQl29Q 提取碼: 4ret
–來自百度網(wǎng)盤超級會員v6的分享

無需GPU無需網(wǎng)絡(luò)“本地部署chatGPT”(更新多模態(tài))

然后安裝python依賴,然后轉(zhuǎn)換模型到FP16格式。然后第一個小bug會出現(xiàn)。

python3 -m pip install torch numpy sentencepiece

# convert the 7B model to ggml FP16 format
python3 convert-pth-to-ggml.py models/7B/ 1

無需GPU無需網(wǎng)絡(luò)“本地部署chatGPT”(更新多模態(tài))

他會報找不到文件。
無需GPU無需網(wǎng)絡(luò)“本地部署chatGPT”(更新多模態(tài))
打開convert-pth-to-ggml.py文件,修改"/tokenizer.model"的路徑,再運行python3 convert-pth-to-gaml.py ./models/7B 1,我順便名字也改了。
無需GPU無需網(wǎng)絡(luò)“本地部署chatGPT”(更新多模態(tài))

文件找到了,然后出現(xiàn)第二個bug。。。。。
無需GPU無需網(wǎng)絡(luò)“本地部署chatGPT”(更新多模態(tài))

我一開始找不出問題,后來對比原網(wǎng)址和7B文件夾里的文件,才發(fā)現(xiàn)文件大小根本都不一樣,我說幾十個G的東西怎么git這么。
打開網(wǎng)站下圖這個網(wǎng)址,點紅色框的那兩個下載。替換掉7B文件夾里的那兩個文件。
無需GPU無需網(wǎng)絡(luò)“本地部署chatGPT”(更新多模態(tài))

無需GPU無需網(wǎng)絡(luò)“本地部署chatGPT”(更新多模態(tài))

將模型再轉(zhuǎn)換成4位格式

# quantize the model to 4-bits
./quantize ./models/7B/ggml-model-f16.bin ./models/7B/ggml-model-q4_0.bin 2

無需GPU無需網(wǎng)絡(luò)“本地部署chatGPT”(更新多模態(tài))

推理

# run the inference
./main -m ./models/7B/ggml-model-q4_0.bin -n 128

無需GPU無需網(wǎng)絡(luò)“本地部署chatGPT”(更新多模態(tài))

想和chatGPT一樣對話的話用下面這個指令,-n 控制回復生成的最大長度, --color是區(qū)分ai和人類的顏色,-i 作為參數(shù)在交互模式下運行, -r 是一種反向提示,-f 是一整段提示, --repeat_penalty 控制生成回復中對重復文本的懲罰力度,–temp 溫度系數(shù),值越低回復的隨機性越小,反之越大。
更新了之后速度快了很多。

./main -m ./models/7B/ggml-model-q4_0.bin -n 256 --repeat_penalty 1.0 --color -i -r "User:" -f prompts/chat-with-bob.txt

讓我們打開prompts/chat-with-bob.txt來看一下。
無需GPU無需網(wǎng)絡(luò)“本地部署chatGPT”(更新多模態(tài))

我們可以看到這相當于給了ai模型一個場景話題,然后你和ai之間就可以接著這個話題聊天。

我英文名叫zale,然后我把這個機器人叫作kangaroo,這樣的身份和他聊天,你可以按自己的喜歡自己修改下面的代碼。

./main -m ./models/7B/ggml-model-q4_0.bin -n 256 --repeat_penalty 1.0 --color -i -r "Zale:" \

寫一個txt文件

"Transcript of a dialog, where the Zale interacts with an Assistant named Kangaroo. Kangaroo is helpful, kind, honest, good at writing, and never fails to answer the Zale's requests immediately and with precision.

Zale: Hello, Kangaroo.
Kangaroo: Hello. How may I help you today?
Zale: Please tell me the largest city in Europe.
Kangaroo: Sure. The largest city in Europe is Moscow, the capital of Russia.
Zale:"

無需GPU無需網(wǎng)絡(luò)“本地部署chatGPT”(更新多模態(tài))

有點呆呆的,不過也算邊緣部署的巨大進步了!
一個蠻有意思的發(fā)現(xiàn),明明看得懂中文卻跟我說不懂中文。。。。。
無需GPU無需網(wǎng)絡(luò)“本地部署chatGPT”(更新多模態(tài))
分享一段有意思的對話
無需GPU無需網(wǎng)絡(luò)“本地部署chatGPT”(更新多模態(tài))

Vicuna-7B

把原始的llama模型轉(zhuǎn)換成huggleface的格式

python3 ~/anaconda3/envs/pytorch2/lib/python3.10/site-packages/transformers/models/llama/convert_llama_weights_to_hf.py \
	--input_dir ./llama-7b \
	--model_size 7B \
	--output_dir ./llama-7b-hf

這樣生成的文件放在llama-7b-hf之中。
無需GPU無需網(wǎng)絡(luò)“本地部署chatGPT”(更新多模態(tài))

下載vicuna7b的權(quán)重文件,也可以理解為補丁。
注意融合vicuna7b模型需要30個G的內(nèi)存,我特意買128G內(nèi)存和4090的電腦,
如果有需要,可以私信我我看到的話直接把生成的模型發(fā)給你。
還有就是現(xiàn)在的模型是v1.1的版本,必須搭配使用transformers>=4.28.0 and fschat >= 0.2.0

python3 -m fastchat.model.apply_delta \
	--base-model-path ./llama-7b-hf/ \
	--target-model-path ./vicuna-7b/ \
	--delta-path ./vicuna-7b-delta-v1.1/

這樣融合的模型就在vicuna-7b的文件夾下。
無需GPU無需網(wǎng)絡(luò)“本地部署chatGPT”(更新多模態(tài))

可以直接用fastchat用測試一下,速度好快哦?。?!確實fast

python3 -m fastchat.serve.cli --model-path ./vicuna-7b

回到llama.cpp之中,老三樣

python3 convert-pth-to-ggml.py models/vicuna-7b/ 1

./quantize ./models/vicuna-7b/ggml-model-f16.bin ./models/vicuna-7b/ggml-model-q4_0.bin 2

./main -m ./models/vicuna-7b/ggml-model-q4_0.bin -n 256 --repeat_penalty 1.0 --color -i -r "User:" -f prompts/chat-with-bob.txt

無需GPU無需網(wǎng)絡(luò)“本地部署chatGPT”(更新多模態(tài))

無需GPU無需網(wǎng)絡(luò)“本地部署chatGPT”(更新多模態(tài))

實測理解能力和中文水平我認為都是目前最佳的邊緣部署的模型,我覺得我可以把哈工大的中文模型部分給刪了。目前使用下來不錯,很有chatGPT那味。
我又試了一下i9-13900KF,速度是快了一些。
無需GPU無需網(wǎng)絡(luò)“本地部署chatGPT”(更新多模態(tài))

來點好玩的例子。
無需GPU無需網(wǎng)絡(luò)“本地部署chatGPT”(更新多模態(tài))

無需GPU無需網(wǎng)絡(luò)“本地部署chatGPT”(更新多模態(tài))

多模態(tài)部署

這個需要12g的顯存,沒有的朋友就圖個樂。
用到的是miniGPT這個庫。

1.準備環(huán)境

git clone https://github.com/Vision-CAIR/MiniGPT-4.git
cd MiniGPT-4
conda env create -f environment.yml
conda activate minigpt4

無需GPU無需網(wǎng)絡(luò)“本地部署chatGPT”(更新多模態(tài))
2.修改文件指向電腦里的vicuna-7b路徑
無需GPU無需網(wǎng)絡(luò)“本地部署chatGPT”(更新多模態(tài))
3.下載pretrained MiniGPT-4 checkpoint
無需GPU無需網(wǎng)絡(luò)“本地部署chatGPT”(更新多模態(tài))
4.修改文件指向電腦里的pretrained MiniGPT-4 checkpoint路徑
無需GPU無需網(wǎng)絡(luò)“本地部署chatGPT”(更新多模態(tài))
5.運行demo

python demo.py --cfg-path eval_configs/minigpt4_eval.yaml  --gpu-id 0

無需GPU無需網(wǎng)絡(luò)“本地部署chatGPT”(更新多模態(tài))

StableVicuna

據(jù)說效果遠超原版vicuna,實測直接用transformer4.8.0即可轉(zhuǎn)換,然后轉(zhuǎn)換的原模型是huggle face格式的llama原模型。
之后的步驟不再重復和上面一樣,運行起來似乎失去了中文能力,然后數(shù)學能力等有提升,感覺像文科生變成理科生。
無需GPU無需網(wǎng)絡(luò)“本地部署chatGPT”(更新多模態(tài))文章來源地址http://www.zghlxwxcb.cn/news/detail-428792.html

到了這里,關(guān)于無需GPU無需網(wǎng)絡(luò)“本地部署chatGPT”(更新多模態(tài))的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務(wù),不擁有所有權(quán),不承擔相關(guān)法律責任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實不符,請點擊違法舉報進行投訴反饋,一經(jīng)查實,立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費用

相關(guān)文章

  • ChatGPT與多模態(tài)必讀論文100篇(2.27日起,每周更新)

    ChatGPT與多模態(tài)必讀論文100篇(2.27日起,每周更新)

    目錄 前言 第一部分 OpenAI/Google的基礎(chǔ)語言大模型(11篇,總11篇) 第二部分 LLM的關(guān)鍵技術(shù):ICL/CoT/RLHF/詞嵌入/位置編碼/加速/與KG結(jié)合等(34篇,總45篇) 第三部分 Meta等公司發(fā)布的類ChatGPT開源模型和各種微調(diào)(7篇,總52篇) 第四部分 具備多模態(tài)能力的大語言模型(11篇,總63篇) 第五部

    2024年02月06日
    瀏覽(21)
  • 本地電腦輕松部署GPT4(無需賬號)!

    本地電腦輕松部署GPT4(無需賬號)!

    最近有個超級好玩的Github開源代碼分享給大家,可以實現(xiàn)直接在本地電腦上運行GPT4,實現(xiàn)給機器人對話,獲得想要的內(nèi)容,親測好用!廢話不多說,直接上干貨! 目錄 一、Github項目地址 二、操作步驟 2.1 下載代碼 2.2 操作方法 2.3 詳細步驟 三、實現(xiàn)效果 3.1 問題一:中國最好

    2023年04月08日
    瀏覽(21)
  • 無需本地部署 在線使用Stable Diffusion Webui 使用共享模型

    無需本地部署 在線使用Stable Diffusion Webui 使用共享模型

    嘗試本地部署Stable Diffusion的時候遇到了很多的麻煩,自己訓練AI也非常的麻煩,可以嘗試使用Webui使用別人上傳的模型 第一步進入網(wǎng)站https://github.com/camenduru/stable-diffusion-webui-colab 向下拉到readme 第一個 stable_diffusion_webui_colab,點擊左邊Open in Colab的圖標 跳轉(zhuǎn)到Google Colab的網(wǎng)站,

    2024年02月03日
    瀏覽(24)
  • 清華ChatGLM-6B本地GPU推理部署

    清華ChatGLM-6B本地GPU推理部署

    目錄 1 簡介 2 硬件需求 3 Demo和模型下載 3.1 安裝Git LFS 3.2 Demo下載 3.3 模型下載 3.4 文件目錄 4 環(huán)境安裝 5 運行 5.1 FP16 5.2 量化 6 演示 ChatGLM-6B是一個開源的、支持中英雙語的對話語言模型,基于General Language Model(GLM)架構(gòu),具有62億參數(shù)。結(jié)合模型量化技術(shù),用戶可以在消費級

    2024年02月07日
    瀏覽(29)
  • 部署ChatGPT(在VPS或免費容器上),無需科學上網(wǎng)!

    部署ChatGPT(在VPS或免費容器上),無需科學上網(wǎng)!

    前提 已經(jīng)注冊了openAI ,或者有openAI 的 API key【 點擊獲取 】 SSH遠程連接工具 方案一(VPS) 需要一臺VPS,可以點擊【 獲取VPS 】 用SSH遠程連接工具連接VPS后,安裝 Docker,命令如下: 搭建ChatGPT 【開源項目】,命令如下: (其中的“Your key”是openAI 的 API key) 安裝后,直接訪問

    2023年04月09日
    瀏覽(22)
  • GPT4All:免費使用本地運行無需GPU的基于C++的GPT模型和UI: A free-to-use, locally running, privacy-aware chatbot. No GPU

    GPT4All:免費使用本地運行無需GPU的基于C++的GPT模型和UI: A free-to-use, locally running, privacy-aware chatbot. No GPU

    ? 目錄 GPT4All:?https://github.co :m/nomic-ai/gpt4all GPT4All Chat UI?GPT4All 聊天用戶界面 效果測試 問題:How to write a multiple Thread code In Java ?

    2024年02月12日
    瀏覽(27)
  • 本地免費GPT4?Llama 2開源大模型,一鍵部署且無需硬件要求教程

    本地免費GPT4?Llama 2開源大模型,一鍵部署且無需硬件要求教程

    ????????目前扎克布格帶來了最新的Llama 2開源NLP大模型,目前有三個版本分別是70億參數(shù)量,130億參數(shù)量和700億參數(shù)量,龐大的數(shù)據(jù)集和參數(shù)量保證了模型的強大,官網(wǎng)宣稱性能與gpt4相比不落下風,又因為開源使得我們可以實現(xiàn)本地化gpt4的夢想并且免費!我們可以通過微

    2024年02月11日
    瀏覽(26)
  • 本地化部署離線開源免費語音識別API,支持多模態(tài)AI能力引擎

    本地化部署離線開源免費語音識別API,支持多模態(tài)AI能力引擎

    思通數(shù)科作為一家專注于多模態(tài)AI能力開源引擎平臺,其技術(shù)產(chǎn)品涵蓋了自然語言處理、情感分析、實體識別、圖像識別與分類、OCR識別以及語音識別等多個領(lǐng)域。在語音識別這一細分市場,思通數(shù)科的技術(shù)產(chǎn)品中的音頻文件轉(zhuǎn)寫服務(wù)有著相似的應(yīng)用場景和功能特點。 思通數(shù)

    2024年04月12日
    瀏覽(33)
  • 本地部署體驗LISA模型(LISA≈圖像分割基礎(chǔ)模型SAM+多模態(tài)大語言模型LLaVA)

    本地部署體驗LISA模型(LISA≈圖像分割基礎(chǔ)模型SAM+多模態(tài)大語言模型LLaVA)

    GitHub地址:https://github.com/dvlab-research/LISA 該項目論文paper reading:https://blog.csdn.net/Transfattyacids/article/details/132254770 在GitHub上下載源文件,進入下載的文件夾,打開該地址下的命令控制臺,執(zhí)行指令: 幾種報錯解決方法: 下載包失敗 例:“pip install numpy” 解決:“pip install n

    2024年02月10日
    瀏覽(22)
  • 如何在本地服務(wù)器部署TeslaMate并遠程查看特斯拉汽車數(shù)據(jù)無需公網(wǎng)ip

    如何在本地服務(wù)器部署TeslaMate并遠程查看特斯拉汽車數(shù)據(jù)無需公網(wǎng)ip

    TeslaMate是一個開源軟件,可以通過連接特斯拉賬號,記錄行駛歷史,統(tǒng)計能耗、里程、充電次數(shù)等數(shù)據(jù)。用戶可以通過web界面查看車輛狀態(tài)、行程報告、充電記錄等信息,并生成漂亮的圖表和統(tǒng)計報告。 另外,TeslaMate也可以記錄車子所有的位置、軌跡、速度、溫度、海拔、續(xù)

    2024年02月21日
    瀏覽(30)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包