国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

兩小時搭建屬于自己的chatGPT(ChatGLM)免硬件(白嫖)

這篇具有很好參考價值的文章主要介紹了兩小時搭建屬于自己的chatGPT(ChatGLM)免硬件(白嫖)。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點擊"舉報違法"按鈕提交疑問。

目錄

準備(注冊):

搭建:

API模式:

測試:

總結:


準備硬件(注冊):

注冊modelscope(底層阿里云)免費使用服務器

https://modelscope.cn/

按照圖片里的選擇(選擇其他好像不能創(chuàng)建成功)

兩小時搭建屬于自己的chatGPT(ChatGLM)免硬件(白嫖)

可以白嫖60多個小時的配置

8核 32GB 顯存16G
預裝 ModelScope Library
預裝鏡像 ubuntu20.04-cuda11.3.0-py37-torch1.11.0-tf1.15.5-1.5.0

ChatGLM-6B介紹

ChatGLM-6B 是一個開源的、支持中英雙語的對話語言模型,基于?General Language Model (GLM)?架構,具有 62 億參數(shù)。

硬件需求

量化等級 最低 GPU 顯存(推理) 最低 GPU 顯存(高效參數(shù)微調)
FP16(無量化) 13 GB 14 GB
INT8 8 GB 9 GB
INT4 6 GB 7 GB

搭建:

https://github.com/THUDM/ChatGLM-6B#代碼調用

按照官網(wǎng)提示操作即可

>>> from transformers import AutoTokenizer, AutoModel
>>> tokenizer = AutoTokenizer.from_pretrained("THUDM/chatglm-6b", trust_remote_code=True)
>>> model = AutoModel.from_pretrained("THUDM/chatglm-6b", trust_remote_code=True).half().cuda()
>>> model = model.eval()
>>> response, history = model.chat(tokenizer, "你好", history=[])
>>> print(response)
你好??!我是人工智能助手 ChatGLM-6B,很高興見到你,歡迎問我任何問題。
>>> response, history = model.chat(tokenizer, "晚上睡不著應該怎么辦", history=history)
>>> print(response)
晚上睡不著可能會讓你感到焦慮或不舒服,但以下是一些可以幫助你入睡的方法:

1. 制定規(guī)律的睡眠時間表:保持規(guī)律的睡眠時間表可以幫助你建立健康的睡眠習慣,使你更容易入睡。盡量在每天的相同時間上床,并在同一時間起床。
2. 創(chuàng)造一個舒適的睡眠環(huán)境:確保睡眠環(huán)境舒適,安靜,黑暗且溫度適宜。可以使用舒適的床上用品,并保持房間通風。
3. 放松身心:在睡前做些放松的活動,例如泡個熱水澡,聽些輕柔的音樂,閱讀一些有趣的書籍等,有助于緩解緊張和焦慮,使你更容易入睡。
4. 避免飲用含有咖啡因的飲料:咖啡因是一種刺激性物質,會影響你的睡眠質量。盡量避免在睡前飲用含有咖啡因的飲料,例如咖啡,茶和可樂。
5. 避免在床上做與睡眠無關的事情:在床上做些與睡眠無關的事情,例如看電影,玩游戲或工作等,可能會干擾你的睡眠。
6. 嘗試呼吸技巧:深呼吸是一種放松技巧,可以幫助你緩解緊張和焦慮,使你更容易入睡。試著慢慢吸氣,保持幾秒鐘,然后緩慢呼氣。

如果這些方法無法幫助你入睡,你可以考慮咨詢醫(yī)生或睡眠專家,尋求進一步的建議。

解釋

from transformers import AutoTokenizer, AutoModel:這是從transformers庫中導入AutoTokenizer和AutoModel類。

tokenizer = AutoTokenizer.from_pretrained("THUDM/chatglm-6b", trust_remote_code=True):這一行代碼通過調用AutoTokenizer類的from_pretrained方法,從“THUDM/chatglm-6b”模型地址中下載并加載對應的tokenizer。該tokenizer是用于將文本轉換為模型可以處理的輸入向量。

model = AutoModel.from_pretrained("THUDM/chatglm-6b", trust_remote_code=True).half().cuda():這一行代碼通過調用AutoModel類的from_pretrained方法,從“THUDM/chatglm-6b”模型地址中下載并加載對應的模型。同時,它還將模型轉換為半精度浮點數(shù)(half)和CUDA張量(cuda)。這些操作有助于提高模型的計算速度和性能。

model = model.eval():這一行代碼將模型設置為推理模式,即禁用dropout和batch normalization等訓練時使用的技巧。這有助于提高模型在測試和實際應用中的準確性。

其中 下載需要漫長的等待

tokenizer = AutoTokenizer.from_pretrained("THUDM/chatglm-6b", trust_remote_code=True):

兩小時搭建屬于自己的chatGPT(ChatGLM)免硬件(白嫖)

測試安裝

兩小時搭建屬于自己的chatGPT(ChatGLM)免硬件(白嫖)

API模式:

官網(wǎng)參考這段

GitHub - THUDM/ChatGLM-6B: ChatGLM-6B: An Open Bilingual Dialogue Language Model | 開源雙語對話語言模型文章來源地址http://www.zghlxwxcb.cn/news/detail-448572.html

git clone https://github.com/THUDM/ChatGLM-6B

cd ChatGLM-6B



pip install fastapi uvicorn



python api.py



測試:

curl -X POST "http://127.0.0.1:8000" -H 'Content-Type: application/json' -d '{"prompt": "我叫daniel,給我寫本書", "history": []}'

遇到的問題

異常1:
RuntimeError: CUDA Error: no kernel image is available for execution on the device
>>> model = model.quantize()
╭─────────────────────────────── Traceback (most recent call last) ────────────────────────────────╮
│ in <module>:1 ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ?│
╰──────────────────────────────────────────────────────────────────────────────────────────────────╯
TypeError: quantize() missing 1 required positional argument: 'bits'


model = model.quantize(4)
改成

model = model.quantize(128)


異常2:

root@eais-bjtryzm9xivr28qvprxr-7c8cfdfd44-2j4rx:/mnt/workspace/ChatGLM-6B/ptuning# bash train.sh
Traceback (most recent call last):
? File "main.py", line 29, in <module>
? ? from rouge_chinese import Rouge
ModuleNotFoundError: No module named 'rouge_chinese'

?安裝依賴解決 : pip install rouge_chinese nltk jieba datasets

異常3:?
?RuntimeError: CUDA Error: no kernel image is available for execution on the device
“調整 quantization_bit 來被原始模型的量化等級,不加此選項則為 FP16 精度加載”

bash train.sh
cp ? train.sh train_bak.sh

vi train.sh
刪除 ? --quantization_bit 4

異常4:
pip install cpm_kernels

ImportError: This modeling file requires the following packages that were not found in your environment: cpm_kernels. Run `pip install cpm_kernels`


?

總結:

ChatGLM 完全傻瓜式的教程,按照官網(wǎng)操作就行了。

ModelScope太給力了,本來都打算自己買機器運行了,正好有使用的機會。

自己windows11 GTX3060 12g 顯卡也不能運行完成的項目

參考資料:

ModelScope 魔搭社區(qū)

GitHub - THUDM/ChatGLM-6B: ChatGLM-6B: An Open Bilingual Dialogue Language Model | 開源雙語對話語言模型

到了這里,關于兩小時搭建屬于自己的chatGPT(ChatGLM)免硬件(白嫖)的文章就介紹完了。如果您還想了解更多內容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務,不擁有所有權,不承擔相關法律責任。如若轉載,請注明出處: 如若內容造成侵權/違法違規(guī)/事實不符,請點擊違法舉報進行投訴反饋,一經(jīng)查實,立即刪除!

領支付寶紅包贊助服務器費用

相關文章

  • 基于Springboot+Openai SDK搭建屬于自己的ChatGPT3.5 Ai聊天知識庫,已接入Stable Diffusion繪圖Api

    基于Springboot+Openai SDK搭建屬于自己的ChatGPT3.5 Ai聊天知識庫,已接入Stable Diffusion繪圖Api

    花費二個多月查閱資料與前后端開發(fā),終于完成了我的開源項目HugAi聊天知識庫。項目是基于Springboot+vue2集成了OpenAi SDK開發(fā)的一套智能AI知識庫,已接入ChatGpt3.5接口以及openai的繪圖接口,前后端代碼都開源。 支持上下文功能 會話記錄持久化 sse流式響應 后臺可配置的場景對話

    2024年02月05日
    瀏覽(26)
  • 搭建一個屬于自己的springboot項目

    搭建一個屬于自己的springboot項目

    最近公司要上個新系統(tǒng),指定由我來帶兩個人進行開發(fā),既然是新項目,那么項目搭建的事就落到我的頭上了。現(xiàn)在都是使用springboot進行開發(fā),為此我搭環(huán)境使用的是springboot,具體java環(huán)境如下, 使用springboot的版本是2.3.3.RELEASE。使用maven進行項目管理, 總結下,我使用到的

    2024年02月07日
    瀏覽(21)
  • 免費搭建屬于自己的域名個性郵箱

    當你已經(jīng)擁有域名為 fzuenactus.org.cn的SSL證書時,你可以使用該證書來配置你的域名郵箱。以下是更詳細的步驟: 1. 安裝必要軟件: 在終端中執(zhí)行以下命令來更新系統(tǒng)和安裝所需的軟件包: 2. 配置Postfix: 編輯Postfix主配置文件: 確保以下配置正確設置: myhostname = mail.fzuenac

    2024年02月11日
    瀏覽(88)
  • 如何成功地搭建屬于自己的游戲平臺?

    成功搭建自己的游戲平臺需要考慮以下關鍵步驟: 市場研究:進行市場調研,了解游戲行業(yè)的趨勢和競爭狀況,確定目標受眾和市場定位。 制定商業(yè)計劃:根據(jù)市場研究結果,制定詳細的商業(yè)計劃,包括目標、策略、資金需求、營銷計劃等。 技術搭建:確定游戲平臺的技術

    2024年02月16日
    瀏覽(23)
  • 如何搭建一個屬于自己的網(wǎng)站(使用寶塔面板)

    如何搭建一個屬于自己的網(wǎng)站(使用寶塔面板)

    1.域名 簡單的解釋一下,我們購買的域名會給我們一個公網(wǎng)ip,通常這個公網(wǎng)ip是很難記.所以我們可以將域名與ip進行\(zhòng)\\"綁定\\\". 域名的話建議購買一個有意義,不要太貴的.注意次年續(xù)費的價格!! 阿里云 或者 騰訊云 下面這個是我的域名(和我名字差不多的意思) 2.服務器 服務器的話

    2024年02月05日
    瀏覽(24)
  • 基于開源的 ChatGPT Web UI 項目,快速構建屬于自己的 ChatGPT 站點

    基于開源的 ChatGPT Web UI 項目,快速構建屬于自己的 ChatGPT 站點

    作為一個技術博主,了不起比較喜歡各種折騰,之前給大家介紹過 ChatGPT 接入微信,釘釘和知識星球(如果沒看過的可以翻翻前面的文章),最近再看開源項目的時候,發(fā)現(xiàn)了一個 ChatGPT Web UI 項目。 想著剛好之前沒有將 ChatGPT 接入過 Web UI ,有了這個開源項目可以拿來使用,

    2023年04月10日
    瀏覽(29)
  • java調用chatgpt接口,實現(xiàn)專屬于自己的人工智能助手

    java調用chatgpt接口,實現(xiàn)專屬于自己的人工智能助手

    今天突然突發(fā)奇想,就想要用java來調用chatget的接口,實現(xiàn)自己的聊天機器人,但是網(wǎng)上找文章,屬實是少的可憐(可能是不讓發(fā)吧)。找到了一些文章,但是基本都是通過調用別人的庫來完成的,導入其他的jar還有不低的學習成本,于是就自己使用HttpClient5寫了一個,在這里講

    2024年02月03日
    瀏覽(28)
  • 十分鐘教你部署一個屬于自己的chatgpt網(wǎng)站-(源碼)

    下面是一個簡單的十分鐘教程,教你如何部署一個屬于自己的ChatGPT網(wǎng)站,包括以下幾個步驟: 獲取GPT-3 API密鑰:為了使用GPT-3 API接口,我們需要先獲取API密鑰。在OpenAI官網(wǎng)上申請賬戶并訂閱GPT-3服務后,即可獲得API密鑰。 創(chuàng)建Flask應用程序:Flask是一款Python Web框架,我們可以

    2024年02月05日
    瀏覽(28)
  • 訓練自己的ChatGPT(ChatGLM微調 )

    訓練自己的ChatGPT(ChatGLM微調 )

    目錄 準備 操作 上傳數(shù)據(jù)數(shù)據(jù) 訓練進度 推理 驗證 異常處理 總結 參考資料 ChatGLM 微調 ?ptuning 接上文https://blog.csdn.net/dingsai88/article/details/130639365 部署好ChatGLM以后,對它進行微調 如果已經(jīng)使用過 API 或者web模式的應該已經(jīng)下載過,不用再下載 pwd /mnt/workspace/ChatGLM-6B/ptuning 方法

    2024年02月05日
    瀏覽(19)
  • 【快速搭建】屬于自己的小店 -獨角數(shù)卡-docker版本

    我選用的是docker版本的部署,至于為什么選擇這個,當然是因為方便!

    2024年02月16日
    瀏覽(24)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領取紅包,優(yōu)惠每天領

二維碼1

領取紅包

二維碼2

領紅包