国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

如何在矩池云復(fù)現(xiàn)開(kāi)源對(duì)話語(yǔ)言模型 ChatGLM

這篇具有很好參考價(jià)值的文章主要介紹了如何在矩池云復(fù)現(xiàn)開(kāi)源對(duì)話語(yǔ)言模型 ChatGLM。希望對(duì)大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請(qǐng)大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問(wèn)。

ChatGLM-6B 是一個(gè)開(kāi)源的、支持中英雙語(yǔ)的對(duì)話語(yǔ)言模型,基于 General Language Model (GLM) 架構(gòu),具有 62 億參數(shù)。結(jié)合模型量化技術(shù),用戶可以在消費(fèi)級(jí)的顯卡上進(jìn)行本地部署(INT4 量化級(jí)別下最低只需 6GB 顯存)。 ChatGLM-6B 使用了和 ChatGPT 相似的技術(shù),針對(duì)中文問(wèn)答和對(duì)話進(jìn)行了優(yōu)化。經(jīng)過(guò)約 1T 標(biāo)識(shí)符的中英雙語(yǔ)訓(xùn)練,輔以監(jiān)督微調(diào)、反饋?zhàn)灾?、人?lèi)反饋強(qiáng)化學(xué)習(xí)等技術(shù)的加持,62 億參數(shù)的 ChatGLM-6B 已經(jīng)能生成相當(dāng)符合人類(lèi)偏好的回答。

今天給大家分享如何在矩池云服務(wù)器復(fù)現(xiàn) ChatGLM-6B,用 GPU 跑模型真是絲滑啊。

硬件要求

如果是GPU: 顯存需要大于6G。

如何在矩池云復(fù)現(xiàn)開(kāi)源對(duì)話語(yǔ)言模型 ChatGLM

  • ChatGLM-6B 是一個(gè)開(kāi)源的、支持中英雙語(yǔ)問(wèn)答的對(duì)話語(yǔ)言模型,基于 General Language Model (GLM) 架構(gòu),具有 62 億參數(shù)。結(jié)合模型量化技術(shù),用戶可以在消費(fèi)級(jí)的顯卡上進(jìn)行本地部署(INT4 量化級(jí)別下最低只需 6GB 顯存)。ChatGLM-6B 使用了和 ChatGLM 相同的技術(shù),針對(duì)中文問(wèn)答和對(duì)話進(jìn)行了優(yōu)化。經(jīng)過(guò)約 1T 標(biāo)識(shí)符的中英雙語(yǔ)訓(xùn)練,輔以監(jiān)督微調(diào)、反饋?zhàn)灾⑷祟?lèi)反饋強(qiáng)化學(xué)習(xí)等技術(shù)的加持,62 億參數(shù)的 ChatGLM-6B 已經(jīng)能生成相當(dāng)符合人類(lèi)偏好的回答。
  • ChatGLM-6B-INT8 是 ChatGLM-6B 量化后的模型權(quán)重。具體的,ChatGLM-6B-INT8 對(duì) ChatGLM-6B 中的 28 個(gè) GLM Block 進(jìn)行了 INT8 量化,沒(méi)有對(duì) Embedding 和 LM Head 進(jìn)行量化。量化后的模型理論上 8G 顯存(使用 CPU 即內(nèi)存)即可推理,具有在嵌入式設(shè)備(如樹(shù)莓派)上運(yùn)行的可能。
  • ChatGLM-6B-INT4 是 ChatGLM-6B 量化后的模型權(quán)重。具體的,ChatGLM-6B-INT4 對(duì) ChatGLM-6B 中的 28 個(gè) GLM Block 進(jìn)行了 INT4 量化,沒(méi)有對(duì) Embedding 和 LM Head 進(jìn)行量化。量化后的模型理論上 6G 顯存(使用 CPU 即內(nèi)存)即可推理,具有在嵌入式設(shè)備(如樹(shù)莓派)上運(yùn)行的可能。

如果是CPU: 內(nèi)存需要大于32G。

云服務(wù)器配置

如果你自己沒(méi)有顯卡,或者電腦運(yùn)行內(nèi)存不怎么辦?很簡(jiǎn)單,租一個(gè)云電腦就可以了,今天將教大家如何在矩池云上復(fù)現(xiàn) ChatGLM。

以下步驟需要在電腦上操作,手機(jī)屏幕太小不好操作!

注冊(cè)賬號(hào)

直接在矩池云官網(wǎng)進(jìn)行注冊(cè),注冊(cè)完成后可以關(guān)注矩池云公眾號(hào)可以獲得體驗(yàn)金,可租用機(jī)器進(jìn)行測(cè)試配置。

上傳模型文件

由于 Huggingface 下載不穩(wěn)定,建議大家本地先下載好相關(guān)模型文件。

  • FP16 無(wú)量化模型下載地址:https://huggingface.co/THUDM/chatglm-6b
  • INT8 模型下載地址:https://huggingface.co/THUDM/chatglm-6b-int8
  • INT 4模型下載地址:https://huggingface.co/THUDM/chatglm-6b-int4

如何在矩池云復(fù)現(xiàn)開(kāi)源對(duì)話語(yǔ)言模型 ChatGLM

本地下載方法:

  • 安裝 git
  • 安裝 git lfs: 直接官網(wǎng)下載安裝包安裝即可 https://git-lfs.com/
  • 使用 git lfs 下載
# 初始化
git lfs install
# 下載
git clone https://huggingface.co/THUDM/chatglm-6b-int4

大家本地下載好后,上傳到云平臺(tái)網(wǎng)盤(pán)(可離線上傳不花錢(qián))。

  • 方法1: 直接通過(guò)矩池云網(wǎng)盤(pán)上傳 https://matpool.com/user/matbox

不用租用機(jī)器傳數(shù)據(jù)
上傳后如果空間不夠,需要進(jìn)行擴(kuò)容。

如何在矩池云復(fù)現(xiàn)開(kāi)源對(duì)話語(yǔ)言模型 ChatGLM

  • 方法2: 租用機(jī)器后,通過(guò) scp 上傳數(shù)據(jù)

需要花錢(qián)開(kāi)機(jī)傳數(shù)據(jù),每次租用都得上傳,不方便。

比如你租用機(jī)器后顯示 ssh 鏈接為:ssh -p 26378 root@matpool.com

本地打開(kāi)CMD/PowerShell/終端,輸入下面指令進(jìn)行數(shù)據(jù)傳輸:

scp -r -P 26378 本地文件/文件夾路徑 root@matpool.com:/home

這樣數(shù)據(jù)會(huì)上傳到租用機(jī)器的 /home 目錄下。

租用機(jī)器

在矩池云主機(jī)市場(chǎng):https://matpool.com/host-market/gpu,如果復(fù)現(xiàn) FP16無(wú)量化模型,至少需要選擇 A4000 顯卡;如果復(fù)現(xiàn) INT4或者INT8模型,至少需要選擇 A2000 顯卡。 然后點(diǎn)擊租用按鈕。(你選其他顯卡也行)

如何在矩池云復(fù)現(xiàn)開(kāi)源對(duì)話語(yǔ)言模型 ChatGLM

租用頁(yè)面,搜索 pytorch1.11,選擇這個(gè)鏡像,我就是用這個(gè)鏡像復(fù)現(xiàn)的 ChatGLM-6B。

如何在矩池云復(fù)現(xiàn)開(kāi)源對(duì)話語(yǔ)言模型 ChatGLM

選擇鏡像后在高級(jí)選項(xiàng)里添加一個(gè) 8000 端口,后面部署 Web 服務(wù)用。

如何在矩池云復(fù)現(xiàn)開(kāi)源對(duì)話語(yǔ)言模型 ChatGLM

機(jī)器租用成功后點(diǎn)擊 Jupyterlab 點(diǎn)擊打開(kāi),即可快速打開(kāi) Jupyterlab,開(kāi)始運(yùn)行代碼了。

如何在矩池云復(fù)現(xiàn)開(kāi)源對(duì)話語(yǔ)言模型 ChatGLM

環(huán)境配置+代碼運(yùn)行

在自己電腦配置進(jìn)行的安裝 miniconda安裝 Python3.9以及安裝Nvidia驅(qū)動(dòng)+Cuda都不用操作,因?yàn)榫爻卦埔呀?jīng)幫我們配置好了。

1> Clone項(xiàng)目代碼

你也可以自己 clone 代碼,代碼我們存到 /home 下。

cd /home
git clone https://ghproxy.com/https://github.com/THUDM/ChatGLM-6B.git

項(xiàng)目目錄結(jié)構(gòu):

.
├── PROJECT.md            
├── README.md
├── README_en.md
├── api.py                # 應(yīng)用層:GLMAPI 版本
├── cli_demo.py           # 應(yīng)用層:GLMCLI 版本
├── examples
├── limitations
├── ptuning
├── requirements.txt      # 依賴(lài):項(xiàng)目Python依賴(lài)
├── resources
├── utils.py
├── web_demo.py           # 應(yīng)用層:GLMWEB 版本
├── web_demo2.py          # 應(yīng)用層:GLMWEB2 版本
└── web_demo_old.py       # 應(yīng)用層:GLMWEB3 版本

2> 安裝項(xiàng)目依賴(lài)包

# 進(jìn)入項(xiàng)目目錄
cd ChatGLM-6B
# 安裝依賴(lài)
pip install -r requirements.txt 

如何在矩池云復(fù)現(xiàn)開(kāi)源對(duì)話語(yǔ)言模型 ChatGLM

3> 下載模型文件

在最開(kāi)始你應(yīng)該就已經(jīng)下載好模型,并把相關(guān)文件上傳到服務(wù)器了。

如何在矩池云復(fù)現(xiàn)開(kāi)源對(duì)話語(yǔ)言模型 ChatGLM

將網(wǎng)盤(pán)模型文件夾復(fù)制到項(xiàng)目文件夾下,按以下操作創(chuàng)建:

mkdir /home/ChatGLM-6B/THUDM
cd /home/ChatGLM-6B/THUDM
# 將網(wǎng)盤(pán)下的 chatglm-6b-int4 模型文件夾復(fù)制到當(dāng)前目錄(/home/ChatGLM-6B/THUDM)
cp -r /mnt/chatglm-6b-int4 ./

測(cè)試運(yùn)行

/home/ChatGLM-6B 下新建一個(gè) notebook,

如何在矩池云復(fù)現(xiàn)開(kāi)源對(duì)話語(yǔ)言模型 ChatGLM

  • 測(cè)試運(yùn)行
from transformers import AutoTokenizer, AutoModel
tokenizer = AutoTokenizer.from_pretrained("THUDM/chatglm-6b-int4", trust_remote_code=True)
# CPU
model = AutoModel.from_pretrained("THUDM/chatglm-6b-int4", trust_remote_code=True).float()

# GPU
# model = AutoModel.from_pretrained("THUDM/chatglm-6b-int4", trust_remote_code=True).half().cuda()

model = model.eval()

response, history = model.chat(tokenizer, "你好, 自我介紹下,我可以用你做什么", history=[])
print(response)

首先會(huì)檢查模型是否正確~
如何在矩池云復(fù)現(xiàn)開(kāi)源對(duì)話語(yǔ)言模型 ChatGLM

簡(jiǎn)單問(wèn)個(gè)問(wèn)題,2-3s 可以出答案:

如何在矩池云復(fù)現(xiàn)開(kāi)源對(duì)話語(yǔ)言模型 ChatGLM

response, history = model.chat(tokenizer, "Python寫(xiě)一個(gè)Excel表合并腳本", history=[])
print(response)

問(wèn)代碼的話運(yùn)行稍微慢點(diǎn)~得10-20s左右。

如何在矩池云復(fù)現(xiàn)開(kāi)源對(duì)話語(yǔ)言模型 ChatGLM

GPU使用情況:
如何在矩池云復(fù)現(xiàn)開(kāi)源對(duì)話語(yǔ)言模型 ChatGLM

response, history = model.chat(tokenizer, "我現(xiàn)在有個(gè)csv數(shù)據(jù)表, 表頭是:用戶手機(jī)號(hào)	上次登錄時(shí)間	超出空間,需要統(tǒng)計(jì)指定日期前登錄用戶超出空間總和,并打印這些用戶手機(jī)號(hào);另外還需要統(tǒng)計(jì)超出指定容量用戶的總超出空間數(shù),并打印這些用戶手機(jī)號(hào),使用python pandas 實(shí)現(xiàn),假設(shè)數(shù)據(jù)文件為:123.csv", history=[])
print(response)

對(duì)于復(fù)雜問(wèn)題,等待時(shí)間更長(zhǎng)40s左右,回復(fù)的代碼里參數(shù)命名竟然還有中文?。。?/p>

如何在矩池云復(fù)現(xiàn)開(kāi)源對(duì)話語(yǔ)言模型 ChatGLM

  • GLMCLI 版本 運(yùn)行
# 進(jìn)入項(xiàng)目目錄
cd /home/ChatGLM-6B
# 啟動(dòng)腳本
python cli_demo.py

效果如圖所示:

如何在矩池云復(fù)現(xiàn)開(kāi)源對(duì)話語(yǔ)言模型 ChatGLM

  • GLMAPI 版本 運(yùn)行
# 進(jìn)入項(xiàng)目目錄
cd /home/ChatGLM-6B
# 啟動(dòng)腳本
python api.py

如何在矩池云復(fù)現(xiàn)開(kāi)源對(duì)話語(yǔ)言模型 ChatGLM

啟動(dòng)成功后,服務(wù)在 8000 端口,你需要發(fā)送POST請(qǐng)求。前面租用機(jī)器我們自定義了 8000 端口,在租用頁(yè)面可以獲得對(duì)應(yīng)的公網(wǎng)鏈接:

如何在矩池云復(fù)現(xiàn)開(kāi)源對(duì)話語(yǔ)言模型 ChatGLM

比如:https://hz.xxxx.com:xxxx/?token=xxxxx

需要注意,實(shí)際我們請(qǐng)求不需要 token,所以直接用:https://hz.xxxx.com:xxxx 這段即可。

curl請(qǐng)求:

curl -X POST "https://hz.xxxx.com:xxxx" \
     -H 'Content-Type: application/json' \
     -d '{"prompt": "你好", "history": []}'

Python請(qǐng)求:

import requests
import json
def getGLM(prompt, history):
    '''
    curl -X POST "https://hz.xxxx.com:xxxx" \
     -H 'Content-Type: application/json' \
     -d '{"prompt": "你好", "history": []}'
    '''
    url = 'https://hz.xxxx.com:xxxx'
    # 設(shè)置請(qǐng)求頭
    headers = {
    'Content-Type': 'application/json'
    }
    data = {
    'prompt': prompt,
    'history': history
    }
    # 發(fā)送請(qǐng)求并獲取響應(yīng)
    response = requests.post(url, headers=headers, data=json.dumps(data))
    # 檢查響應(yīng)狀態(tài)碼
    if response.status_code == 200:
        # 獲取響應(yīng)數(shù)據(jù)
        rsp = response.json()
        return rsp
    else:
        print('請(qǐng)求失敗,狀態(tài)碼:', response.status_code)
        
# 測(cè)試請(qǐng)求
history=[]
prompt = "假設(shè)你是一位Python高手,請(qǐng)用Python Pandas 模塊實(shí)現(xiàn)一個(gè)Excel文件批量合并腳本"
getGLM(prompt, history)

和服務(wù)器上直接請(qǐng)求速度差不多,30s左右。

如何在矩池云復(fù)現(xiàn)開(kāi)源對(duì)話語(yǔ)言模型 ChatGLM

  • GLMWEB3 版本 運(yùn)行
# 進(jìn)入項(xiàng)目目錄
cd /home/ChatGLM-6B
# 安裝依賴(lài)
pip install streamlit streamlit_chat
# 啟動(dòng)腳本
streamlit run web_demo2.py --server.port 8000 --server.address 0.0.0.0

如何在矩池云復(fù)現(xiàn)開(kāi)源對(duì)話語(yǔ)言模型 ChatGLM

運(yùn)行后服務(wù)會(huì)啟動(dòng)到 8000端口,host 設(shè)置成0.0.0.0,這樣我們?cè)L問(wèn)租用頁(yè)面 8000 端口鏈接即可訪問(wèn)到對(duì)應(yīng)服務(wù)了。

前面租用機(jī)器我們自定義了 8000 端口,在租用頁(yè)面可以獲得對(duì)應(yīng)的公網(wǎng)鏈接:

如何在矩池云復(fù)現(xiàn)開(kāi)源對(duì)話語(yǔ)言模型 ChatGLM

比如:https://hz.xxxx.com:xxxx/?token=xxxxx

需要注意,實(shí)際我們請(qǐng)求不需要 token,所以直接用:https://hz.xxxx.com:xxxx 這段即可。

如何在矩池云復(fù)現(xiàn)開(kāi)源對(duì)話語(yǔ)言模型 ChatGLM

這個(gè)第一次運(yùn)行可能比較慢,它是提問(wèn)的時(shí)候才開(kāi)始加載檢查模型。

說(shuō)實(shí)話,這個(gè)問(wèn)題的回答有點(diǎn)出乎意料,給了一個(gè)用 pygame 寫(xiě)的猜數(shù)游戲,一般都會(huì)回復(fù)那種 cmd 版本。

如何在矩池云復(fù)現(xiàn)開(kāi)源對(duì)話語(yǔ)言模型 ChatGLM文章來(lái)源地址http://www.zghlxwxcb.cn/news/detail-511911.html

到了這里,關(guān)于如何在矩池云復(fù)現(xiàn)開(kāi)源對(duì)話語(yǔ)言模型 ChatGLM的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來(lái)自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場(chǎng)。本站僅提供信息存儲(chǔ)空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請(qǐng)注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請(qǐng)點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • 如何在GPU服務(wù)器(如AutoDL,矩池云)上運(yùn)行GUI程序

    如何在GPU服務(wù)器(如AutoDL,矩池云)上運(yùn)行GUI程序

    最近在搞算法和設(shè)計(jì)GUI系統(tǒng)的時(shí)候遇到了問(wèn)題,因?yàn)樽约旱乃懔Σ粔颍宰庥玫腉PU服務(wù)器,由于需要設(shè)計(jì)一個(gè)GUI平臺(tái),但是服務(wù)器不支持圖形界面,按照租用服務(wù)器的幫助文檔以及客服的解答,終于實(shí)現(xiàn)了在服務(wù)器上運(yùn)行GUI程序,在這里分享一下踩過(guò)的坑和方法步驟。 Au

    2024年02月05日
    瀏覽(46)
  • 【新手入門(mén)】矩池云使用指南

    【新手入門(mén)】矩池云使用指南

    矩池云按使用時(shí)間收費(fèi),是一款性?xún)r(jià)比較高的服務(wù)器平臺(tái),下面根據(jù)個(gè)人經(jīng)驗(yàn)介紹第一次如何使用矩池云服務(wù)器。 鏈接: https://www.matpool.com 記得關(guān)注公眾號(hào)領(lǐng)5個(gè)算力豆,用于新手體驗(yàn) 等待一分鐘左右,頁(yè)面出現(xiàn)jupyterlab鏈接 此時(shí)代碼自動(dòng)運(yùn)行。注意第一次使用需要下載包 代

    2024年02月09日
    瀏覽(34)
  • 矩池云上使用nvidia-smi命令教程

    矩池云上使用nvidia-smi命令教程

    nvidia-smi全稱(chēng)是NVIDIA System Management Interface ,它是一個(gè)基于NVIDIA Management Library(NVML)構(gòu)建的命令行實(shí)用工具,旨在幫助管理和監(jiān)控NVIDIA GPU設(shè)備。 接下來(lái)我介紹一下,用nvidia-smi命令來(lái)查詢(xún)機(jī)器GPU使用情況的相關(guān)內(nèi)容。? 我以上圖的查詢(xún)內(nèi)容為例,已經(jīng)復(fù)制出來(lái)了,如下, 我們來(lái)

    2024年02月16日
    瀏覽(16)
  • 【矩池云】YOLOv3~YOLOv5訓(xùn)練紅外小目標(biāo)數(shù)據(jù)集

    【矩池云】YOLOv3~YOLOv5訓(xùn)練紅外小目標(biāo)數(shù)據(jù)集

    數(shù)據(jù)集下載地址:https://github.com/YimianDai/sirst 參考鏈接:https://github.com/pprp/voc2007_for_yolo_torch 1.1 檢測(cè)圖片及其xml文件 1.2 劃分訓(xùn)練集 1.3?轉(zhuǎn)為txt標(biāo)簽 1.4 構(gòu)造數(shù)據(jù)集 最終數(shù)據(jù)集格式如下: 根據(jù)以上數(shù)據(jù)集 需要單獨(dú)構(gòu)建一個(gè)datasets文件夾,存放標(biāo)簽和圖像,具體格式如下: 可以

    2024年02月08日
    瀏覽(46)
  • 使用矩池云 Docker 虛擬機(jī)安裝VNC、Conda、Python及CUDA

    矩池云虛擬機(jī)支持 Docker 使用,但是由于虛擬機(jī)目前不支持啟動(dòng)時(shí)傳遞環(huán)境變量來(lái)設(shè)置VNC、Jupyterlab 連接密碼,所以我們沒(méi)有創(chuàng)建相關(guān)基礎(chǔ)鏡像(設(shè)置固定密碼容易泄漏),下面給大家介紹手動(dòng)安裝使用 VNC、Jupyterlab、CUDA等步驟,以便支持使用 OpenGL 等功能的使用,開(kāi)啟更完善

    2024年03月25日
    瀏覽(19)
  • 開(kāi)源雙語(yǔ)對(duì)話語(yǔ)言模型 ChatGLM-6B 本地私有化部署

    開(kāi)源雙語(yǔ)對(duì)話語(yǔ)言模型 ChatGLM-6B 本地私有化部署

    本文首發(fā)于:https://www.licorne.ink/2023/08/llm-chatglm-6b-local-deploy/ ChatGLM-6B 是一個(gè)開(kāi)源的、支持中英雙語(yǔ)的對(duì)話語(yǔ)言模型,基于 General Language Model (GLM) 架構(gòu),具有 62 億參數(shù)。結(jié)合模型量化技術(shù),用戶可以在消費(fèi)級(jí)的顯卡上進(jìn)行本地部署(INT4 量化級(jí)別下最低只需 6GB 顯存)。 ChatGL

    2024年02月10日
    瀏覽(105)
  • IDEFICS 簡(jiǎn)介: 最先進(jìn)視覺(jué)語(yǔ)言模型的開(kāi)源復(fù)現(xiàn)

    IDEFICS 簡(jiǎn)介: 最先進(jìn)視覺(jué)語(yǔ)言模型的開(kāi)源復(fù)現(xiàn)

    我們很高興發(fā)布 IDEFICS ( I mage-aware D ecoder E nhanced à la F lamingo with I ninterleaved C ross-attention S ) 這一開(kāi)放視覺(jué)語(yǔ)言模型。IDEFICS 基于 Flamingo,F(xiàn)lamingo 作為最先進(jìn)的視覺(jué)語(yǔ)言模型,最初由 DeepMind 開(kāi)發(fā),但目前尚未公開(kāi)發(fā)布。與 GPT-4 類(lèi)似,該模型接受任意圖像和文本輸入序列并生成

    2024年02月09日
    瀏覽(19)
  • 使用pipreqs生成requirements文件,并在服務(wù)器(矩池云)上通過(guò)requirements文件安裝環(huán)境采坑記錄

    使用pipreqs生成requirements文件,并在服務(wù)器(矩池云)上通過(guò)requirements文件安裝環(huán)境采坑記錄

    今天用requirements文件想在服務(wù)器上安裝環(huán)境,遇到了許多的坑,在這里記錄一下,有需要的朋友可以看看這里有沒(méi)有記錄你存在的問(wèn)題。 報(bào)錯(cuò)內(nèi)容: ERROR: Could not install packages due to an OSError: [Errno 2] No such file or directory: \\\'/home/ktietz/src/ci/alabaster 161192154452/work! 在網(wǎng)上看到的方法:

    2024年01月24日
    瀏覽(19)
  • AI最新開(kāi)源:LMSYS Org開(kāi)源LongChat、法律大語(yǔ)言模型ChatLaw、中文醫(yī)療對(duì)話模型扁鵲

    AI最新開(kāi)源:LMSYS Org開(kāi)源LongChat、法律大語(yǔ)言模型ChatLaw、中文醫(yī)療對(duì)話模型扁鵲

    一周SOTA:LMSYS Org開(kāi)源LongChat、法律大語(yǔ)言模型ChatLaw、中文醫(yī)療對(duì)話模型扁鵲 最近UC伯克利主導(dǎo)的LMSYS Org發(fā)布了大語(yǔ)言模型排位賽,刷新了大家對(duì)當(dāng)下比較出名的開(kāi)源和「閉源」聊天機(jī)器人的認(rèn)識(shí)。 傳送門(mén):UC伯克利LLM排行榜再更新!GPT-4穩(wěn)居第一,Vicuna-33B登頂開(kāi)源模型第一

    2024年02月12日
    瀏覽(23)
  • 必看新手教程!一篇就夠!pycharm鏈接云服務(wù)器--yolov5 yolov7訓(xùn)練自己的數(shù)據(jù)集(矩池云)

    必看新手教程!一篇就夠!pycharm鏈接云服務(wù)器--yolov5 yolov7訓(xùn)練自己的數(shù)據(jù)集(矩池云)

    趁著寒假期間稍微嘗試跑了一下yolov5和yolov7的代碼,由于自己用的筆記本沒(méi)有獨(dú)顯,臺(tái)式機(jī)雖有獨(dú)顯但用起來(lái)并不順利,所以選擇了租云服務(wù)器的方式,選擇的平臺(tái)是矩池云(價(jià)格合理,操作便捷) 需要特別指出的是,如果需要用pycharm鏈接云服務(wù)器訓(xùn)練,必須要使用pycharm的

    2024年02月03日
    瀏覽(26)

覺(jué)得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請(qǐng)作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包