国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

基于MacBook Pro M1芯片運行chatglm2-6b大模型

這篇具有很好參考價值的文章主要介紹了基于MacBook Pro M1芯片運行chatglm2-6b大模型。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點擊"舉報違法"按鈕提交疑問。

1. 參考

  • ChatGLM2-6B代碼地址
  • chatglm2-6b模型地址
  • Mac M1芯片部署

2. ChatGLM2-6B 介紹

ChatGLM2-6B 是開源中英雙語對話模型 ChatGLM-6B 的第二代版本,在保留了初代模型對話流暢、部署門檻較低等眾多優(yōu)秀特性的基礎(chǔ)之上,ChatGLM2-6B 引入了如下新特性:

  • 更強大的性能。
  • 更長的上下文。
  • 更高效的推理。
  • 更開放的協(xié)議。

詳細介紹參考官方README介紹。

3. 本地運行

3.1 硬件配置

  • 芯片:Apple M1 Pro
  • 內(nèi)存:32 GB

3.2 下載ChatGLM2-6B代碼

cd /Users/joseph.wang/llm
git clone https://github.com/THUDM/ChatGLM2-6B

3.3 下載需要加載的模型

此步驟下載模型需要科學(xué)上網(wǎng),同時需要耐心,因為下載的時間會比較長。

cd /Users/joseph.wang/llm/ChatGLM-6B
mkdir model
cd model
git lfs install
git clone https://huggingface.co/THUDM/chatglm2-6b

基于MacBook Pro M1芯片運行chatglm2-6b大模型,LLM,LLM,chatgpt

3.4 運行大模型

3.4.1 安裝依賴
cd /Users/joseph.wang/llm/ChatGLM-6B
pip install -r requirements.txt

其中 transformers 庫版本推薦為 4.30.2,torch 推薦使用 2.0 及以上的版本,以獲得最佳的推理性能。

3.4.2 編輯web_demo.py
cd /Users/joseph.wang/llm/ChatGLM-6B
...
...
# 修改為通過本地加載大模型,這里改本地下載后大模型的路徑即可。
tokenizer = AutoTokenizer.from_pretrained("/Users/joseph.wang/llm/ChatGLM-6B/model/chatglm2-6b", trust_remote_code=True)
# 參考 [Mac M1 部署](https://github.com/THUDM/ChatGLM2-6B/blob/main/README.md#mac-%E9%83%A8%E7%BD%B2) 即可
model = AutoModel.from_pretrained("/Users/joseph.wang/llm/ChatGLM-6B/model/chatglm2-6b", trust_remote_code=True).to('mps')
...
...
# 修改本地啟動的端口
demo.queue().launch(share=True, inbrowser=True, server_port=1185)
3.4.3 啟動
python  web_demo.py

基于MacBook Pro M1芯片運行chatglm2-6b大模型,LLM,LLM,chatgpt
內(nèi)存消耗
基于MacBook Pro M1芯片運行chatglm2-6b大模型,LLM,LLM,chatgpt

4. 測試

基于MacBook Pro M1芯片運行chatglm2-6b大模型,LLM,LLM,chatgpt
基于MacBook Pro M1芯片運行chatglm2-6b大模型,LLM,LLM,chatgpt文章來源地址http://www.zghlxwxcb.cn/news/detail-824014.html

到了這里,關(guān)于基于MacBook Pro M1芯片運行chatglm2-6b大模型的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實不符,請點擊違法舉報進行投訴反饋,一經(jīng)查實,立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費用

相關(guān)文章

  • 第五篇-ChatGLM2-6B模型下載

    可以使用如下代碼下載 創(chuàng)建下載環(huán)境 編寫代碼 down_glm2.py snapshot_download其他參數(shù) 只允許下載部分類型的文件(以JSON為例) allow_patterns=‘*.json’, 不允許下載部分類型的文件(以JSON為例) ignore_patterns=[‘*.json’] 執(zhí)行下 第一篇-ChatGLM-webui-Windows安裝部署-CPU版 第二篇-二手工作站

    2024年02月14日
    瀏覽(60)
  • 三個開源大模型(chatglm2-6B, moss, llama)-chatglm2的測試

    chatglm2-6B 是清華大學(xué)開源的一款支持中英雙語的對話語言模型。經(jīng)過了 1.4T 中英標(biāo)識符的預(yù)訓(xùn)練與人類偏好對齊訓(xùn)練,具有62 億參數(shù)的 ChatGLM2-6B 已經(jīng)能生成相當(dāng)符合人類偏好的回答。結(jié)合模型量化技術(shù),用戶可以在消費級的顯卡上進行本地部署(INT4 量化級別下最低只需 6G

    2024年02月11日
    瀏覽(42)
  • 使用Triton部署chatglm2-6b模型

    NVIDIA Triton Inference Server是一個針對CPU和GPU進行優(yōu)化的云端和推理的解決方案。 支持的模型類型包括TensorRT、TensorFlow、PyTorch(meta-llama/Llama-2-7b)、Python(chatglm)、ONNX Runtime和OpenVino。 NVIDIA Triton Server是一個高性能的推斷服務(wù)器,具有以下特點: 1. 高性能:Triton Server為使用GPU進行推

    2024年02月08日
    瀏覽(20)
  • ChatGLM2-6B 大語言模型本地搭建

    ChatGLM2-6B 大語言模型本地搭建

    ChatGLM2-6B 是清華 NLP 團隊于不久前發(fā)布的中英雙語對話模型,它具備了強大的問答和對話功能。擁有最大32K上下文,并且在授權(quán)后可免費商用! ChatGLM2-6B的6B代表了訓(xùn)練參數(shù)量為60億,同時運用了模型量化技術(shù),意味著用戶可以在消費級的顯卡上進行本地部署(INT4 量化級別下

    2024年01月21日
    瀏覽(47)
  • ChatGLM2-6B模型推理流程和模型架構(gòu)詳解

    ChatGLM2-6B模型推理流程和模型架構(gòu)詳解

    提示:文章寫完后,目錄可以自動生成,如何生成可參考右邊的幫助文檔 因為本人在做大模型優(yōu)化方面的研究,之前拆了ChatGLM2的源代碼,看看能從哪些地方深入。結(jié)果剛拆完沒多久,昨天,也就是10 月 27 日,智譜 AI 在 2023 中國計算機大會(CNCC)上發(fā)布了自研第三代對話大模

    2024年02月03日
    瀏覽(30)
  • 【ChatGLM_01】ChatGLM2-6B本地安裝與部署(大語言模型)

    【ChatGLM_01】ChatGLM2-6B本地安裝與部署(大語言模型)

    ChatGLM2-6B是一個開源的、支持中英雙語的對話語言模型,基于General Language Model (GLM)架構(gòu)。 ChatGLM2-6B具備的能力: 自我認(rèn)知:“介紹一下你的優(yōu)點” 提綱寫作:“幫我寫一個介紹ChatGLM的博客提綱” 文案寫作:“寫10條熱評文案” 信息抽?。骸畯纳鲜鲂畔⒅谐槿∪?、時間、事件

    2024年02月14日
    瀏覽(22)
  • MacBook Pro(M1芯片)安裝mysql以及一些的問題解決方案

    MacBook Pro(M1芯片)安裝mysql以及一些的問題解決方案

    設(shè)備芯片及系統(tǒng)版本 1 安裝包下載 ?官方下載網(wǎng)址: MySQL https://www.mysql.com 第一步 進入官網(wǎng)后點擊DOWNLOADS。 第二步 在頁面向下找到如圖,點擊進入。 第三步 選擇此項。 ? 第四步 ?選擇版本與下載(M1芯片選擇arm64版本)。 2 安裝過程 ? 第一步 下載好安裝包后雙擊打開 ? 第

    2024年02月14日
    瀏覽(40)
  • 【AI】清華開源中英雙語對話模型ChatGLM2-6B本地安裝筆記

    【AI】清華開源中英雙語對話模型ChatGLM2-6B本地安裝筆記

    首先,直接上資源,網(wǎng)盤中是ChatGLM2-6B源碼及模型文件: 鏈接:https://pan.baidu.com/s/1DciporsVT-eSiVIAeU-YmQ 提取碼:cssa 官方的Readme已經(jīng)很詳盡了,再寫點安裝博客有點畫蛇添足。本著記錄自己的工作內(nèi)容的初衷,還是寫一寫吧,畢竟輸出才是最好的學(xué)習(xí)。 本文記錄了本地安裝Cha

    2024年02月16日
    瀏覽(33)
  • python-華為云modelarts的免費codelab運行chatglm2-6b-int4

    前提:當(dāng)前提供 了8核64G的免費體驗規(guī)格,每天三個小時限額 地址:https://console.huaweicloud.com/modelarts/?region=cn-north-4#/dashboard 下載模型:請參考另一個文章

    2024年02月10日
    瀏覽(16)
  • 【macbook air M1】采用Rosetta方式運行,在macbook M1 Air上比macBook Pro M1,速度慢一些的原因?

    My application use rosetta run on macbook air M1 slowly than run on macbook M1, Why? It\\\'s possible that you\\\'re experiencing slower performance on your?MacBook Air M1?compared to the?MacBook Pro M1?due to differences in hardware specifications, especially if your application is resource-intensive. The MacBook Air M1 has a fan-less design, which can lead

    2024年02月02日
    瀏覽(28)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包