国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

MacOS M2使用llama2

這篇具有很好參考價值的文章主要介紹了MacOS M2使用llama2。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點擊"舉報違法"按鈕提交疑問。

unsetunset前言unsetunset

看見老扎說Meta要弄llama3了,用35w張H100來搞,然后開源。

因為工作中一直用OpenAI,所以沒弄過llama2,想著試一下llama2跑本地的效果,llama2官方下載地址:https://ai.meta.com/llama/

MacOS M2使用llama2,macos

官方是需要填表的,我們直接使用社區(qū)的方案,不需要填任何東西,直接下載。

對了,我的環(huán)境是MacOS M2,windows或Linux請找其他文章了解。

unsetunset安裝環(huán)境unsetunset

首先,弄一下環(huán)境,創(chuàng)建一個Python 3.10.9的python虛擬環(huán)境,建議使用跟我一樣的python環(huán)境,如果是python 3.11,安裝環(huán)境的方式會有問題。

在python 3.10.9虛擬環(huán)境中安裝一下llm庫:

pip?install?llm

然后使用llm安裝llm-llama-cpp和llama-cpp-python就好了,llm庫幫我們處理好所有的細(xì)節(jié)。

llm?install?llm-llama-cpp

llm?install?llama-cpp-python

使用llm下載llama-2-7b-chat模型,這個模型只有7b的參數(shù),還有13b等更大的模型。

llm?llama-cpp?download-model?\
??https://huggingface.co/TheBloke/Llama-2-7B-Chat-GGML/resolve/main/llama-2-7b-chat.ggmlv3.q8_0.bin?\
??--alias?llama2-chat?--alias?l2c?--llama2-chat

因為我們這里下載的是ggmlv3,是舊的model format,新的modle format已經(jīng)改成了gguf,為了使用ggmlv3,我們需要安裝舊版本的llama-cpp-python。(https://stackoverflow.com/questions/76986412/assertionerror-when-using-llama-cpp-python-in-google-colab)

pip?install?llama-cpp-python==0.1.78

unsetunset使用unsetunset

命令行方式使用:

llm?-m?l2c?'你好,使用python寫一段生成斐波那契數(shù)列的代碼'
MacOS M2使用llama2,macos

python代碼里使用.

MacOS M2使用llama2,macos

結(jié)論:測了一些我這邊工作上的業(yè)務(wù)問題,效果一般,可能升到更多參數(shù)的模型效果會好一些。

如果效果差不多,我其實是偏向于使用llama的,比較本地llama不需要考慮openai api的ratelimit(當(dāng)然你可以用Azure的gpt api來緩解)。文章來源地址http://www.zghlxwxcb.cn/news/detail-816527.html

到了這里,關(guān)于MacOS M2使用llama2的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實不符,請點擊違法舉報進(jìn)行投訴反饋,一經(jīng)查實,立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費用

相關(guān)文章

  • 2023年最新水果DAW編曲軟件fl studio21 macOS - 21.0.3.3036簡體中文版免費下載支持蘋果M1/M2處理器

    2023年最新水果DAW編曲軟件fl studio21 macOS - 21.0.3.3036簡體中文版免費下載支持蘋果M1/M2處理器

    一直夢想制作自己的音樂(無論是作為一名制作人還是藝術(shù)家),你可能會想你出生在這個時代是你的幸運星。這個水果圈工作室和上一版之間的改進(jìn)水平確實令人欽佩。這僅僅是FL Studio 21所提供的皮毛。你的音樂項目的選擇真的會讓你大吃一驚。你以前從未有過這樣的多才多

    2024年02月03日
    瀏覽(31)
  • LLMs之LLaMA2:LLaMA2的簡介(技術(shù)細(xì)節(jié))、安裝、使用方法(開源-免費用于研究和商業(yè)用途)之詳細(xì)攻略

    LLMs之LLaMA2:LLaMA2的簡介(技術(shù)細(xì)節(jié))、安裝、使用方法(開源-免費用于研究和商業(yè)用途)之詳細(xì)攻略

    LLMs之LLaMA-2:LLaMA-2的簡介(技術(shù)細(xì)節(jié))、安裝、使用方法(開源-免費用于研究和商業(yè)用途)之詳細(xì)攻略 導(dǎo)讀 :2023年7月18日,Meta重磅發(fā)布Llama 2!這是一組預(yù)訓(xùn)練和微調(diào)的大型語言模型(LLM),規(guī)模從70億到700億個參數(shù)不等。Meta微調(diào)的LLM稱為Llama 2-Chat,專為對話使用場景進(jìn)行了優(yōu)化

    2024年02月16日
    瀏覽(23)
  • M2芯片的Mac上安裝Linux虛擬機(jī)——提前幫你踩坑 ? 安裝ubuntu虛擬機(jī)圖形化 ? 解決MacOs主機(jī)和WmwareFusion/UTM 之間不能復(fù)制粘貼問題

    M2芯片的Mac上安裝Linux虛擬機(jī)——提前幫你踩坑 ? 安裝ubuntu虛擬機(jī)圖形化 ? 解決MacOs主機(jī)和WmwareFusion/UTM 之間不能復(fù)制粘貼問題

    Mac pro,芯片M2 一定要注意自己的Mac版本?。?!,否則版本的坑你懂得! 不選Centos7,其他版本的Mac可能可以,但是M2的不行,報錯: 1.3.1 官網(wǎng)下載 本來不想造自己的本本的,因為平時自己的本本加云服務(wù)器就可以了,但是有時候某種需要,所以最后還是沒忍住,想來還是安裝

    2024年02月05日
    瀏覽(242)
  • Mac上LLAMA2大語言模型安裝到使用

    Mac上LLAMA2大語言模型安裝到使用

    LLaMA是由Facebook的母公司Meta AI設(shè)計的一個新的大型語言模型。LLaMA擁有70億到650億個參數(shù)的模型集合,是目前最全面的語言模型之一。 Llama是目前唯一一個可以進(jìn)行本地部署和本地訓(xùn)練的大型模型,對各種提問有非常好的處理能力。非常適合個人和中小型企業(yè),構(gòu)建自己的大數(shù)

    2024年03月09日
    瀏覽(86)
  • 使用 Docker 快速上手官方版 LLaMA2 開源大模型

    使用 Docker 快速上手官方版 LLaMA2 開源大模型

    本篇文章,我們聊聊如何使用 Docker 容器快速上手 Meta AI 出品的 LLaMA2 開源大模型。 昨天特別忙,早晨申請完 LLaMA2 模型下載權(quán)限后,直到晚上才顧上折騰了一個 Docker 容器運行方案,都沒來得及寫文章來聊聊這個容器怎么回事,以及怎么使用。 所以,現(xiàn)在就來聊聊如何快速上

    2024年02月16日
    瀏覽(19)
  • [NLP]LLM--使用LLama2進(jìn)行離線推理

    [NLP]LLM--使用LLama2進(jìn)行離線推理

    本文基于Chinese-LLaMA-Alpaca-2項目代碼介紹,使用原生的llama2-hf 克隆好了Chinese-LLaMA-Alpaca-2?項目之后,基于GPU的部署非常簡單。下載完成以后的模型參數(shù)(Hugging Face 格式)如下: 簡單說明一下各個文件的作用 文件名稱 示例 說明 config.json { \\\"architectures\\\": [ \\\"LlamaForCausalLM\\\" ], \\\"hidden_si

    2024年02月09日
    瀏覽(20)
  • 使用 Docker 快速上手中文版 LLaMA2 開源大模型

    使用 Docker 快速上手中文版 LLaMA2 開源大模型

    本篇文章,我們聊聊如何使用 Docker 容器快速上手朋友團(tuán)隊出品的中文版 LLaMA2 開源大模型,國內(nèi)第一個真正開源,可以運行、下載、私有部署,并且支持商業(yè)使用。 感慨于昨天 Meta LLaMA2 模型開放下載之后,GitHub 上出現(xiàn)了許多“只有 Readme 文檔” 的開源模型項目,并一時間在

    2024年02月16日
    瀏覽(24)
  • 使用GGML和LangChain在CPU上運行量化的llama2

    使用GGML和LangChain在CPU上運行量化的llama2

    Meta AI 在本周二發(fā)布了最新一代開源大模型 Llama 2。對比于今年 2 月發(fā)布的 Llama 1,訓(xùn)練所用的 token 翻了一倍,已經(jīng)達(dá)到了 2 萬億,對于使用大模型最重要的上下文長度限制,Llama 2 也翻了一倍。 在本文,我們將緊跟趨勢介紹如何在本地CPU推理上運行量化版本的開源Llama 2。 我

    2024年02月16日
    瀏覽(21)
  • 【LangChain學(xué)習(xí)之旅】—(7) 調(diào)用模型:使用OpenAI API還是微調(diào)開源Llama2/ChatGLM?

    【LangChain學(xué)習(xí)之旅】—(7) 調(diào)用模型:使用OpenAI API還是微調(diào)開源Llama2/ChatGLM?

    Reference:LangChain 實戰(zhàn)課 之前的內(nèi)容講了提示工程的原理以及 LangChain 中的具體使用方式。今天,我們來著重討論 Model I/O 中的第二個子模塊,LLM。 讓我們帶著下面的問題來開始這一節(jié)課的學(xué)習(xí)。大語言模型,不止 ChatGPT 一種。調(diào)用 OpenAI 的 API,當(dāng)然方便且高效,不過,如果我

    2024年02月01日
    瀏覽(24)
  • 【linux 使用ollama部署運行本地大模型完整的教程,openai接口, llama2例子】

    【linux 使用ollama部署運行本地大模型完整的教程,openai接口, llama2例子】

    # 安裝相應(yīng)的包 # 開啟ollama服務(wù)端! # 啟動llama2大模型(新開一個終端) # 如果不想啟動運行,只下載可以 在啟動完后,就可以對話了 # python接口對話 ? # OpenAI適配接口對話 # CUR流式接口 # 參考 llama2 (ollama.com) https://ollama.com/library/llama2 OpenAI compatibility · Ollama Blog https://ollama

    2024年03月25日
    瀏覽(50)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包