国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

本地運行LlaMA 2的簡易指南

這篇具有很好參考價值的文章主要介紹了本地運行LlaMA 2的簡易指南。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點擊"舉報違法"按鈕提交疑問。

大家好,像LLaMA 2這樣的新開源模型已經(jīng)變得相當(dāng)先進,并且可以免費使用??梢栽谏虡I(yè)上使用它們,也可以根據(jù)自己的數(shù)據(jù)進行微調(diào),以開發(fā)專業(yè)版本。憑借其易用性,現(xiàn)在可以在自己的設(shè)備上本地運行它們。

本文將介紹如何下載所需的文件和LLaMA 2模型,以運行CLI程序并與AI助手進行交互。設(shè)置非常簡單,即使是非技術(shù)用戶或?qū)W生也可以按照這幾個基本步驟進行操作。

1.下載Llama.cpp用于GPU機器

要在本地安裝llama.cpp,最簡單的方法是從llama.cpp releases中下載預(yù)編譯的可執(zhí)行文件。

要在配備有NVIDIA GPU的Windows 11上安裝它,我們首先需要下載llama-master-eb542d3-bin-win-cublas-[version]-x64.zip文件。下載完成后,將其解壓縮到你選擇的目錄中。建議創(chuàng)建一個新文件夾并將所有文件提取到其中。

接下來,我們將下載cuBLAS驅(qū)動程序cudart-llama-bin-win-[version]-x64.zip,并將其解壓縮到主目錄中。要使用GPU加速,你有兩個選項:NVIDIA GPU的cuBLAS和AMD GPU的clBLAS。

注意:[version]是指本地系統(tǒng)上安裝的CUDA版本??梢酝ㄟ^在終端中運行nvcc --version來檢查它。

本地運行LlaMA 2的簡易指南,llama

2.下載模型

首先,在主目錄中創(chuàng)建一個名為“Models”的文件夾。在Models文件夾中,創(chuàng)建一個名為“l(fā)lama2_7b”的新文件夾。接下來,從Hugging Face hub下載LLaMA 2模型文件。大家可以選擇任何喜歡的版本,本指南將下載llama-2-7b-chat.Q5_K_M.gguf文件。下載完成后,將文件移動到剛剛創(chuàng)建的“l(fā)lama2_7b”文件夾中。

本地運行LlaMA 2的簡易指南,llama

注意:為了避免出現(xiàn)任何錯誤,請確保在運行模型之前只下載.gguf模型文件。

?3.啟動AI助手CLI程序

現(xiàn)在可以在主目錄中打開終端。通過右鍵單擊并選擇“Open in Terminal”選項,也可以打開PowerShell并使用“cd”來更改目錄。

本地運行LlaMA 2的簡易指南,llama

復(fù)制并粘貼下面的命令,然后按“Enter”鍵,正在執(zhí)行帶有模型目錄位置、gpu、顏色和系統(tǒng)提示參數(shù)的main.exe文件。

./main.exe?-m?.\Models\llama2_7b\llama-2-7b-chat.Q5_K_M.gguf?-i?--n-gpu-layers?32?-ins?--color?-p?"<<SYS>>?As?an?AI?assistant,?your?core?values?include?being?supportive,?considerate,?and?truthful,?ensuring?that?every?interaction?is?guided?by?clarity?and?helpfulness.?<</SYS>>"

本地運行LlaMA 2的簡易指南,llama

llama.ccp CLI程序已成功初始化并附帶了系統(tǒng)提示,這是一個有用的AI助手,并顯示了各種可用的命令。

4.在PowerShell中本地使用LLaMA 2

通過提供提示在PowerShell中測試LLaMA 2,提出了一個關(guān)于地球年齡的簡單問題。

本地運行LlaMA 2的簡易指南,llama

答案非常準(zhǔn)確,接著問一個關(guān)于地球的后續(xù)問題。

正如所看到的,該模型提供了有關(guān)我們星球的多個有趣事實。

本地運行LlaMA 2的簡易指南,llama

可以要求AI助手在終端中生成代碼和解釋,然后可以很輕松地復(fù)制并在集成開發(fā)環(huán)境(IDE)中使用。

本地運行LlaMA 2的簡易指南,llama

在本地運行LLaMA 2提供了一個功能強大且易于使用的定制化聊天機器人體驗。通過按照這個簡單的指南操作,可以快速學(xué)習(xí)如何建立、設(shè)置自己的私人聊天機器人,而不需要依賴付費服務(wù)。

在本地運行LLaMA 2的主要優(yōu)勢是對數(shù)據(jù)和對話的完全控制,以及沒有使用限制,可以與機器人進行無限次數(shù)的聊天,甚至可以對其進行微調(diào)以改善回答。

雖然與即時可用的云AI API相比時不太方便,但本地設(shè)置可以保護數(shù)據(jù)隱私,數(shù)據(jù)將完全存儲在自己的設(shè)備上,無需擔(dān)心泄露。文章來源地址http://www.zghlxwxcb.cn/news/detail-799312.html

到了這里,關(guān)于本地運行LlaMA 2的簡易指南的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實不符,請點擊違法舉報進行投訴反饋,一經(jīng)查實,立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費用

相關(guān)文章

  • 在本地使用CPU運行Llama 2模型來實現(xiàn)文檔Q&A

    在本地使用CPU運行Llama 2模型來實現(xiàn)文檔Q&A

    第三方商業(yè)大型語言模型(LLM)提供商,如OpenAI的GPT4,通過簡單的API調(diào)用使LLM的使用更加容易。然而,由于數(shù)據(jù)隱私和合規(guī)等各種原因,我們可能仍需要在企業(yè)內(nèi)部部署或私有模型推理。 開源LLM的普及讓我們私有化部署大語言模型稱為可能,從而減少了對這些第三方提供商

    2024年02月13日
    瀏覽(18)
  • 本地推理,單機運行,MacM1芯片系統(tǒng)基于大語言模型C++版本LLaMA部署“本地版”的ChatGPT

    本地推理,單機運行,MacM1芯片系統(tǒng)基于大語言模型C++版本LLaMA部署“本地版”的ChatGPT

    OpenAI公司基于GPT模型的ChatGPT風(fēng)光無兩,眼看它起朱樓,眼看它宴賓客,F(xiàn)aceBook終于坐不住了,發(fā)布了同樣基于LLM的人工智能大語言模型LLaMA,號稱包含70億、130億、330億和650億這4種參數(shù)規(guī)模的模型,參數(shù)是指神經(jīng)網(wǎng)絡(luò)中的權(quán)重和偏置等可調(diào)整的變量,用于訓(xùn)練和優(yōu)化神經(jīng)網(wǎng)絡(luò)

    2024年01月22日
    瀏覽(29)
  • 使用go-llama.cpp 運行 yi-01-6b大模型,使用本地CPU運行,速度挺快的

    使用go-llama.cpp 運行 yi-01-6b大模型,使用本地CPU運行,速度挺快的

    https://github.com/ggerganov/llama.cpp LaMA.cpp 項目是開發(fā)者 Georgi Gerganov 基于 Meta 釋出的 LLaMA 模型(簡易 Python 代碼示例)手?jǐn)]的純 C/C++ 版本,用于模型推理。所謂推理,即是給輸入-跑模型-得輸出的模型運行過程。 那么,純 C/C++ 版本有何優(yōu)勢呢? 無需任何額外依賴,相比 Python 代碼

    2024年02月20日
    瀏覽(19)
  • 【linux 使用ollama部署運行本地大模型完整的教程,openai接口, llama2例子】

    【linux 使用ollama部署運行本地大模型完整的教程,openai接口, llama2例子】

    # 安裝相應(yīng)的包 # 開啟ollama服務(wù)端! # 啟動llama2大模型(新開一個終端) # 如果不想啟動運行,只下載可以 在啟動完后,就可以對話了 # python接口對話 ? # OpenAI適配接口對話 # CUR流式接口 # 參考 llama2 (ollama.com) https://ollama.com/library/llama2 OpenAI compatibility · Ollama Blog https://ollama

    2024年03月25日
    瀏覽(50)
  • 用 7 行代碼在本地運行 Llama 2?。ㄌO果silicon-mac m1 m2)項目源碼含模型

    用 7 行代碼在本地運行 Llama 2?。ㄌO果silicon-mac m1 m2)項目源碼含模型

    總而言之: 注意:7B 型號重量約為 4GB,請確保您的機器上有足夠的空間。 這是使用 Georgi Gerganov 令人驚嘆的llama.cpp項目來運行 Llama 2。它通過TheBloke的 Huggingface 存儲庫為 Llama 7B Chat 下載一組 4 位優(yōu)化的權(quán)重,將其放入 llama.cpp 中的模型目錄中,然后使用 Apple 的 Metal 優(yōu)化構(gòu)建

    2024年02月15日
    瀏覽(23)
  • 【ollama】(2):在linux搭建環(huán)境,編譯ollama代碼,測試qwen大模型,本地運行速度飛快,本質(zhì)上是對llama.cpp 項目封裝

    【ollama】(2):在linux搭建環(huán)境,編譯ollama代碼,測試qwen大模型,本地運行速度飛快,本質(zhì)上是對llama.cpp 項目封裝

    https://github.com/ollama/ollama/tree/main/docs https://www.bilibili.com/video/BV1oS421w7aM/ 【ollama】(2):在linux搭建環(huán)境,編譯ollama代碼,測試qwen大模型,本地運行速度飛快,本質(zhì)上是對llama.cpp 項目封裝 要是失敗執(zhí)行,子模塊更新: 需要編譯 llama.cpp 的代碼, 然后經(jīng)過漫長的編譯,就而可以

    2024年04月08日
    瀏覽(28)
  • Llama2通過llama.cpp模型量化 Windows&Linux本地部署

    Llama2通過llama.cpp模型量化 Windows&Linux本地部署

    LLaMA ,它是一組基礎(chǔ)語言模型,參數(shù)范圍從7B到65B。在數(shù)萬億的tokens上訓(xùn)練的模型,并表明可以專門使用公開可用的數(shù)據(jù)集來訓(xùn)練最先進的模型,而無需求助于專有和不可訪問的數(shù)據(jù)集。特別是, LLaMA-13B在大多數(shù)基準(zhǔn)測試中都優(yōu)于GPT-3(175B) ,并且LLaMA65B與最好的型號Chinch

    2024年02月05日
    瀏覽(17)
  • 微調(diào) Code Llama 完整指南

    今天這篇文章將向大家詳細(xì)介紹如何對 Code Llama 進行微調(diào),讓它變成適合 SQL 開發(fā)的有利工具。對于編程開發(fā)任務(wù),經(jīng)過適當(dāng)微調(diào)后的 Code Llama 的性能通常都會比普通的 Llama 強很多,特別是當(dāng)我們針對具體任務(wù)進行優(yōu)化時: 使用 b-mc2/sql-create-context 這個文本查詢及其對應(yīng)的SQ

    2024年02月04日
    瀏覽(17)
  • llama.cpp一種在本地CPU上部署的量化模型(超低配推理llama)

    llama.cpp一種在本地CPU上部署的量化模型(超低配推理llama)

    前不久,Meta前腳發(fā)布完開源大語言模型LLaMA, 隨后就被網(wǎng)友“泄漏”,直接放了一個磁力鏈接下載鏈接。 然而那些手頭沒有頂級顯卡的朋友們,就只能看看而已了 但是 Georgi Gerganov 開源了一個項目llama.cpp ggerganov/llama.cpp: Port of Facebook’s LLaMA model in C/C++ (github.com) 次項目的牛逼

    2023年04月23日
    瀏覽(22)
  • llama.cpp LLM模型 windows cpu安裝部署;運行LLaMA-7B模型測試

    llama.cpp LLM模型 windows cpu安裝部署;運行LLaMA-7B模型測試

    參考: https://www.listera.top/ji-xu-zhe-teng-xia-chinese-llama-alpaca/ https://blog.csdn.net/qq_38238956/article/details/130113599 cmake windows安裝參考:https://blog.csdn.net/weixin_42357472/article/details/131314105 1、下載: 2、編譯 3、測試運行 參考: https://zhuanlan.zhihu.com/p/638427280 模型下載: https://huggingface.co/nya

    2024年02月15日
    瀏覽(17)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包