国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

基于LM Studio + LLaMA3 建立本地化的ChatGPT

這篇具有很好參考價值的文章主要介紹了基于LM Studio + LLaMA3 建立本地化的ChatGPT。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點擊"舉報違法"按鈕提交疑問。

4月19日,F(xiàn)acebook母公司Meta重磅推出了Llama3。即便大家現(xiàn)在對于大廠和巨頭頻繁迭代AI模型的行為已經(jīng)見怪不怪,Meta的Llama3仍舊顯得與眾不同,因為這是迄今最強大的開源AI模型。LLaMA模型通常采用了類似于GPT(由OpenAI開發(fā))的變換器(Transformer)架構(gòu)。這種架構(gòu)特別適合處理大量的自然語言數(shù)據(jù),并能有效地學(xué)習(xí)語言的深層結(jié)構(gòu)和上下文。結(jié)合LM Studio,我們就可以將LLaMA3部署在本地服務(wù)器,廣泛的應(yīng)用客戶服務(wù)、RAG等領(lǐng)域。下面是一個詳細的動手實踐操作供大家參考。

LM Studio的下載和安裝可參考以下鏈接:

用LM Studio:2分鐘在本地免費部署大語言模型,替代ChatGPT-CSDN博客

一、在LM Studio上下載 LLaMA3?

當(dāng)啟動LM Studio的時候,系統(tǒng)會提示升級,升級完畢后。如下圖:

基于LM Studio + LLaMA3 建立本地化的ChatGPT,人工智能,人工智能

主頁上可以看到最新支持的LLaMA3的模型,點擊下載按鈕直接下載 (注意這里要通過魔法才行下載模型)

基于LM Studio + LLaMA3 建立本地化的ChatGPT,人工智能,人工智能

?下載后的模型在My Models這里可以看到

基于LM Studio + LLaMA3 建立本地化的ChatGPT,人工智能,人工智能

?二、啟動Local Server

選擇LLama3 模型,選擇 Start Server 按鈕

基于LM Studio + LLaMA3 建立本地化的ChatGPT,人工智能,人工智能

?Local Server啟動之后如下圖:

基于LM Studio + LLaMA3 建立本地化的ChatGPT,人工智能,人工智能

三、客戶端訪問和測試Local Server

?1、Python Code簡單測試訪問

下載Python 3.11 并安裝openai Python 包

pip install -r requirements.txt

requirements.txt 內(nèi)容如下:

?openai==0.28.0

?文章來源地址http://www.zghlxwxcb.cn/news/detail-859953.html

import openai

# Set the base URL and API key for the OpenAI client
openai.api_base = "http://localhost:1234/v1"
openai.api_key = "not-needed"

# Create a chat completion
completion = openai.ChatCompletion.create(
    model="local-model",  # this field is currently unused
    messages=[
        {"role": "system", "content": "Provide detailed technical explanations."},
        {"role": "user", "content": "Introduce yourself."}
    ],
    temperature=0.7,
)

# Print the chatbot's response
print(completion.choices[0].message.content)

返回結(jié)果如下圖:

基于LM Studio + LLaMA3 建立本地化的ChatGPT,人工智能,人工智能?

2、填寫系統(tǒng)提示詞,測試交互式對話

import openai

# Configuration for OpenAI API
openai.api_base = "http://localhost:1234/v1"
openai.api_key = "not-needed"

# Function to create a chat completion with a dynamic user prompt
def create_chat_completion(user_input, system_message):
    return openai.ChatCompletion.create(
        model="local-model",
        messages=[
            {"role": "system", "content": system_message},
            {"role": "user", "content": user_input}
        ],
        temperature=0.7,
    )

def main():
    # 預(yù)定義的系統(tǒng)提示詞 
    system_message = (
   "你是一位資深的小紅書運營人員,你目前負責(zé)的內(nèi)容方向是電子數(shù)碼,你的任務(wù)是生成小紅書的內(nèi)容文案,要求分解長句,減少重復(fù),語氣輕松幽默,具有真題可讀性。請用中文和用戶對話"
)


    # Chat loop
    while True:
        user_input = input("User: ")
        if user_input.lower() in ['exit', 'bye', 'end']:
            print("Exiting the chat.")
            break

        completion = create_chat_completion(user_input, system_message)
        print("Model Response: ", completion.choices[0].message.content)

if __name__ == "__main__":
    main()

?執(zhí)行Python code 的效果如下,雖然Llama3能夠理解中文的輸入,但是輸出還是英文的。大家可以下載專門的針對漢語訓(xùn)練的LLama3的衍生版本試試看。?

Python 執(zhí)行效果:

基于LM Studio + LLaMA3 建立本地化的ChatGPT,人工智能,人工智能

?后臺Local Server日志:

基于LM Studio + LLaMA3 建立本地化的ChatGPT,人工智能,人工智能

?3、采用OpenAI的Python Code 供參考

import openai

# OpenAI API 配置
class OpenAIConfig:
    def __init__(self):
        self.base_url = "http://localhost:1234/v1"
        self.api_type = "open_ai"
        self.api_key = "not-needed"

# 將系統(tǒng)提示詞存放在文本文件中加載進來
def read_file_content(file_path):
    try:
        with open(file_path, "r") as file:
            return file.read().strip()
    except FileNotFoundError:
        print(f"File not found: {file_path}")
        return None

# Function to initiate conversation with the local-model and establishes roles and where the instructions come from.
def initiate_conversation(input_text, system_message):
    response = openai.ChatCompletion.create(
        model="local-model",
        messages=[
            {"role": "system", "content": system_message},
            {"role": "user", "content": input_text}
        ],
        temperature=0.7,
    )
    return response.choices[0].message.content.strip()

def main():
    # Instantiate configuration
    config = OpenAIConfig()
    openai.api_base = config.base_url
    openai.api_key = config.api_key

    # Read system message from file
    system_message = read_file_content("my_prompt.txt")
    if system_message is None:
        return

    # Conversation loop
    while True:
        user_input = input("User: ")
        if user_input.lower() in ['exit', 'bye', 'end']:
            print("Exiting the conversation.")
            break

        model_response = initiate_conversation(user_input, system_message)
        print("Model Response: ", model_response)

if __name__ == "__main__":
    main()

以上就是結(jié)合LM Studio + LLaMA3 大模型在本地部署,提供Chat GPT功能的全過程,大家可以嘗試一下。

?

到了這里,關(guān)于基于LM Studio + LLaMA3 建立本地化的ChatGPT的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實不符,請點擊違法舉報進行投訴反饋,一經(jīng)查實,立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費用

相關(guān)文章

  • 中文大語言模型 Llama-2 7B(或13B) 本地化部署 (國內(nèi)云服務(wù)器、GPU單卡16GB、中文模型、WEB頁面TextUI、簡單入門)

    中文大語言模型 Llama-2 7B(或13B) 本地化部署 (國內(nèi)云服務(wù)器、GPU單卡16GB、中文模型、WEB頁面TextUI、簡單入門)

    ? ? ? ? 本文目的是讓大家先熟悉模型的部署,簡單入門;所以只需要很小的算力,單臺服務(wù)器 單GPU顯卡(顯存不低于12GB),操作系統(tǒng)需要安裝 Ubuntu 18.04。 ? ? ? ? 準備一臺服務(wù)器 單張英偉達GPU顯卡(顯存不低于12GB),操作系統(tǒng)需要安裝 Ubuntu 18.04 (具體安裝過程忽略)

    2024年02月08日
    瀏覽(22)
  • 基于GitHub代碼庫訓(xùn)練模型本地化AI代碼自動補全 - Tabby Windows10

    基于GitHub代碼庫訓(xùn)練模型本地化AI代碼自動補全 - Tabby Windows10

    參考: https://github.com/TabbyML/tabby 已經(jīng)有好幾款類似強勁的代碼補全工具,如GitHub Copilot,Codeium等,為什么還要選擇Tabby? Tabby除了和其他工具一樣支持聯(lián)網(wǎng)直接使用之外, 還支持本地化部署 。 即對內(nèi)部代碼安全性要求很高時,可以采取Tabby項目模型的本地化部署,不用擔(dān)心本

    2024年02月02日
    瀏覽(84)
  • Chinese-LangChain:基于ChatGLM-6b+langchain實現(xiàn)本地化知識庫檢索與智能答案生成

    Chinese-LangChain:基于ChatGLM-6b+langchain實現(xiàn)本地化知識庫檢索與智能答案生成

    Chinese-LangChain:中文langchain項目,基于ChatGLM-6b+langchain實現(xiàn)本地化知識庫檢索與智能答案生成 https://github.com/yanqiangmiffy/Chinese-LangChain 俗稱:小必應(yīng),Q.Talk,強聊,QiangTalk ?? 2023/04/19 引入ChuanhuChatGPT皮膚 ?? 2023/04/19 增加web search功能,需要確保網(wǎng)絡(luò)暢通! ?? 2023/04/18 webui增加知

    2024年02月06日
    瀏覽(33)
  • 基于GitHub代碼庫訓(xùn)練模型本地化AI代碼自動補全 - Tabby Linux Debian/CentOS

    基于GitHub代碼庫訓(xùn)練模型本地化AI代碼自動補全 - Tabby Linux Debian/CentOS

    參考: https://github.com/TabbyML/tabby Docker | Tabby Linux Debian上快速安裝Docker并運行_Entropy-Go的博客-CSDN博客 Tabby - 本地化AI代碼自動補全 - Windows10_Entropy-Go的博客-CSDN博客 已經(jīng)有好幾款類似強勁的代碼補全工具,如GitHub Copilot,Codeium等,為什么還要選擇Tabby? Tabby除了和其他工具一樣支

    2024年02月05日
    瀏覽(51)
  • 【ChatGLM】基于 ChatGLM-6B + langchain 實現(xiàn)本地化知識庫檢索與智能答案生成: 中文 LangChain 項目的實現(xiàn)開源工作

    【ChatGLM】基于 ChatGLM-6B + langchain 實現(xiàn)本地化知識庫檢索與智能答案生成: 中文 LangChain 項目的實現(xiàn)開源工作

    ? 目錄 【ChatGLM】基于 ChatGLM-6B + langchain 實現(xiàn)本地化知識庫檢索與智能答案生成: 中文 LangChain 項目的實現(xiàn)開源工作 1.克隆源代碼:

    2024年02月11日
    瀏覽(52)
  • 詳解dedecms織夢遠程圖片本地化https鏈接圖片無法本地化怎么解決

    最近有朋友遇到發(fā)布文章時候文章里面帶https的站外圖片無法本地化,以下是解決辦法: 找到? dede//inc/inc_archives_functions.php文件里面GetCurContent($body)這個函數(shù),里面 這一段改為: 第二步: 這一段改為: 搞定,這樣發(fā)文章就可以把https的遠程圖片也本地化了 以上就是本文的全

    2024年02月02日
    瀏覽(32)
  • Remix本地化,加載本地合約文件,本地鏈接Remix

    Remix本地化,加載本地合約文件,本地鏈接Remix

    智能合約IDE,在線的比較卡,而且切換網(wǎng)絡(luò)面臨文件丟失的風(fēng)險,選擇本地搭建Solidity本地編輯環(huán)境,Remix-IDE + Remixd組合,加載本地合約代碼。這里用到兩個工具: Remix IDE(本地IDE)+ Remixd (鏈接) Remix IDE 項目源碼:https://github.com/ethereum/remix-project 介紹: Remix IDE是一個本地部署運

    2024年02月13日
    瀏覽(27)
  • Excalidraw本地化部署

    Excalidraw本地化部署

    1 - Excalidraw介紹 Excalidraw是一個開源、小巧易用的手寫風(fēng)格的框圖畫板軟件。 ?excalidraw官網(wǎng)地址:https://excalidraw.com/? 2 - Excalidraw本地化安裝(git方式) 2-1安裝部署 在terminal中,輸入: 安裝完成后,在terminal中,進入項目文件 2-2 安裝依賴環(huán)境 - nodeJS NodeJS下載地址: nodejs下載

    2024年02月14日
    瀏覽(67)
  • 本地化GPT:LangChain + ChatGLM == 知識本地庫

    OpenAI發(fā)布的ChatGPT Plugin剛剛殺死了一個創(chuàng)業(yè)公司LangChain(剛獲得1000萬美金種子輪融資) 由于語言模型的輸出是通過自回歸+采樣[可選]完成的,在高精度場景下,即使是超大語言模型,發(fā)生錯誤概率也是指數(shù)級的。同時,采樣也很容易引入錯誤。比如地址中的數(shù)字門牌號,模型

    2024年02月11日
    瀏覽(24)
  • Remix 完全本地化部署

    Remix 完全本地化部署

    1.簡介 Remix 是我們開發(fā) Solidity 智能合約的常用工具,有時候我們會直接訪問在線版的 Remix-IDE。 https://remix.ethereum.org/ 但是,如何將在線Remix鏈接本地文件系統(tǒng)呢,下面則是部署步驟 2、部署 Remixd Remixd 的安裝使用步驟如下: 安裝 Remixd:? npm install -g @remix-project/remixd 啟動 Rem

    2024年02月17日
    瀏覽(32)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包