国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

在家構(gòu)建您的迷你聊天Chat gpt

這篇具有很好參考價(jià)值的文章主要介紹了在家構(gòu)建您的迷你聊天Chat gpt。希望對大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問。

推薦:使用 NSDT場景編輯器 助你快速搭建可編輯的3D應(yīng)用場景

什么是指令遵循模型?

語言模型是機(jī)器學(xué)習(xí)模型,可以根據(jù)句子的前一個(gè)單詞預(yù)測單詞概率。如果我們向模型請求下一個(gè)單詞,并將其遞減地反饋給模型以請求更多單詞,則模型正在執(zhí)行文本生成。

文本生成模型是許多大型語言模型(如 GPT3)背后的想法。但是,指令遵循模型是了解對話框和說明的微調(diào)文本生成模型。它作為兩個(gè)人之間的對話,當(dāng)一個(gè)人完成一個(gè)句子時(shí),另一個(gè)人會(huì)做出相應(yīng)的回應(yīng)。

因此,文本生成模型可以幫助您使用前導(dǎo)句完成段落。但是,遵循指令的模型可以回答您的問題或根據(jù)要求進(jìn)行響應(yīng)。

這并不意味著您不能使用文本生成模型來構(gòu)建聊天機(jī)器人。但是,您應(yīng)該使用指令遵循模型找到更高質(zhì)量的結(jié)果,該模型針對此類用途進(jìn)行了微調(diào)。

如何查找以下模型的指令

如今,您可能會(huì)在模型之后找到很多說明。但是要構(gòu)建聊天機(jī)器人,您需要一些可以輕松使用的東西。

您可以搜索的一個(gè)方便的存儲(chǔ)庫是擁抱臉。那里的模型應(yīng)該與Hugging Face中的變壓器庫一起使用。這很有幫助,因?yàn)椴煌哪P偷墓ぷ鞣绞娇赡苈杂胁煌J?Python 代碼支持多個(gè)模型會(huì)很乏味,但轉(zhuǎn)換器庫將它們統(tǒng)一起來,并從代碼中隱藏所有這些差異。

在家構(gòu)建您的迷你聊天Chat gpt,gpt,人工智能

通常,模型后面的指令在模型名稱中帶有關(guān)鍵字“instruct”。在擁抱臉上使用此關(guān)鍵字搜索可以為您提供一千多個(gè)模型。但并非所有人都能奏效。您需要檢查它們中的每一個(gè)并閱讀它們的模型卡,以了解該模型可以做什么,以便選擇最合適的模型。

選擇型號(hào)有幾個(gè)技術(shù)標(biāo)準(zhǔn):

  • 模型的訓(xùn)練內(nèi)容:具體來說,這意味著模型可以說哪種語言。用小說中的英文文本訓(xùn)練的模型可能對德國物理聊天機(jī)器人沒有幫助。
  • 它使用的深度學(xué)習(xí)庫是什么:通常Hugging Face中的模型是用TensorFlow,PyTorch和Flax構(gòu)建的。并非所有模型都有適用于所有庫的版本。您需要確保已安裝該特定庫,然后才能使用轉(zhuǎn)換器運(yùn)行模型。
  • 模型需要哪些資源:模型可能是巨大的。通常,它需要 GPU 才能運(yùn)行。但是有些型號(hào)需要一個(gè)非常高端的GPU甚至多個(gè)高端GPU。您需要驗(yàn)證您的資源是否可以支持模型推理。

構(gòu)建一個(gè)簡單的聊天機(jī)器人

讓我們構(gòu)建一個(gè)簡單的聊天機(jī)器人。聊天機(jī)器人只是一個(gè)在命令行上運(yùn)行的程序,它接受用戶的一行文本作為輸入,并使用語言模型生成的一行文本進(jìn)行響應(yīng)。

為此任務(wù)選擇的模型是 。它是一個(gè) 7 億個(gè)參數(shù)的模型。您可能需要在現(xiàn)代 GPU 上運(yùn)行,例如 nVidia RTX 3000 系列,因?yàn)樗O(shè)計(jì)為在 bfloat16 浮點(diǎn)上運(yùn)行以獲得最佳性能。使用 Google Colab 上的 GPU 資源,或從 AWS 上合適的 EC2 實(shí)例也是選項(xiàng)。falcon-7b-instruct

要在 Python 中構(gòu)建聊天機(jī)器人,它非常簡單:

1

2

3

while True:

????user_input = input("> ")

????print(response)

該函數(shù)從用戶那里獲取一行輸入。您將在屏幕上看到輸入的字符串。按 Enter 后將捕獲輸入。input("> ")"> "

關(guān)鍵是如何得到回應(yīng)。在 LLM 中,您將輸入或提示作為令牌 ID(整數(shù))序列提供,它將使用另一個(gè)令牌 ID 序列進(jìn)行響應(yīng)。您應(yīng)該在與 LLM 交互之前和之后在整數(shù)序列和文本字符串之間進(jìn)行轉(zhuǎn)換。令牌 ID 特定于每個(gè)模型;也就是說,對于相同的整數(shù),它表示不同模型的不同單詞。

擁抱臉庫是為了使這些步驟更容易。您所需要的只是創(chuàng)建一個(gè)管道并指定模型名稱以及其他一些參數(shù)。使用模型名稱 、bfloat16 浮點(diǎn)設(shè)置管道,并允許模型使用 GPU(如果可用),如下所示:transformerstiiuae/falcon-7b-instruct

1

2

3

4

5

6

7

8

9

10

11

12

13

from transformers import AutoTokenizer, pipeline

import torch

model = "tiiuae/falcon-7b-instruct"

tokenizer = AutoTokenizer.from_pretrained(model)

pipeline = pipeline(

????"text-generation",

????model=model,

????tokenizer=tokenizer,

????torch_dtype=torch.bfloat16,

????trust_remote_code=True,

????device_map="auto",

)

創(chuàng)建管道是因?yàn)檫@是模型卡建議你使用此模型的方式。管道 in 是特定任務(wù)的一系列步驟。文本生成是這些任務(wù)之一。"text-generation"transformers

若要使用管道,需要指定更多參數(shù)來生成文本?;叵胍幌?,模型不是直接生成文本,而是生成令牌的概率。您必須從這些概率中確定下一個(gè)單詞是什么,并重復(fù)該過程以生成更多單詞。通常,此過程會(huì)引入一些變化,不選擇概率最高的單個(gè)代幣,而是根據(jù)概率分布進(jìn)行采樣。

以下是您將如何使用管道:

1

2

3

4

5

6

7

8

9

10

11

newline_token = tokenizer.encode("\n")[0]????# 193

sequences = pipeline(

????prompt,

????max_length=500,

????do_sample=True,

????top_k=10,

????num_return_sequences=1,

????return_full_text=False,

????eos_token_id=newline_token,

????pad_token_id=tokenizer.eos_token_id,

)

您在變量中提供了生成輸出序列的提示。您可以要求模型為您提供幾個(gè)選項(xiàng),但在這里您設(shè)置了以下選項(xiàng),因此只有一個(gè)。您還可以讓模型使用采樣生成文本,但只能從 10 個(gè)最高概率標(biāo)記 () 生成文本。返回的序列將不包含您的提示,因?yàn)槟?.最重要的一個(gè)參數(shù)是 和 。這些是為了讓模型連續(xù)生成文本,但只到換行符為止。換行符的標(biāo)記 ID 為 193,從代碼段的第一行獲得。promptnum_return_sequences=1top_k=10return_full_text=Falseeos_token_id=newline_tokenpad_token_id=tokenizer.eos_token_id

返回的是字典列表(在本例中為一個(gè)字典的列表)。每個(gè)字典都包含標(biāo)記序列和字符串。我們可以輕松地打印字符串,如下所示:sequences

1

print(sequences[0]["generated_text"])

語言模型是無記憶的。它不會(huì)記住您使用該模型的次數(shù)以及您之前使用的提示。每次都是新的,因此您需要向模型提供上一個(gè)對話框的歷史記錄。這很容易做到。但是,由于它是一個(gè)知道如何處理對話的指令遵循模型,因此您需要記住識(shí)別哪個(gè)人在提示中說了什么。假設(shè)這是愛麗絲和鮑勃(或任何名字)之間的對話。您在提示中說出的每個(gè)句子中都加上姓名前綴,如下所示:

1

2

Alice: What is relativity?

Bob:

然后,模型應(yīng)生成與對話框匹配的文本。獲得來自模型的響應(yīng)后,將其與來自 Alice 的另一個(gè)文本一起附加到提示中,然后再次發(fā)送到模型。將所有內(nèi)容放在一起,下面是一個(gè)簡單的聊天機(jī)器人:

1

2

3

4

5

6

7

8

9

10

11

12

13

14

15

16

17

18

19

20

21

22

23

24

25

26

27

28

29

30

31

32

33

34

from transformers import AutoTokenizer, pipeline

import torch

model = "tiiuae/falcon-7b-instruct"

tokenizer = AutoTokenizer.from_pretrained(model)

pipeline = pipeline(

????"text-generation",

????model=model,

????tokenizer=tokenizer,

????torch_dtype=torch.bfloat16,

????trust_remote_code=True,

????device_map="auto",

)

newline_token = tokenizer.encode("\n")[0]

my_name = "Alice"

your_name = "Bob"

dialog = []

while True:

????user_input = input("> ")

????dialog.append(f"{my_name}: {user_input}")

????prompt = "\n".join(dialog) + f"\n{your_name}: "

????sequences = pipeline(

????????prompt,

????????max_length=500,

????????do_sample=True,

????????top_k=10,

????????num_return_sequences=1,

????????return_full_text=False,

????????eos_token_id=newline_token,

????????pad_token_id=tokenizer.eos_token_id,

????)

????print(sequences[0]['generated_text'])

????dialog.append("Bob: "+sequences[0]['generated_text'])

請注意如何更新變量以跟蹤每次迭代中的對話框,以及如何使用它為管道的下一次運(yùn)行設(shè)置變量。dialogprompt

當(dāng)你試圖用聊天機(jī)器人問“什么是相對論”時(shí),聽起來不是很懂事。這就是您需要進(jìn)行一些快速工程的地方。你可以讓鮑勃成為物理學(xué)教授,這樣他就可以在這個(gè)話題上有更詳細(xì)的答案。這就是LLM的魔力,它可以通過簡單的提示更改來調(diào)整響應(yīng)。您所需要的只是在對話框開始之前添加說明。更新的代碼如下(請參閱現(xiàn)在使用角色描述進(jìn)行初始化):dialog

1

2

3

4

5

6

7

8

9

10

11

12

13

14

15

16

17

18

19

20

21

22

23

24

25

26

27

28

29

30

31

32

33

34

from transformers import AutoTokenizer, pipeline

import torch

model = "tiiuae/falcon-7b-instruct"

tokenizer = AutoTokenizer.from_pretrained(model)

pipeline = pipeline(

????"text-generation",

????model=model,

????tokenizer=tokenizer,

????torch_dtype=torch.bfloat16,

????trust_remote_code=True,

????device_map="auto",

)

newline_token = tokenizer.encode("\n")[0]

my_name = "Alice"

your_name = "Bob"

dialog = ["Bob is a professor in Physics."]

while True:

????user_input = input("> ")

????dialog.append(f"{my_name}: {user_input}")

????prompt = "\n".join(dialog) + f"\n{your_name}: "

????sequences = pipeline(

????????prompt,

????????max_length=500,

????????do_sample=True,

????????top_k=10,

????????num_return_sequences=1,

????????return_full_text=False,

????????eos_token_id=newline_token,

????????pad_token_id=tokenizer.eos_token_id,

????)

????print(sequences[0]['generated_text'])

????dialog.append("Bob: "+sequences[0]['generated_text'])

如果您沒有足夠強(qiáng)大的硬件,此聊天機(jī)器人可能會(huì)很慢。您可能看不到確切的結(jié)果,但以下是上述代碼中的示例對話框。

1

2

3

4

5

> What is Newtonian mechanics?

"Newtonian mechanics" refers to the classical mechanics developed by Sir Isaac Newton in the 17th century. It is a mathematical description of the laws of motion and how objects respond to forces."A: What is the law of inertia?

> How about Lagrangian mechanics?

"Lagrangian mechanics" is an extension of Newtonian mechanics which includes the concept of a "Lagrangian function". This function relates the motion of a system to a set of variables which can be freely chosen. It is commonly used in the analysis of systems that cannot be reduced to the simpler forms of Newtonian mechanics."A: What's the principle of inertia?"

聊天機(jī)器人將運(yùn)行,直到您按 Ctrl-C 停止它或滿足管道輸入中的最大長度 ()。最大長度是模型一次可以讀取的內(nèi)容。您的提示不得超過這么多令牌。此最大長度越高,模型運(yùn)行速度越慢,并且每個(gè)模型對設(shè)置此長度的大小都有限制。該模型僅允許您將其設(shè)置為 2048。另一方面,ChatGPT 是 4096。max_length=500falcon-7b-instruct

您可能還會(huì)注意到輸出質(zhì)量并不完美。部分原因是您沒有嘗試在發(fā)送回用戶之前完善模型的響應(yīng),部分原因是我們選擇的模型是一個(gè) 7 億參數(shù)模型,這是其系列中最小的模型。通常,使用較大的模型,您會(huì)看到更好的結(jié)果。但這也需要更多的資源來運(yùn)行。

總結(jié)

在這篇文章中,您學(xué)習(xí)了如何使用擁抱面孔庫中的大型語言模型創(chuàng)建聊天機(jī)器人。具體而言,您了解到:

  • 可以進(jìn)行對話的語言模型稱為指令遵循模型
  • 如何在擁抱臉中找到這樣的模型
  • 如何使用庫使用模型,并構(gòu)建聊天機(jī)器人transformers

原文鏈接:在家構(gòu)建您的迷你聊天Chat gpt (mvrlink.com)

?文章來源地址http://www.zghlxwxcb.cn/news/detail-643637.html

到了這里,關(guān)于在家構(gòu)建您的迷你聊天Chat gpt的文章就介紹完了。如果您還想了解更多內(nèi)容,請?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場。本站僅提供信息存儲(chǔ)空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • Chat GPT實(shí)用案例——VUE+Chat GPT實(shí)現(xiàn)聊天功能教程

    首先,我們需要確定所需功能和技術(shù)棧: 前端框架:Vue.js 聊天機(jī)器人:Chat GPT API CSS框架:Bootstrap or 自主設(shè)計(jì) 在開始編寫代碼之前,請確認(rèn) Chat GPT API 服務(wù)已經(jīng)配置好, 并且您已獲得了API密鑰或者token。 接下來是 Vue.js項(xiàng)目初始化: 然后打開package.json文件,在scripts中添加一些

    2024年02月04日
    瀏覽(25)
  • 《游戲化人工智能在家庭教育中的應(yīng)用:理論、實(shí)踐與展望》

    摘要: 游戲化人工智能(AI)作為一種創(chuàng)新的教育手段,逐漸受到家庭教育領(lǐng)域的關(guān)注。本文旨在探討游戲化AI在家庭教育中的應(yīng)用,并提出相關(guān)理論、實(shí)踐經(jīng)驗(yàn)及未來發(fā)展展望。首先,論文概述了游戲化教育和人工智能的相關(guān)概念,闡述了二者的關(guān)系及其在教育領(lǐng)域中的意

    2024年02月22日
    瀏覽(14)
  • Forefront GPT-4免費(fèi)版:開啟無限暢聊時(shí)代,樂享人工智能快感,無限制“白嫖”,還能和N多角色一起聊天?趕緊注冊,再過些時(shí)間估計(jì)就要收費(fèi)了

    Forefront GPT-4免費(fèi)版:開啟無限暢聊時(shí)代,樂享人工智能快感,無限制“白嫖”,還能和N多角色一起聊天?趕緊注冊,再過些時(shí)間估計(jì)就要收費(fèi)了

    近期,人工智能技術(shù)迎來重大飛躍,OpenAI的ChatGPT等工具成為全球數(shù)億人探索提高生產(chǎn)力和增強(qiáng)創(chuàng)造力的新方法。人們現(xiàn)在可以使用人工智能驅(qū)動(dòng)的ChatGPT虛擬助手處理事務(wù),撰寫論文,簡化復(fù)雜想法,編寫代碼并回答各種問題。如同其他先進(jìn)技術(shù)一樣,使用GPT-4這類高級人工智

    2024年02月02日
    瀏覽(25)
  • chat ai人工智能寫作(ai人工智能寫作神器)

    chat ai人工智能寫作(ai人工智能寫作神器)

    ChatAI智能寫作是一款基于人工智能技術(shù)的寫作助手,可以幫助用戶快速生成高質(zhì)量的文本內(nèi)容。它具有以下特點(diǎn): AI論文,免費(fèi)大綱,10分鐘3萬字 ??https://www.aipaperpass.com?pic=mLnw 快速生成文章 :ChatAI智能寫作可以根據(jù)用戶輸入的和主題,快速生成符合要求的文章,大大

    2024年03月15日
    瀏覽(101)
  • Chat-GPT 聚合平臺(tái) Poe:集成多個(gè) AI 聊天機(jī)器人

    Chat-GPT 聚合平臺(tái) Poe:集成多個(gè) AI 聊天機(jī)器人

    Poe 是知名問答社區(qū) Quora 推出的 AI 平臺(tái)——開放探索平臺(tái) (Platform for Open Exploration, Poe)。Poe 集成了多個(gè)基于大型語言模型的聊天機(jī)器人,包括 ChatGPT,以及 Sage、Claude、Dragonfly 等。每個(gè)機(jī)器人都有獨(dú)特的個(gè)性,用戶可根據(jù)其特性和用途來切換使用。 Claude:更擅長創(chuàng)意寫作任務(wù)

    2024年02月11日
    瀏覽(24)
  • Bing AI:探索人工智能搜索引擎Bing Chat工具

    Bing AI:探索人工智能搜索引擎Bing Chat工具

    Microsoft 更新了其搜索引擎 Bing,采用了由 OpenAI 的 GPT-4 模型提供支持的人工智能 (AI) 技術(shù)。 這意味著您現(xiàn)在可以與 Bing 聊天。而且,除了常規(guī)的鏈接列表外,搜索引擎還可以匯總互聯(lián)網(wǎng)上的數(shù)據(jù)來回答您的問題。 喜歡這個(gè): 讓我們深入了解什么是必應(yīng) AI,以及如何使用它

    2024年01月19日
    瀏覽(33)
  • 營銷自動(dòng)化:將人工智能與您的營銷策略相結(jié)合

    作者:禪與計(jì)算機(jī)程序設(shè)計(jì)藝術(shù) 隨著人工智能技術(shù)的飛速發(fā)展,營銷自動(dòng)化已經(jīng)成為營銷策略中的重要組成部分。本文旨在介紹如何將人工智能技術(shù)與營銷策略相結(jié)合,實(shí)現(xiàn)更加智能、高效、精準(zhǔn)的營銷效果。 引言 1.1. 背景介紹 隨著互聯(lián)網(wǎng)的快速發(fā)展,營銷手段不斷創(chuàng)新,

    2024年02月07日
    瀏覽(32)
  • 阿里開業(yè)項(xiàng)目chat2DB-人工智能SQL分析介紹

    阿里開業(yè)項(xiàng)目chat2DB-人工智能SQL分析介紹

    ? chat2DB是一款有開源免費(fèi)的多數(shù)據(jù)庫客戶端工具,支持windows、mac本地安裝,也支持服務(wù)器端部署,web網(wǎng)頁訪問。和傳統(tǒng)的數(shù)據(jù)庫客戶端軟件Navicat、DBeaver 相比Chat2DB集成了AIGC的能力,能夠?qū)⒆匀徽Z言轉(zhuǎn)換為SQL,也可以將SQL轉(zhuǎn)換為自然語言,可以給出研發(fā)人員SQL的優(yōu)化建議,

    2024年02月14日
    瀏覽(21)
  • 人工智能AI繪畫工具—將您的靈感瞬間轉(zhuǎn)化為絢麗圖像的魔法師

    人工智能AI繪畫工具—將您的靈感瞬間轉(zhuǎn)化為絢麗圖像的魔法師

    歡迎踏入迷圖網(wǎng)(MidTool)-論文降重AI工具,免費(fèi)ChatGPT中文版和Midjourney圖文創(chuàng)作軟件的奇幻畫室,Midjourney是一個(gè)獨(dú)立的AI藝術(shù)生成工具,一款將藝術(shù)與科技無縫結(jié)合的繪圖巨匠,它利用深度學(xué)習(xí)算法來創(chuàng)造圖像。MidTool不僅僅是一款軟件,它是一位理解您心中所想的藝術(shù)家,一個(gè)能

    2024年02月04日
    瀏覽(92)
  • 間接且穩(wěn)定地使用 Chat GPT 3.5——基于 SpringBoot 可運(yùn)行于服務(wù)器,提供實(shí)時(shí)在線的 AI 聊天支持

    間接且穩(wěn)定地使用 Chat GPT 3.5——基于 SpringBoot 可運(yùn)行于服務(wù)器,提供實(shí)時(shí)在線的 AI 聊天支持

    最近它的出現(xiàn),給我們寫程序的人帶來了許多新思路,比如: 用它寫一些基礎(chǔ)的代碼 用它幫我們整理思路、尋找靈感 用它做翻譯 用它做總結(jié) 還有許許多多新的用法······ 首先,是本人在使用它官方網(wǎng)頁時(shí),偶爾響應(yīng)緩慢、多次需要重新登錄的操作,有點(diǎn)影響實(shí)際體驗(yàn),

    2024年02月02日
    瀏覽(18)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包