国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

跑在筆記本里的大語言模型 - GPT4All

這篇具有很好參考價(jià)值的文章主要介紹了跑在筆記本里的大語言模型 - GPT4All。希望對大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問。

何為GPT4All

GPT4All 官網(wǎng)給自己的定義是:一款免費(fèi)使用、本地運(yùn)行、隱私感知的聊天機(jī)器人,無需GPU或互聯(lián)網(wǎng)。

從官網(wǎng)可以得知其主要特點(diǎn)是:

  1. 本地運(yùn)行(可包裝成自主知識產(chǎn)權(quán)??)
  2. 無需GPU(窮人適配)
  3. 無需聯(lián)網(wǎng)(某國也可運(yùn)行)
  4. 同時(shí)支持Windows、MacOS、Ubuntu Linux(環(huán)境要求低)
  5. 是一個(gè)聊天工具

模型介紹

GPT4All支持多種不同大小和類型的模型,用戶可以按需選擇。

序號 模型 許可 介紹
1 ggml-gpt4all-j-v1.3-groovy.bin 商業(yè)許可 基于GPT-J,在全新GPT4All數(shù)據(jù)集上訓(xùn)練
2 ggml-gpt4all-113b-snoozy.bin 非商業(yè)許可 基于Llama 13b,在全新GPT4All數(shù)據(jù)集上訓(xùn)練
3 ggml-gpt4all-j-v1.2-jazzy.bin 商業(yè)許可 基于GPT-J,在v2 GPT4All數(shù)據(jù)集上訓(xùn)練。
4 ggml-gpt4all-j-v1.1-breezy.bin 商業(yè)許可 基于GPT-J,在v1 GPT4All數(shù)據(jù)集上訓(xùn)練
5 ggml-gpt4all-j.bin 商業(yè)許可 基于GPT-J,在v0 GPT4All數(shù)據(jù)集上訓(xùn)練
6 ggml-vicuna-7b-1.1-q4_2.bin 非商業(yè)許可 基于Llama 7b,由加州大學(xué)伯克利分校、加州大學(xué)醫(yī)學(xué)院、斯坦福大學(xué)、麻省理工大學(xué)和加州大學(xué)圣地亞哥分校的團(tuán)隊(duì)訓(xùn)練。
7 ggml-vicuna-13b-1.1-g4_2.bin 非商業(yè)許可 基于Llama 13b,由加州大學(xué)伯克利分校、加州大學(xué)醫(yī)學(xué)院、斯坦福大學(xué)、麻省理工大學(xué)和加州大學(xué)圣地亞哥分校的團(tuán)隊(duì)訓(xùn)練。
8 ggml-wizardLM-7B.q4_2.bin 非商業(yè)許可 基于Llama 7b,由微軟和北京大學(xué)訓(xùn)練。
9 ggml-stable-vicuna-13B.q4_2.bin 非商業(yè)許可 基于Llama 13b和RLHF,由Stable AI訓(xùn)練

GPT4All的模型是一個(gè) 3GB - 8GB 的??文件,目前由Nomic AI進(jìn)行維護(hù)。

nomic.ai 公司

模型的維護(hù)公司nomic.ai是怎樣一家公司,它為什么要免費(fèi)開發(fā)和維護(hù)這些模型呢?它在官網(wǎng)上是這樣寫的:

現(xiàn)在,由于人工智能的興起,我們的世界正在發(fā)生巨大的變化?,F(xiàn)代人工智能模型在互聯(lián)網(wǎng)規(guī)模的數(shù)據(jù)集上進(jìn)行訓(xùn)練,并以前所未有的規(guī)模制作內(nèi)容。它們正在迅速滲透到地球上的每一個(gè)行業(yè)——從國防、醫(yī)藥、金融到藝術(shù)。
對這些模型的訪問由少數(shù)資金充足、越來越隱秘的人工智能實(shí)驗(yàn)室控制。如果這種趨勢持續(xù)下去,人工智能的好處可能會(huì)集中在極少數(shù)人手中。
我們的 GPT4All 產(chǎn)品實(shí)現(xiàn)了前所未有的AI訪問,讓任何人都能從AI技術(shù)中受益,而不受硬件、隱私或地緣政治限制。

一句話來說:擔(dān)心AI技術(shù)被少數(shù)人控制,并且對此付諸實(shí)際行動(dòng)。

LLM大語言模型

gpt4all使用的模型是大語言模型(Large Language Model),它采用深度學(xué)習(xí)方法來理解和生成自然語言文本。這些模型通過在大量文本數(shù)據(jù)上進(jìn)行訓(xùn)練,學(xué)習(xí)到豐富的語言知識和基于上下文的語義理解。一旦訓(xùn)練完成,大語言模型可以用來完成問題回答、文本生成、語言翻譯等多種任務(wù)。

最常用的大語言模型架構(gòu)是Transformer,它由Google Brain的一個(gè)團(tuán)隊(duì)在2017年提出。這種架構(gòu)采用自注意力機(jī)制(Self-Attention Mechanism),能夠捕捉文本中長距離的依賴關(guān)系。隨著模型大小和訓(xùn)練數(shù)據(jù)量的增加,大語言模型的性能也在不斷提高。

例如,OpenAI發(fā)布了如GPT(Generative Pre-trained Transformer)等一系列大語言模型。GPT-3是其中的一個(gè)代表性模型,擁有1750億個(gè)參數(shù),表現(xiàn)出了強(qiáng)大的生成能力和多任務(wù)學(xué)習(xí)能力。

GPT-J語言模型

gpt4all使用的語言模型主要分兩類:GPT-J和LLaMA。

GPT-J 是一個(gè)在 Pile 上訓(xùn)練的 60 億參數(shù)開源英語自回歸語言模型。由 EleutherAI 在2021年發(fā)布,它遵循了GPT-2的架構(gòu),在發(fā)布時(shí),它是世界上最大的公開可用的 GPT-3 風(fēng)格語言模型。GPT-J的任務(wù)表現(xiàn)和OpenAI的GPT-3版本非常相似,甚至在代碼生成水平上還要略勝一籌。

最新版本GPT-J-6B是基于一個(gè)開源的825GB精選語言建模數(shù)據(jù)集The Pile生成。

LLaMA語言模型

LLaMA(Large Language Model Meta AI)是一種大語言模型,它是由Meta AI研究團(tuán)隊(duì)2023年開發(fā)的,用于自然語言處理任務(wù)。LLaMA 使用 transformer 架構(gòu)。

LLaMA 的開發(fā)人員曾報(bào)告說,LLaMA使用130億參數(shù)的模型在大多數(shù)NLP基準(zhǔn)測試中的性能超過了更大的GPT-3(具有1750億參數(shù))

本地部署的環(huán)境要求:AVX

本地部署的環(huán)境要求很容易達(dá)成,如下:

  1. CPU支持AVX
  2. 4GB內(nèi)存

AVX是Intel在2011年推出的一種指令集擴(kuò)展,全稱是Advanced Vector Extensions,用于加速浮點(diǎn)運(yùn)算和整數(shù)運(yùn)算。它擴(kuò)展了SSE指令集,可以同時(shí)對多個(gè)數(shù)據(jù)進(jìn)行操作。帶有AVX的CPU可以獲得很大的性能提升,特別是在圖像處理、科學(xué)計(jì)算等方面。支持AVX的CPU可以利用AVX指令集和YMM寄存器來執(zhí)行更強(qiáng)大和更高效的向量化運(yùn)算,從而獲得更高的性能。

AVX2完全兼容AVX指令集并有所擴(kuò)展。所以,AVX2特性是向過去兼容AVX的,具有AVX2特性的CPU可以運(yùn)行使用AVX指令集編譯的代碼。

要想了解自己的CPU是否支持AVX,可以使用如下命令:

Linux下:

cat /proc/cpuinfo | grep avx

MacOS下:

sysctl -a | grep machdep.cpu|grep AVX

如果輸出中包含AVX字樣,說明處理器支持AVX技術(shù);如果沒有輸出,則說明當(dāng)前主機(jī)不支持AVX技術(shù)。

本地部署

本地部署有兩種方式可選:

  1. 直接運(yùn)行官方提供的二進(jìn)制包(需要使用最新的系統(tǒng))
  2. 源代碼本地編譯

有AVX2支持

官方提供的bin的編譯環(huán)境版本非常高,以至于在老一些的系統(tǒng)上均無法運(yùn)行,所以如果你的系統(tǒng)不夠新,推薦使用源碼編譯的方式。

以支持AVX2的蘋果電腦為例:

蘋果電腦:系統(tǒng)需要macOS 12.6以上
下載 https://gpt4all.io/installers/gpt4all-installer-darwin.dmg 運(yùn)行即可

只有AVX支持

git clone --depth=1 https://github.com/zanussbaum/gpt4all.cpp.git
cd gpt4all.cpp
mkdir build; cd build
cmake -D LLAMA_NO_AVX2=1 -D LLAMA_NO_FMA=1 ..
make
wget "https://the-eye.eu/public/AI/models/nomic-ai/gpt4all/gpt4all-lora-quantized.bin"
./chat -m ./gpt4all-lora-quantized.bin

輸出

main: seed = 1683710151
llama_model_load: loading model from './gpt4all-lora-quantized.bin' - please wait ...
llama_model_load: ggml ctx size = 6065.35 MB
llama_model_load: memory_size =  2048.00 MB, n_mem = 65536
llama_model_load: loading model part 1/1 from './gpt4all-lora-quantized.bin'
llama_model_load: .................................... done
llama_model_load: model size =  4017.27 MB / num tensors = 291

system_info: n_threads = 4 / 8 | AVX = 1 | AVX2 = 0 | AVX512 = 0 | FMA = 0 | NEON = 0 | ARM_FMA = 0 | F16C = 1 | FP16_VA = 0 | WASM_SIMD = 0 | BLAS = 1 | SSE3 = 1 | VSX = 0 |
main: interactive mode on.
sampling parameters: temp = 0.100000, top_k = 40, top_p = 0.950000, repeat_last_n = 64, repeat_penalty = 1.300000


== Running in chat mode. ==
 - Press Ctrl+C to interject at any time.
 - Press Return to return control to LLaMA.
 - If you want to submit another line, end your input in '\'.

>

跑在筆記本里的大語言模型 - GPT4All

沒有AVX支持

git clone --depth=1 https://github.com/zanussbaum/gpt4all.cpp.git
cd gpt4all.cpp
make
wget "https://the-eye.eu/public/AI/models/nomic-ai/gpt4all/gpt4all-lora-quantized.bin"
./chat -m gpt4all-lora-quantized.bin

實(shí)驗(yàn)記錄

下面實(shí)驗(yàn)下gpt4all的效果。

打個(gè)招呼,10分鐘就得到了回復(fù),挺好:

> hello
Hello World!

跑在筆記本里的大語言模型 - GPT4All

問個(gè)天文問題(雙機(jī)測試):

> How long does it take for the moon to orbit once?
The Moon takes 27 days, 8 hours and 43 minutes (or about one month) to complete its orbital cycle around Earth. This is because of tidal locking which keeps only half of the lunar surface permanently illuminated by sunlight.

> How long does it take for the moon to orbit once
The time taken by Moon to complete one revolution around Earth is called lunar day and its duration depends on various factors such as distance between Sun, Moon &Earth. On average Lunar Day lasts 27 days but can vary from 24 hours (lunation) or even less than a hour in some cases due to the elliptical orbit of moon around Earth.

AI思考了半個(gè)小時(shí)后給出了答案,大山侃得不錯(cuò),科普尚需調(diào)教。

跑在筆記本里的大語言模型 - GPT4All

問個(gè)編程問題:

> Write a helloworld program using rust
\`\`\`rust
fn main() {
    println!("Hello, world!"); // Outputs "hello" to stdout and exits with status 0 (success)
}
\`\`\`

兩個(gè)小時(shí)給出答案。。。

最后來個(gè)中文問題:

> 為什么哪里都有”存在”而沒有絕對的虛無?
因?yàn)椤按嬖凇笔且环N感知,所以我們能看到其中,但不會(huì)說明那個(gè)物體或者事件完全停止。這樣就算了!

> 為什么哪里都有”存在”而沒有絕對的虛無?
因?yàn)椤按嬖凇笔且环N概念,不能用于表示真實(shí)性或物理地位。 這個(gè)概快側(cè)面就像說:絕對的虛無可以有相應(yīng)的透明度和形狀,而“存在”是一種概念,不能用于表示真實(shí)性或物理地位。 因此,當(dāng)人們想象出了絕對的虛無時(shí),他們就會(huì)逃過這個(gè)問題,而且也是為了保持概念中心主義和不能用于物理地位。

這是個(gè)困難的問題,計(jì)算機(jī)計(jì)算了幾個(gè)小時(shí)才輸出答案,不過還沒有超過750萬年。。。[1]

跑在筆記本里的大語言模型 - GPT4All

總結(jié)

gpt4all在優(yōu)秀模型的支持下,也是相當(dāng)厲害的。但沒有高配服務(wù)器的話,由于性能問題,又不好弄到生產(chǎn)環(huán)境中提供實(shí)際服務(wù)。大家有什么好的解決方法,歡迎評論區(qū)留言。
(GPU服務(wù)器會(huì)火一波嗎?)

附錄

[1]. 750萬年
在《銀河系漫游指南》中,為了回答關(guān)于“生命,宇宙以及萬事萬物的終極問題”的答案,超級計(jì)算機(jī)“深思”運(yùn)行了整整750萬年才計(jì)算出最終的答案。文章來源地址http://www.zghlxwxcb.cn/news/detail-438276.html

Reference

  • https://en.wikipedia.org/wiki/LLaMA
  • https://en.wikipedia.org/wiki/EleutherAI#The_Pile
  • https://en.wikipedia.org/wiki/Transformer_(machine_learning_model)
  • https://www.eleuther.ai/
  • https://gpt4all.io/
  • https://github.com/facebookresearch/llama
  • https://github.com/nomic-ai/gpt4all

到了這里,關(guān)于跑在筆記本里的大語言模型 - GPT4All的文章就介紹完了。如果您還想了解更多內(nèi)容,請?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場。本站僅提供信息存儲(chǔ)空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • 超簡單,不用GPU,3步教你輕松在筆記本上部署聊天大模型 LLaMA

    超簡單,不用GPU,3步教你輕松在筆記本上部署聊天大模型 LLaMA

    大家好啊,我是董董燦。 今天帶大家在自己的電腦(筆記本)上部署一個(gè)類似于 chatGPT 的 AI 聊天大模型。 部署完之后,你就擁有了一個(gè)私人 AI 聊天機(jī)器人,無需聯(lián)網(wǎng),隨時(shí)進(jìn)行實(shí)時(shí)對話。 大模型我們都不陌生了,但是以 chatGPT 為代表的大模型是閉源的,他們的源代碼不開放,

    2024年01月20日
    瀏覽(23)
  • ChatGPT 已經(jīng)成為過去,在您的筆記本電腦中免費(fèi)運(yùn)行 Llama 2(源碼含模型)

    現(xiàn)在您可以在計(jì)算機(jī)本地運(yùn)行 ChatGPT 和 LLaMA-2。Meta剛剛發(fā)布了這個(gè)擁有700億參數(shù)的模型,比任何其他Open模型都要好,甚至擊敗了Falcon 40B! 為此,您需要打開終端,轉(zhuǎn)到項(xiàng)目文件夾,然后 git clone llama.cpp 項(xiàng)目 現(xiàn)在進(jìn)入該文件夾并使用 make 構(gòu)建項(xiàng)目: 然后您需要從 Meta 網(wǎng)站請

    2024年02月14日
    瀏覽(20)
  • 超詳細(xì)教程:如何在筆記本上run起大模型?沒有GPU也可以?。╓indows/Mac)

    超詳細(xì)教程:如何在筆記本上run起大模型?沒有GPU也可以?。╓indows/Mac)

    好久沒更新了,一是最近一直在研究生物醫(yī)藥大模型相關(guān)的內(nèi)容,二是。相信不止是我,每一位工程師朋友都已經(jīng)感受到大語言模型帶給整個(gè)行業(yè)的顛覆性改變。最近身邊就有不少的小伙伴入坑了大模型技術(shù),而即使仍在觀望的同學(xué),也對大模型這一嶄新的技術(shù)表達(dá)了深厚的

    2024年02月04日
    瀏覽(24)
  • 【個(gè)人筆記本】本地化部署詳細(xì)流程 LLaMA中文模型:Chinese-LLaMA-Alpaca-2

    不推薦小白,環(huán)境配置比較復(fù)雜 下載原始模型:Chinese-LLaMA-Alpaca-2 linux部署llamacpp環(huán)境 使用llamacpp將Chinese-LLaMA-Alpaca-2模型轉(zhuǎn)換為gguf模型 windows部署Text generation web UI 環(huán)境 使用Text generation web UI 加載模型并進(jìn)行對話 筆記本環(huán)境: 操作系統(tǒng):win11 CPU:AMD R7535HS GPU:筆記本4060顯卡

    2024年02月08日
    瀏覽(111)
  • 筆記本電腦部署本地離線版類似ChatGPT3.5的AI模型(CPU+內(nèi)存運(yùn)行)

    筆記本電腦部署本地離線版類似ChatGPT3.5的AI模型(CPU+內(nèi)存運(yùn)行)

    如果通過GPU來運(yùn)行,一般辦公電腦的顯卡可能達(dá)不到所需的要求,所以,可以通過CPU+內(nèi)存的方式花最低的代價(jià)來部署一套本地運(yùn)行AI的模型。 1、首先下載CPU-Z,運(yùn)行看一下電腦當(dāng)前的指令集是否包含AVX512,非AVX512指令部署完應(yīng)該也能運(yùn)行,但可能運(yùn)行速度會(huì)非常慢。(我的電

    2024年02月04日
    瀏覽(38)
  • 全堅(jiān)固筆記本丨工業(yè)筆記本丨三防筆記本相較于普通筆記本有哪些優(yōu)勢?

    全堅(jiān)固筆記本丨工業(yè)筆記本丨三防筆記本相較于普通筆記本有哪些優(yōu)勢?

    三防筆記本和普通筆記本在設(shè)計(jì)和性能方面存在顯著差異,三防筆記本相較于普通筆記本具備以下優(yōu)勢: 三防筆記本通常采用耐磨、耐摔的材料,并具有堅(jiān)固的外殼設(shè)計(jì),能夠承受惡劣環(huán)境和意外碰撞,有效保護(hù)內(nèi)部組件不受損壞。相比之下,普通筆記本的外殼設(shè)計(jì)可能較為

    2024年04月09日
    瀏覽(96)
  • 三防筆記本丨加固筆記本丨三防筆記本電腦賦能車輛檢修

    三防筆記本丨加固筆記本丨三防筆記本電腦賦能車輛檢修

    隨著汽車數(shù)量的不斷增加和交通運(yùn)輸行業(yè)的發(fā)展,車輛檢修行業(yè)成為了保障交通安全和延長車輛壽命的重要領(lǐng)域。在車輛檢修過程中,需要使用各種工具和設(shè)備來進(jìn)行檢測、維修和保養(yǎng),而信息化技術(shù)的應(yīng)用正逐漸滲透到這一行業(yè)中,為檢修工作提供了更高效、更精準(zhǔn)的解決

    2024年04月09日
    瀏覽(92)
  • 星光/寶駿/繽果/長安 車機(jī)CarPlay手機(jī)操作破解教程V2.0版本(無需筆記本、無需筆記本、無需筆記本)

    星光/寶駿/繽果/長安 車機(jī)CarPlay手機(jī)操作破解教程V2.0版本(無需筆記本、無需筆記本、無需筆記本)

    之前寫了個(gè)1.0版本,由于太局限,需要用到筆記本才能操作,很多車友反饋不方便。特此出個(gè)手機(jī)版教程,簡單easy,媽媽再也不用擔(dān)心我搞不定啦 先卸載車機(jī)上的autokit 或者 智能互聯(lián) app,這步很關(guān)鍵!??! 工具下載鏈接 1、在自己的安卓手機(jī)上下載安裝甲殼蟲ADB助手 2、將

    2024年04月17日
    瀏覽(82)
  • 筆記本外接鍵盤解決方案:禁用筆記本自帶鍵盤

    筆記本外接鍵盤時(shí),有時(shí)會(huì)將外接鍵盤放置在筆記本自帶鍵盤上,加上現(xiàn)代筆記本設(shè)計(jì)輕薄,外接鍵盤(尤其是108鍵的)在使用過程中經(jīng)常觸碰自帶鍵盤,禁用自帶鍵盤后將提供極大的工作便利。 通過系統(tǒng)自帶sc命令禁用PS/2(i8042prt)服務(wù): 禁用服務(wù): 恢復(fù)服務(wù): I8042prt是

    2024年02月12日
    瀏覽(99)
  • python編程用什么筆記本好,python用什么筆記本電腦

    python編程用什么筆記本好,python用什么筆記本電腦

    大家好,給大家分享一下寫python大家都用什么筆記本的,很多人還不知道這一點(diǎn)。下面詳細(xì)解釋一下。現(xiàn)在讓我們來看看! 大家好,小編為大家解答python編程對筆記本電腦配置的要求的問題。很多人還不知道python編程筆記本電腦推薦便宜,現(xiàn)在讓我們一起來看看吧! 大家好

    2024年01月18日
    瀏覽(94)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包