国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

在樹莓派中跑迷你Llama2中文模型

這篇具有很好參考價值的文章主要介紹了在樹莓派中跑迷你Llama2中文模型。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點擊"舉報違法"按鈕提交疑問。

??OpenAI的Karpathy利用周末搞了一個迷你Llama2項目llama2.c用500行C語言實現(xiàn)無任何依賴項的推理程序,此項目在github發(fā)布以來衍生出了基于各種語言的迷你Llama推理實現(xiàn)llama2.go、llama2.java、llama2.py等等;
??但該項目原本的模型并不支持中文,最近正好看到一個基于llama2的中文訓練模型;想著把它跑在樹莓派上速度會怎樣;
??使用Go實現(xiàn)進行模型推理,該在樹莓派中的Llama2 迷你中文模型,模型大小為15M使用的數(shù)據(jù)集為TinyStories 英文翻譯后的數(shù)據(jù)但僅翻譯了TinyStories 的部分數(shù)據(jù)目前為1M,中文詞表使用UTF-8編碼所以每個漢字為3個字節(jié);

在樹莓派中推理:

 ./llama2.go -checkpoint=stories15M-llama2-enzh.bin -tokenizer=tokenizer.bin -prompt="有個小姑娘" 
2023/08/20 15:43:55 config: llama2.Config{Dim:288, HiddenDim:768, NumLayers:6, NumHeads:6, NumKVHeads:6,VocabSize:55296, SeqLen:256}
 有個小姑娘。她正忙著在公園里玩耍。突然,她摔倒了,膝蓋受傷了。她需要舉起膝蓋。
 她的父母提醒她保持冷靜,然后喬把她救回她的安全位置。他們給了她一些創(chuàng)可貼,并告訴她會幫助她感覺好一點。
 小喬緊緊地抱住膝蓋,微笑著。她相信她的父母會幫助她感覺更好。
 最終,收拾好竭,她的膝蓋感覺好多了。她很高興能能夠再次感到安全。

??可以看到在樹莓派中跑這個150萬參數(shù)的llama2模型Tokens/s速度只有每秒不到10;
??由于TinyStories只是短篇故事數(shù)據(jù)集,加上中文翻譯數(shù)據(jù)集也不完全,模型參數(shù)也只有百萬規(guī)模所以講故事的效果并不好;

在樹莓派中跑迷你Llama2中文模型

Go推理fork于:https://github.com/nikolaydubina/llama2.go
模型、詞表來源:https://github.com/chenyangMl/llama2.c-zh
文章首發(fā)地址:https://mp.weixin.qq.com/s/3jHg6kYFnd45JUZq9WK3sw文章來源地址http://www.zghlxwxcb.cn/news/detail-659836.html

到了這里,關(guān)于在樹莓派中跑迷你Llama2中文模型的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務(wù),不擁有所有權(quán),不承擔相關(guān)法律責任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實不符,請點擊違法舉報進行投訴反饋,一經(jīng)查實,立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費用

相關(guān)文章

  • [玩轉(zhuǎn)AIGC]LLaMA2訓練中文文章撰寫神器(數(shù)據(jù)準備,數(shù)據(jù)處理,模型訓練,模型推理)

    [玩轉(zhuǎn)AIGC]LLaMA2訓練中文文章撰寫神器(數(shù)據(jù)準備,數(shù)據(jù)處理,模型訓練,模型推理)

    好久沒更新這個專欄的文章了,今天抽空寫了一篇?!?023.12.28 摘要:文體包括新聞,法律文書,公告,廣告等,每種文體的書寫風格不一樣,如果擁有自己的數(shù)據(jù)集,想針對特定文體來訓練一個內(nèi)容生成的工具,來幫助自己寫點文章,如果沒接觸過AIGC,可能一開始會

    2024年01月17日
    瀏覽(25)
  • 【AI實戰(zhàn)】開源中文 llama2 來了,30 分鐘搭建 130 億參數(shù)大模型 Llama2-Chinese-13b-Chat

    【AI實戰(zhàn)】開源中文 llama2 來了,30 分鐘搭建 130 億參數(shù)大模型 Llama2-Chinese-13b-Chat

    Llama2 2023年7月19日:Meta 發(fā)布開源可商用模型 Llama2。 Llama2 是一個預(yù)訓練和微調(diào)的生成文本模型的集合,其規(guī)模從70億到700億個參數(shù)不等。 LLaMA2 的詳細介紹可以參考這篇文章:【大模型】更強的 LLaMA2 來了,開源可商用、與 ChatGPT 齊平 Llama2-Chinese Llama2中文社區(qū) Llama2-Chinese Git

    2024年02月12日
    瀏覽(22)
  • 大模型部署手記(11)LLaMa2+Chinese-LLaMA-Plus-2-7B+Windows+llama.cpp+中文對話

    大模型部署手記(11)LLaMa2+Chinese-LLaMA-Plus-2-7B+Windows+llama.cpp+中文對話

    組織機構(gòu):Meta(Facebook) 代碼倉:GitHub - facebookresearch/llama: Inference code for LLaMA models 模型:LIama-2-7b-hf、Chinese-LLaMA-Plus-2-7B ? 下載:使用huggingface.co和百度網(wǎng)盤下載 硬件環(huán)境:暗影精靈7Plus Windows版本:Windows 11家庭中文版 Insider Preview 22H2 內(nèi)存 32G GPU顯卡:Nvidia GTX 3080 Laptop (1

    2024年02月03日
    瀏覽(26)
  • 大模型部署手記(9)LLaMa2+Chinese-LLaMA-Plus-7B+Windows+llama.cpp+中文文本補齊

    大模型部署手記(9)LLaMa2+Chinese-LLaMA-Plus-7B+Windows+llama.cpp+中文文本補齊

    組織機構(gòu):Meta(Facebook) 代碼倉:GitHub - facebookresearch/llama: Inference code for LLaMA models 模型:llama-2-7b、Chinese-LLaMA-Plus-7B(chinese_llama_plus_lora_7b) ? 下載:使用download.sh下載 硬件環(huán)境:暗影精靈7Plus Windows版本:Windows 11家庭中文版 Insider Preview 22H2 內(nèi)存 32G GPU顯卡:Nvidia GTX 3080 La

    2024年02月03日
    瀏覽(24)
  • 將 Llama2 中文模型接入 FastGPT,再將 FastGPT 接入任意 GPT 套殼應(yīng)用,真刺激!

    將 Llama2 中文模型接入 FastGPT,再將 FastGPT 接入任意 GPT 套殼應(yīng)用,真刺激!

    FastGPT 是一個基于 LLM 大語言模型的知識庫問答系統(tǒng),提供開箱即用的數(shù)據(jù)處理、模型調(diào)用等能力。同時可以通過 Flow 可視化進行工作流編排,從而實現(xiàn)復(fù)雜的問答場景! Llama2 是Facebook 母公司 Meta 發(fā)布的開源可商用大模型,國內(nèi)的開源社區(qū)以及個人和機構(gòu)也紛紛著手基于 Ll

    2024年02月10日
    瀏覽(27)
  • 國內(nèi)最大Llama開源社區(qū)發(fā)布首個預(yù)訓練中文版Llama2

    國內(nèi)最大Llama開源社區(qū)發(fā)布首個預(yù)訓練中文版Llama2

    \\\" 7月31日,Llama中文社區(qū)率先完成了國內(nèi) 首個真正意義上的中文版Llama2-13B大模型 ,從模型底層實現(xiàn)了Llama2中文能力的大幅優(yōu)化和提升。毋庸置疑,中文版Llama2一經(jīng)發(fā)布將開啟國內(nèi)大模型新時代! | 全球最強,但中文短板 Llama2是當前全球范圍內(nèi)最強的開源大模型,但其中文能

    2024年02月13日
    瀏覽(21)
  • 基于Llama2模型的開源模型

    基于Llama2模型的開源模型

    ??2023年7月18日Meta開源了Llama2,在2萬億個Token上訓練,可用于商業(yè)和研究,包括從7B到70B模型權(quán)重、預(yù)訓練和微調(diào)的代碼。相比Llama1,Llama2有較多提升,評估結(jié)果如下所示: 基于Llama2模型的開源模型如下所示: 1.WizardCoder Python V1.0 2.Phind Code Llama v1 3.WizardLM 70B V1.0 4.Dophin Llam

    2024年02月10日
    瀏覽(25)
  • 逐行對比LLaMA2和LLaMA模型源代碼

    幾個小時前(2023年7月18日),Meta發(fā)布了允許商用的開源模型LLaMA2。筆者逐行對比了LLaMA2模型源代碼,和LLaMA相比,幾乎沒有改動,細節(jié)如下: 是否改動 LLaMA2 LLaMA 模型整體構(gòu)架 無 Transformer Transformer 規(guī)范化函數(shù) 無 均方根規(guī)范化(RMSNorm) 均方根規(guī)范化(RMSNorm) 位置編碼 無

    2024年02月16日
    瀏覽(94)
  • 大模型Llama2部署,基于text-generation-webui、Llama2-Chinese

    參考安裝教程:傻瓜式!一鍵部署llama2+chatglm2,集成所有環(huán)境和微調(diào)功能,本地化界面操作! Github地址:GitHub - oobabooga/text-generation-webui: A Gradio web UI for Large Language Models. Supports transformers, GPTQ, llama.cpp (ggml/gguf), Llama models. 模型下載地址:meta-llama/Llama-2-13b-chat-hf at main 遇到的問

    2024年02月08日
    瀏覽(24)
  • LLMs之LLaMA2:基于云端進行一鍵部署對LLaMA2模型實現(xiàn)推理(基于text-generation-webui)執(zhí)行對話聊天問答任務(wù)、同時微調(diào)LLaMA2模型(配置云端環(huán)境【A100】→下載數(shù)

    LLMs之LLaMA-2:基于云端進行一鍵部署對LLaMA2模型實現(xiàn)推理(基于text-generation-webui)執(zhí)行對話聊天問答任務(wù)、同時微調(diào)LLaMA2模型(配置云端環(huán)境【A100】→下載數(shù)據(jù)集【datasets】→加載模型【transformers】→分詞→模型訓練【peft+SFTTrainer+wandb】→基于HuggingFace實現(xiàn)云端分享)之圖文教程詳

    2024年02月11日
    瀏覽(24)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包