好久沒寫代碼了,上頭了,強擼了!
1、自己買個GPU服務器(如果不訓練,可以隨便買個高內存的即可),有些網站很便宜,小時起租!
2、alpaca和模型下載地址:GitHub - antimatter15/alpaca.cpp: Locally run an Instruction-Tuned Chat-Style LLM
git clone GitHub - antimatter15/alpaca.cpp: Locally run an Instruction-Tuned Chat-Style LLM
cd alpaca.cpp
3、模型下載:ggml-alpaca-7b-q4.bin 、ggml-alpaca-13b-q4.bin ,不知道哪里下載的我可以放出網盤地址
4、編譯:make chat
5、運行起來:./chat -m ggml-alpaca-13b-q4.bin ,記得放到同一個目錄哦
7b效果如下:
雖然我的服務器配置相當可以了,但是速度還是不快哦!畢竟是斯坦福大學訓練的模型,對中文的確支持的不好
13b效果如下:
后續(xù):
1、中文的大語言模型已經有人訓練出來了
2、中文的alpaca模型也訓練出來了文章來源:http://www.zghlxwxcb.cn/news/detail-444036.html
3、上面兩個模型搞定跑起來之后,是否能訓練自己的模型呢?你猜文章來源地址http://www.zghlxwxcb.cn/news/detail-444036.html
到了這里,關于斯坦福用幾百塊錢訓練的alpaca,體驗一下基于llama的7b和13b模型,據說比gpt3.0還牛,結果怎樣??你能信?的文章就介紹完了。如果您還想了解更多內容,請在右上角搜索TOY模板網以前的文章或繼續(xù)瀏覽下面的相關文章,希望大家以后多多支持TOY模板網!