網(wǎng)址:HuggingChat
當(dāng)前使用模型:OpenAssistant/oasst-sft-6-llama-30b-xor · Hugging Face
當(dāng)前數(shù)據(jù):OpenAssistant/oasst1 · Datasets at Hugging Face
現(xiàn)在你如果進(jìn)入Huggingface的網(wǎng)站,你會發(fā)現(xiàn)HuggingFace偷偷的上了Chat功能:
點(diǎn)擊starting chatting之后的界面是這樣的:
和其他的Chat的界面很類似??梢钥吹浆F(xiàn)在使用的模型是300 億參數(shù)的開源模型 OpenAssistant/oasst-sft-6-llama-30b,看模型介紹:
OpenAssistant LLaMa 30B SFT 6
Due to the license attached to LLaMA models by Meta AI it is not possible to directly distribute LLaMA-based models. Instead we provide XOR weights for the OA models.
Thanks to Mick for writing the?xor_codec.py
?script which enables this process
感覺應(yīng)該是在LLama基礎(chǔ)上進(jìn)行了一些修改,使得他們可以繞過Meta的Lincense限制。
試用了一下:
整體感覺英文的效果還不錯(cuò),中文就有點(diǎn)差強(qiáng)人意了。不過畢竟是開源的,還是很看好它的未來的。文章來源:http://www.zghlxwxcb.cn/news/detail-483605.html
編輯于 2023-04-28 16:12?IP 屬地黑龍江文章來源地址http://www.zghlxwxcb.cn/news/detail-483605.html
到了這里,關(guān)于HuggingChat來了-各種Chat這么火Huggingface終于也忍不住了的文章就介紹完了。如果您還想了解更多內(nèi)容,請?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!