ChatGPT 平替天花板:HuggingFace 版 ChatGPT 來了,無需魔法無需等待直接起飛 ~
二話不說上鏈接
https://huggingface.co/chat/
請直接問中文問題,要是返回英文直接上瀏覽器翻譯同步?jīng)]毛病。
如果體驗過了,且聽我分(jiao)說(bian)一下,HuggingFace 版 ChatGPT 如何能當(dāng)?shù)闷?/strong> ChatGPT 平替天花板 。
我們先來看看背后的公司HuggingFace 是干啥的?
HuggingFace 簡介
HuggingFace 是一個非常知名的開源AI社區(qū)和平臺。它為NLP和transformer模型提供了豐富的模型和數(shù)據(jù)集。一些主要特點如下:
- Transformers模型:HuggingFace 提供了transformer模型的統(tǒng)一接入接口,允許直接拿來使用bert/roberta/gpt-2等知名預(yù)訓(xùn)練模型。這些模型可用于文本分類、文本生成、QA等任務(wù)。
- Tokenizers: 為各種transformer模型提供對應(yīng)的token化工具,包括bert tokenizer、GPT-2 tokenizer等。
- datasets:提供了許多NLP數(shù)據(jù)集,如SQuAD、XNLI、Restaurants等。并具有統(tǒng)一下載/加載的接口。
- 模型Hub: 集中了大量預(yù)訓(xùn)練模型,其中包括從bert到GPT-3等最新的transformer模型。用戶可以一鍵直接下載這些模型進行遷移學(xué)習(xí)。
- Transformers庫:提供transformer模型的統(tǒng)一實現(xiàn)和接口,其中包含BertModel、GPT2LMHeadModel、RobertaForSequenceClassification等模型。
- 其它工具:還包括評價指標(biāo)、數(shù)據(jù)增強工具、配置工具等,可以覆蓋NLP項目 From soup to nuts的全過程。
總之,HuggingFace 為NLP和AI提供了一個非常完備的生態(tài),其目標(biāo)是降低科研和實用項目的門檻,讓更多人可以便捷使用高性能的NLP模型和框架。它已成為目前NLP領(lǐng)域最知名和最活躍的開源社區(qū)之一。
HuggingFace 是大模型的圣地,如同 Github 之于 程序員,同時還對標(biāo) Colob 和 AI Studio 自帶無窮算力跑模型。
HuggingChat 登場
再看一下界面:是不是熟悉的感覺?和ChatGPT長得很像么 ~
深究一下,ChatGPT是基于GPT3.5/4模型的,
而HuggingChat 以 OpenAssistant作為其首個展示和集成的開源聊天模型。
OpenAssistant是當(dāng)今最優(yōu)秀的開源聊天模型之一,HuggingChat通過集成它,可以讓用戶體驗到強大的聊天功能。
列表說明:
展示層 | 核心技術(shù) |
---|---|
ChatGPT | GPT3.5/4 |
HuggingChat | OpenAssistant |
但HuggingChat的 野望不會止步于此。它的目標(biāo)是吸引更多的開源聊天模型加入其平臺,形成一個既開源又豐富的聊天模型生態(tài)。在這個生態(tài)內(nèi),研究者和開發(fā)者可以選擇基于不同模型開發(fā)自己的解決方案;而最終用戶也可以根據(jù)需求選擇和使用不同的開源聊天模型。
好期待
展望
英偉達 AI 科學(xué)家 Jim Fan 稱贊道:「HuggingChat 是 ChatGPT 的開源替代品」,并表示「如果后續(xù)開發(fā)成應(yīng)用程序,Hugging Face 比 OpenAI 更具優(yōu)勢」。文章來源:http://www.zghlxwxcb.cn/news/detail-428260.html
我的理解是,
由于 OpenAI 其實 不 Open,Open 現(xiàn)在 反倒成了 Hugging Face 的主要優(yōu)勢 ,
如果說 ChatGPT 是 IPhone 時刻,那 HuggingChat 當(dāng)?shù)闷?Android 時刻的 稱號。文章來源地址http://www.zghlxwxcb.cn/news/detail-428260.html
到了這里,關(guān)于ChatGPT 平替天花板:HuggingFace 版 ChatGPT 來了,無需魔法無需等待直接起飛 ~的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!