阿里云于8月3日宣布開源兩款重要的大型模型——QWen-7B和QWen-7b-Chat。這兩款模型的參數(shù)規(guī)模達到了令人矚目的70億,并且已經(jīng)在Hugging Face和ModelScope平臺上開放,并可免費商用。以下是相關(guān)鏈接:
GitHub項目主頁:https://github.com/QwenLM/Qwen-7B
Hugging Face:https://huggingface.co/Qwen/Qwen-7B-Chat
ModelScope:https://modelscope.cn/studios/qwen/Qwen-7B-Chat-Demo/summary/
事實上,阿里云在今年4月份推出了通用問答聊天機器人,算得上是較早的開發(fā)者。然而,在早期階段,該項目采用了內(nèi)部測試制度,因此對外開放的用戶數(shù)量并不多。
時至今日,已過去了將近4個月的時間,國內(nèi)的大型模型發(fā)展已經(jīng)形成了一場激烈的競爭戰(zhàn)。而此時,阿里云選擇在開源領(lǐng)域繼續(xù)前進,對于用戶來說,無疑是喜聞樂見的消息。
阿里云之所以選擇開源這兩款模型,是因為開源模型能夠贏得用戶的支持。開源的優(yōu)勢在于能夠吸引更多的開發(fā)者參與其中,共同改進模型的性能和功能。
同時,開源模型也能夠避免封閉式的開發(fā),引起他人的關(guān)注和審查。這對于保護用戶的隱私和數(shù)據(jù)安全非常重要。如果模型不開源,可能會引發(fā)人們對于模型中是否存在安全漏洞或潛在風(fēng)險的擔(dān)憂。
當然,現(xiàn)在大型模型的熱度可能有所下降,但阿里云選擇開源模型仍然是為了保持競爭力。開源模型不僅可以吸引更多的用戶,還可以通過眾包的方式快速獲得反饋和改進。
快速入門文檔
在本地使用需要先安裝環(huán)境,您也可以直接獲取官方鏡像安裝在本地。
下載并安裝ModelScope library
更多關(guān)于下載安裝ModelScope library的問題參考環(huán)境安裝。
pip install modelscope
模型加載和推理
更多關(guān)于模型加載和推理的問題參考模型的推理Pipeline。
import os
from modelscope.pipelines import pipeline
from modelscope.utils.constant import Tasks
model_id = 'qwen/Qwen-7B-Chat'
pipe = pipeline(
task=Tasks.chat, model=model_id, device_map='auto')
history = None
text = '浙江的省會在哪里?'
results = pipe(text, history=history)
response, history = results['response'], results['history']
print(f'Response: {response}')
text = '它有什么好玩的地方呢?'
results = pipe(text, history=history)
response, history = results['response'], results['history']
print(f'Response: {response}')
"""
Response: 浙江的省會是杭州。
Response: 杭州是一座歷史悠久、文化底蘊深厚的城市,擁有許多著名景點,如西湖、西溪濕地、靈隱寺、千島湖等,其中西湖是杭州最著名的景點,被譽為“天下第一湖”。此外,杭州還有許多古跡、文化街區(qū)、美食和藝術(shù)空間等,值得一去。
"""
使用
當然,你也可以直接在modelscope平臺使用Qwen-7B-Chat模型,地址鏈接:https://modelscope.cn/studios/qwen/Qwen-7B-Chat-Demo/summary
拿來比較發(fā)現(xiàn),確實還是遜色很多,畢竟還是剛開源階段,但我相信總有一天國內(nèi)的大模型可以媲美;
結(jié)語
最后,我想分享一下對于QWen-7B/QWen-7b-Chat的個人看法。近期,大型模型的熱度逐漸消退,這也是有原因的。我認為,這主要有兩個方面的原因。
首先,用戶的新鮮感逐漸減弱。起初,很多用戶因為好奇心而去嘗試各種新產(chǎn)品,但隨著可供選擇的產(chǎn)品越來越多,并且經(jīng)過長期的使用和體驗,大型模型逐漸失去了其"神秘感"。然而,盡管新鮮感逐漸消退,仍然有一部分用戶真正希望通過人工智能提升生產(chǎn)力,這部分用戶占比并不大。
其次,市場投資者對于AI大型模型的熱情也逐漸降溫。一方面,這受到用戶數(shù)量增長趨于平緩的影響,另一方面,目前的大型模型還沒有找到良好的發(fā)展路徑和盈利模式。
然而,對于互聯(lián)網(wǎng)公司來說,面對人工智能和AI的不可阻擋的發(fā)展趨勢,大型模型的研發(fā)是一條不能放棄的道路。你可以做得不好,但不能沒有所作為。在這種情況下,像阿里云這樣選擇采用開源模型來維持在領(lǐng)域中競爭地位的公司,無疑是一個不錯的選擇。
這一點可以參考OpenAI,他們在逐步走向商業(yè)化之后,選擇了不開源,甚至在GPT-4模型發(fā)布后,其模型結(jié)構(gòu)、參數(shù)和訓(xùn)練細節(jié)等都不再對外公開,以至于很多人戲稱OpenAI應(yīng)該改名為CloseAI。然而,越是不開源,越是吸引他人的關(guān)注,最終可能導(dǎo)致自身形象受損。最近發(fā)生的GPT-4模型信息泄露事件就是很好的例子,有人在網(wǎng)上泄露了一份詳細解析GPT-4技術(shù)細節(jié)的文檔,盡管OpenAI并未做出任何回應(yīng),但很多人都認為這份文件應(yīng)該是真實的。文章來源:http://www.zghlxwxcb.cn/news/detail-630226.html
綜上所述,開源模型能夠贏得用戶的支持,并且能夠避免引起他人的關(guān)注和潛在風(fēng)險。阿里云選擇開源QWen-7B和QWen-7b-Chat模型,既能保護用戶的隱私和數(shù)據(jù)安全,又能提高模型的性能和功能。我期待著看到這兩款模型在未來的發(fā)展中取得更大的成功。文章來源地址http://www.zghlxwxcb.cn/news/detail-630226.html
到了這里,關(guān)于【必看!】阿里云推出QWen-7B和QWen-7b-Chat,開放免費商用!的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!