国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

【必看!】阿里云推出QWen-7B和QWen-7b-Chat,開放免費商用!

這篇具有很好參考價值的文章主要介紹了【必看!】阿里云推出QWen-7B和QWen-7b-Chat,開放免費商用!。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點擊"舉報違法"按鈕提交疑問。

阿里云于8月3日宣布開源兩款重要的大型模型——QWen-7B和QWen-7b-Chat。這兩款模型的參數(shù)規(guī)模達到了令人矚目的70億,并且已經(jīng)在Hugging Face和ModelScope平臺上開放,并可免費商用。以下是相關(guān)鏈接:

GitHub項目主頁:https://github.com/QwenLM/Qwen-7B
Hugging Face:https://huggingface.co/Qwen/Qwen-7B-Chat
ModelScope:https://modelscope.cn/studios/qwen/Qwen-7B-Chat-Demo/summary/

事實上,阿里云在今年4月份推出了通用問答聊天機器人,算得上是較早的開發(fā)者。然而,在早期階段,該項目采用了內(nèi)部測試制度,因此對外開放的用戶數(shù)量并不多。

時至今日,已過去了將近4個月的時間,國內(nèi)的大型模型發(fā)展已經(jīng)形成了一場激烈的競爭戰(zhàn)。而此時,阿里云選擇在開源領(lǐng)域繼續(xù)前進,對于用戶來說,無疑是喜聞樂見的消息。

阿里云之所以選擇開源這兩款模型,是因為開源模型能夠贏得用戶的支持。開源的優(yōu)勢在于能夠吸引更多的開發(fā)者參與其中,共同改進模型的性能和功能。

同時,開源模型也能夠避免封閉式的開發(fā),引起他人的關(guān)注和審查。這對于保護用戶的隱私和數(shù)據(jù)安全非常重要。如果模型不開源,可能會引發(fā)人們對于模型中是否存在安全漏洞或潛在風(fēng)險的擔(dān)憂。

當然,現(xiàn)在大型模型的熱度可能有所下降,但阿里云選擇開源模型仍然是為了保持競爭力。開源模型不僅可以吸引更多的用戶,還可以通過眾包的方式快速獲得反饋和改進。

快速入門文檔

在本地使用需要先安裝環(huán)境,您也可以直接獲取官方鏡像安裝在本地。

下載并安裝ModelScope library

更多關(guān)于下載安裝ModelScope library的問題參考環(huán)境安裝。

pip install modelscope

模型加載和推理

更多關(guān)于模型加載和推理的問題參考模型的推理Pipeline。

import os
from modelscope.pipelines import pipeline
from modelscope.utils.constant import Tasks

model_id = 'qwen/Qwen-7B-Chat'

pipe = pipeline(
            task=Tasks.chat, model=model_id, device_map='auto')
history = None

text = '浙江的省會在哪里?'
results = pipe(text, history=history)
response, history = results['response'], results['history']
print(f'Response: {response}')
text = '它有什么好玩的地方呢?'
results = pipe(text, history=history)
response, history = results['response'], results['history']
print(f'Response: {response}')
"""
Response: 浙江的省會是杭州。
Response: 杭州是一座歷史悠久、文化底蘊深厚的城市,擁有許多著名景點,如西湖、西溪濕地、靈隱寺、千島湖等,其中西湖是杭州最著名的景點,被譽為“天下第一湖”。此外,杭州還有許多古跡、文化街區(qū)、美食和藝術(shù)空間等,值得一去。
"""

【必看!】阿里云推出QWen-7B和QWen-7b-Chat,開放免費商用!

使用

當然,你也可以直接在modelscope平臺使用Qwen-7B-Chat模型,地址鏈接:https://modelscope.cn/studios/qwen/Qwen-7B-Chat-Demo/summary

【必看!】阿里云推出QWen-7B和QWen-7b-Chat,開放免費商用!

拿來比較發(fā)現(xiàn),確實還是遜色很多,畢竟還是剛開源階段,但我相信總有一天國內(nèi)的大模型可以媲美;

【必看!】阿里云推出QWen-7B和QWen-7b-Chat,開放免費商用!

結(jié)語

最后,我想分享一下對于QWen-7B/QWen-7b-Chat的個人看法。近期,大型模型的熱度逐漸消退,這也是有原因的。我認為,這主要有兩個方面的原因。

首先,用戶的新鮮感逐漸減弱。起初,很多用戶因為好奇心而去嘗試各種新產(chǎn)品,但隨著可供選擇的產(chǎn)品越來越多,并且經(jīng)過長期的使用和體驗,大型模型逐漸失去了其"神秘感"。然而,盡管新鮮感逐漸消退,仍然有一部分用戶真正希望通過人工智能提升生產(chǎn)力,這部分用戶占比并不大。

其次,市場投資者對于AI大型模型的熱情也逐漸降溫。一方面,這受到用戶數(shù)量增長趨于平緩的影響,另一方面,目前的大型模型還沒有找到良好的發(fā)展路徑和盈利模式。

然而,對于互聯(lián)網(wǎng)公司來說,面對人工智能和AI的不可阻擋的發(fā)展趨勢,大型模型的研發(fā)是一條不能放棄的道路。你可以做得不好,但不能沒有所作為。在這種情況下,像阿里云這樣選擇采用開源模型來維持在領(lǐng)域中競爭地位的公司,無疑是一個不錯的選擇。

這一點可以參考OpenAI,他們在逐步走向商業(yè)化之后,選擇了不開源,甚至在GPT-4模型發(fā)布后,其模型結(jié)構(gòu)、參數(shù)和訓(xùn)練細節(jié)等都不再對外公開,以至于很多人戲稱OpenAI應(yīng)該改名為CloseAI。然而,越是不開源,越是吸引他人的關(guān)注,最終可能導(dǎo)致自身形象受損。最近發(fā)生的GPT-4模型信息泄露事件就是很好的例子,有人在網(wǎng)上泄露了一份詳細解析GPT-4技術(shù)細節(jié)的文檔,盡管OpenAI并未做出任何回應(yīng),但很多人都認為這份文件應(yīng)該是真實的。

綜上所述,開源模型能夠贏得用戶的支持,并且能夠避免引起他人的關(guān)注和潛在風(fēng)險。阿里云選擇開源QWen-7B和QWen-7b-Chat模型,既能保護用戶的隱私和數(shù)據(jù)安全,又能提高模型的性能和功能。我期待著看到這兩款模型在未來的發(fā)展中取得更大的成功。文章來源地址http://www.zghlxwxcb.cn/news/detail-630226.html

到了這里,關(guān)于【必看!】阿里云推出QWen-7B和QWen-7b-Chat,開放免費商用!的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實不符,請點擊違法舉報進行投訴反饋,一經(jīng)查實,立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費用

相關(guān)文章

  • 【ollama】(3):在linux搭建環(huán)境中,安裝golang開發(fā)的ollama工具,并且完成啟動下載gemma:7b和qwen:1.8b運行速度飛快,支持http接口和命令行模式

    【ollama】(3):在linux搭建環(huán)境中,安裝golang開發(fā)的ollama工具,并且完成啟動下載gemma:7b和qwen:1.8b運行速度飛快,支持http接口和命令行模式

    https://www.bilibili.com/video/BV19F4m1F7Rn/ 【ollama】(3):在linux搭建環(huán)境中,安裝ollama工具,并且完成啟動下載gemma:7b和qwen:1.8b運行速度飛快,支持http接口和命令行 https://ollama.com/ 項目使用golang+llama.cpp 項目進行開發(fā)的。 簡化了模型的安裝,非常的方便。 然后因為是docker 虛擬環(huán)境

    2024年04月13日
    瀏覽(27)
  • 開源語音大語言模型來了!阿里基于Qwen-Chat提出Qwen-Audio!

    開源語音大語言模型來了!阿里基于Qwen-Chat提出Qwen-Audio!

    論文鏈接: https://arxiv.org/pdf/2311.07919.pdf 開源代碼: https://github.com/QwenLM/Qwen-Audio 大型語言模型(LLMs)由于其良好的知識保留能力、復(fù)雜的推理和解決問題能力,在通用人工智能(AGI)領(lǐng)域取得了重大進展。然而,語言模型缺乏像人類一樣感知非文本模態(tài)(如圖像和音頻)的

    2024年01月18日
    瀏覽(87)
  • Mixtral 8X7B MoE模型基于阿里云人工智能平臺PAI實踐合集

    Mixtral 8X7B MoE模型基于阿里云人工智能平臺PAI實踐合集

    作者:熊兮、賀弘、臨在 Mixtral 8x7B大模型是Mixtral AI推出的基于decoder-only架構(gòu)的稀疏專家混合網(wǎng)絡(luò)(Mixture-Of-Experts,MOE)開源大語言模型。這一模型具有46.7B的總參數(shù)量,對于每個token,路由器網(wǎng)絡(luò)選擇八組專家網(wǎng)絡(luò)中的兩組進行處理,并且將其輸出累加組合,在增加模型參數(shù)

    2024年01月17日
    瀏覽(46)
  • LLM實踐-在Colab上使用免費T4 GPU進行Chinese-Llama-2-7b-4bit推理

    一、配置環(huán)境 1、打開colab,創(chuàng)建一個空白notebook,在[修改運行時環(huán)境]中選擇15GB顯存的T4 GPU. 2、pip安裝依賴python包 注意此時,安裝完accelerate后需要重啟notebook,不然報如下錯誤: ImportError: Using low_cpu_mem_usage=True or a device_map requires Accelerate: pip install accelerate 注:參考文章內(nèi)容

    2024年02月04日
    瀏覽(28)
  • GitHub Copilot Chat將于12月全面推出;DeepLearning.AI免費新課

    GitHub Copilot Chat將于12月全面推出;DeepLearning.AI免費新課

    ?? AI新聞 ?? GitHub Copilot Chat將于12月全面推出,提升開發(fā)者的生產(chǎn)力 摘要 :GitHub宣布將于12月全面推出GitHub Copilot Chat,這是GitHub Copilot的一個新功能,旨在幫助開發(fā)者編寫代碼。它能夠集成到開發(fā)者的桌面IDE環(huán)境中,并能夠根據(jù)上下文聯(lián)想出后文,不僅限于代碼缺省補充和

    2024年02月04日
    瀏覽(25)
  • 試運行l(wèi)lama-7B、vicuna-7b-delta-v1.1和vicuna-7b-v1.3

    試運行l(wèi)lama-7B、vicuna-7b-delta-v1.1和vicuna-7b-v1.3

    Chatgpt的出現(xiàn)給NLP領(lǐng)域帶來了讓人振奮的消息,可以很逼真的模擬人的對話,回答人們提出的問題,不過Chatgpt參數(shù)量,規(guī)模,訓(xùn)練代價都很昂貴。 幸運的是,出現(xiàn)了開源的一些相對小的模型,可以在本地或者云端部署體驗, 動手體驗了下Vicuna-7b,翻譯過來是小羊駝」(駱馬)

    2024年02月13日
    瀏覽(21)
  • Llama-7b-hf和vicuna-7b-delta-v0合并成vicuna-7b-v0

    Llama-7b-hf和vicuna-7b-delta-v0合并成vicuna-7b-v0

    最近使用pandagpt需要vicuna-7b-v0,重新過了一遍,前段時間部署了vicuna-7b-v3,還是有不少差別的,transforms和fastchat版本更新導(dǎo)致許多地方不匹配,出現(xiàn)很多錯誤,記錄一下。 更多相關(guān)內(nèi)容可見Fastchat實戰(zhàn)部署vicuna-7b-v1.3(小羊駝)_Spielberg_1的博客-CSDN博客 一、配置環(huán)境 切換到f

    2024年02月09日
    瀏覽(30)
  • MPT-7B:開源,商業(yè)可用,性能堪比LLaMA-7B的LLM新成員

    MPT-7B:開源,商業(yè)可用,性能堪比LLaMA-7B的LLM新成員

    Meta開源了LLama,不過有很多限制,很難商業(yè)運用。于是現(xiàn)在MosaicML開發(fā)了MPT-7B模型,它是一個基于Transformer在1T文本/代碼Token上訓(xùn)練出來的模型。該模型 開源,與LLaMA-7B模型效果相匹配,而且可用于商業(yè)用途 。 代碼:https://github.com/mosaicml/llm-foundry/ 模型:mosaicml/mpt-7b-instruct ·

    2024年02月11日
    瀏覽(22)
  • LLaMA-7B微調(diào)記錄

    LLaMA-7B微調(diào)記錄

    Alpaca(https://github.com/tatsu-lab/stanford_alpaca)在70億參數(shù)的LLaMA-7B上進行微調(diào),通過52k指令數(shù)據(jù)(https://github.com/tatsu-lab/stanford_alpaca/blob/main/alpaca_data.json),在8個80GB A100上訓(xùn)練3小時,在對話上的性能比肩GPT-3.5。 52k數(shù)據(jù)所對應(yīng)的alpaca_data.json是一個字典列表,每個字典包含以下字段

    2024年02月12日
    瀏覽(22)
  • 【AIGC】baichuan-7B大模型

    【AIGC】baichuan-7B大模型

    百川智能|開源可商用的大規(guī)模預(yù)訓(xùn)練語言模型baichuan-7B大模型 概述 baichuan-7B 是由百川智能開發(fā)的一個開源可商用的大規(guī)模預(yù)訓(xùn)練語言模型?;?Transformer 結(jié)構(gòu),在大約1.2萬億 tokens 上訓(xùn)練的70億參數(shù)模型,支持中英雙語,上下文窗口長度為4096。在標準的中文和英文權(quán)威 b

    2024年02月09日
    瀏覽(21)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包