国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

GLM-4多模態(tài)重磅更新!摸著OpenAI過河!

這篇具有很好參考價值的文章主要介紹了GLM-4多模態(tài)重磅更新!摸著OpenAI過河!。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點擊"舉報違法"按鈕提交疑問。

智譜CEO張鵬說:OpenAI摸著石頭過河,我們摸著OpenAI過河。
摸來摸去摸了一年,以每3-4個月升級一次基座模型的速度,智譜摸著OpenAI過河的最新成績到底怎么樣?真如所說嗎?

聽到GLM-4發(fā)布的當天,我就去試用了一下GLM-4,畢竟是國內(nèi) 全自研第四代基座大模型GLM-4!

實際體驗

我依次測試了多模態(tài)、ALL Tools、個性化智能定制功能。

多模態(tài)

首先測試其圖片理解能力,上傳了一張貓片:

GLM-4多模態(tài)重磅更新!摸著OpenAI過河!,學習筆記,機器人,人工智能,DALL·E 2,AI作畫

從結果來看,它基本上理解了這個圖片的內(nèi)容。

上傳一張更復雜的圖片試試呢?圖片里有幾個人?幾個男人幾個女人?

GLM-4多模態(tài)重磅更新!摸著OpenAI過河!,學習筆記,機器人,人工智能,DALL·E 2,AI作畫

我也是學CV的,它答不準的原因在于底層圖片識別、圖像分割能力的不足,還需要繼續(xù)努力。

為了測試它到底是不是真的理解圖片里的含義,我上傳了五環(huán)的圖片,它成功的告訴我這個是五環(huán),代表世界五大洲的團結和合作,贊!

GLM-4多模態(tài)重磅更新!摸著OpenAI過河!,學習筆記,機器人,人工智能,DALL·E 2,AI作畫

All Tools

All Tools其實代表的是模型能否理解復雜指令,自由調(diào)用WebGLM搜索增強、Code Interpreter代碼解釋器和多模態(tài)生成能力,完成復雜任務。

我首先提了一個問題來驗證聯(lián)網(wǎng)能力:

GLM-4多模態(tài)重磅更新!摸著OpenAI過河!,學習筆記,機器人,人工智能,DALL·E 2,AI作畫

它通過聯(lián)網(wǎng)搜索的方式給出了答案:

GLM-4多模態(tài)重磅更新!摸著OpenAI過河!,學習筆記,機器人,人工智能,DALL·E 2,AI作畫

總體來說,給出的內(nèi)容還算不錯。

我想進一步看看它的信息整合能力如何,于是讓它進行表格的整理,這次等待的時間比較長,因為聯(lián)網(wǎng)搜索了很久···,甚至還超時失敗了,最終也沒成功。

代碼解釋(CodeInterpreter)能力如何呢?先問了一下運行環(huán)境,但是無法給出準確的內(nèi)存限制等,只給出了一些支持的代碼或者運行庫,值得注意的是,在運行的代碼里本身不能聯(lián)網(wǎng):

GLM-4多模態(tài)重磅更新!摸著OpenAI過河!,學習筆記,機器人,人工智能,DALL·E 2,AI作畫

為了測試基本的代碼能力,我讓它進行python得文件讀取和保存:

GLM-4多模態(tài)重磅更新!摸著OpenAI過河!,學習筆記,機器人,人工智能,DALL·E 2,AI作畫

GLM-4多模態(tài)重磅更新!摸著OpenAI過河!,學習筆記,機器人,人工智能,DALL·E 2,AI作畫

畫圖能力如何呢?嘗試一個主體進行三種風格的爆改:

GLM-4多模態(tài)重磅更新!摸著OpenAI過河!,學習筆記,機器人,人工智能,DALL·E 2,AI作畫

GLM-4多模態(tài)重磅更新!摸著OpenAI過河!,學習筆記,機器人,人工智能,DALL·E 2,AI作畫

GLM-4多模態(tài)重磅更新!摸著OpenAI過河!,學習筆記,機器人,人工智能,DALL·E 2,AI作畫

怎么說呢,雖然在細節(jié)方面還不夠好,比不上Dalle-3、SD或者MJ,但是已經(jīng)基本能夠滿足要求了。可以滿足給小朋友或者簡單場景的繪畫需求。

GLMs個性化智能體定制

這個功能其實瞄準的就是GPTs了,甚至從官方公告上來看,未來GLMs也將開放出開發(fā)者權限,并且進行收益分成(但是現(xiàn)在有個問題,GLM本身是不收費的,怎么盈利分成呢?可能的答案是:進行會員收費;回答里嵌套廣告)

MaaS平臺和API

按照智譜AI官方的說法,GLM-4性能相比GLM-3提升60%,逼近GPT-4(11月6日最新版本效果) 。

據(jù)智譜AI CEO張鵬介紹,GLM-4的整體性能相比上一代大幅提升,逼近GPT-4。 它可以支持更長的上下文,具備更強的多模態(tài)能力。同時,它的推理速度更快,支持更高的并發(fā),大大降低推理成本。

GLM-4多模態(tài)重磅更新!摸著OpenAI過河!,學習筆記,機器人,人工智能,DALL·E 2,AI作畫

此次發(fā)布的 GLM-4,在多個評測集上性能已接近或超過GPT-3.5,個別項目上幾乎持平GPT-4。其中以下四個能力更新,是 GLM-4 最大的亮點:

  • 多模態(tài)能力:推出了CogView3代,效果超過開源SD模型,逼近 DALLE-3。
  • All Tools能力:GLM-4能自主理解復雜指令,自由調(diào)用WebGLM搜索增強、Code Interpreter代碼解釋器和多模態(tài)生成能力,完成復雜任務。
  • GLMs個性化智能體定制:用戶可以通過智譜清言官方網(wǎng)站創(chuàng)建屬于自己的GLM智能體,無需編程基礎。
  • MaaS平臺和API:GLM-4登陸了Maas平臺,提供API訪問,支持開發(fā)者內(nèi)測Assistant API。

數(shù)據(jù)指標

數(shù)據(jù)集表現(xiàn)

MMLU(Massive Multitask Language Understanding):評估大模型的對于知識的理解,目前GLM-4是81.5分,GPT-4得分86.4分,目前能達到GPT4的94% ;

GSM8K(Grade School Math 8K):測試數(shù)學能力,小學數(shù)學和初中數(shù)學水平。GLM-4得分87.6,達到GPT-4的95%;

MATH:數(shù)學測試,涉及到一些較難的邏輯推理,GLM-4得分47.9,達到GPT-4的91% ;

BBH(Big Bench Hackathon):偏綜合測試,比如翻譯、語言理解、邏輯推理等內(nèi)容。GLM-4得分82.3,達到GPT-4的99%水平;

HellaSwag:偏常識測試,GLM-4得分85.4,達到GPT-4的90%水平

HumanEval:純粹的編程任務。評測大模型在算法、代碼、編程層面的效果。GLM-4得分72,達到GPT-4的100%水平。

指令跟隨能力方面,和GPT-4相比,IFEval在Prompt提示詞跟隨(中文)方面達到88%,指令跟隨(中文)方面達到 90%水平,超過GPT-3.5。

對齊能力上,基于AlignBench數(shù)據(jù)集,GLM-4超過了GPT-4的6月13日版本,逼近GPT-4最新(11月6日版本)效果。

大海撈針測試, GLM-4模型能夠在128K文本長度內(nèi)實現(xiàn)幾乎100%的精度召回,并未出現(xiàn)長上下文全局信息因為失焦而導致的精度下降問題。

展望

在 2023 年,智譜 AI 基于 GLM-130B 研發(fā)了 ChatGLM,并經(jīng)過三個版本的迭代,逐漸增加了多模態(tài)理解、代碼解釋、網(wǎng)絡搜索增強等新功能。

去年年初,智譜 AI 承諾要在 2023 年底實現(xiàn)逼近最先進的 GPT-4 性能的全棧自主創(chuàng)新的 GLM-4。作為一年前設定的目標,GLM-4 的性能已經(jīng)有了顯著提升。從標準的大模型評估角度來看,整體上已經(jīng)逼近了 GPT-4。

希望國產(chǎn)大模型能夠更進一步,我很擔心未來在AI領域,又出現(xiàn)被掐脖子的事情~文章來源地址http://www.zghlxwxcb.cn/news/detail-804894.html

到了這里,關于GLM-4多模態(tài)重磅更新!摸著OpenAI過河!的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務,不擁有所有權,不承擔相關法律責任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權/違法違規(guī)/事實不符,請點擊違法舉報進行投訴反饋,一經(jīng)查實,立即刪除!

領支付寶紅包贊助服務器費用

相關文章

  • 重磅!OpenAI正式發(fā)布,自定義ChatGPT商店!

    重磅!OpenAI正式發(fā)布,自定義ChatGPT商店!

    1月11日凌晨,OpenAI在官網(wǎng)正式發(fā)布了,自定義GPT商店,可以幫助用戶找到目前最好用、流行的自定義ChatGPT助手。 在2024年第一季度,OpenAI將啟動GPT 開發(fā)者收入計劃。 首先,美國地區(qū)的開發(fā)者將根據(jù)用戶對其 GPT 的使用情況獲得金錢回報 。未來,OpenAI將提供更詳細的收入計劃

    2024年01月21日
    瀏覽(28)
  • 重磅!OpenAI發(fā)布文生視頻模型Sora——視頻模型的奇點或許來臨?。? decoding=

    重磅!OpenAI發(fā)布文生視頻模型Sora——視頻模型的奇點或許來臨!!

    OpenAI發(fā)布文生視頻模型Sora——視頻模型的奇點或許來臨??! 初七啦,得開始工作了,沒想到第一天就這么勁爆! 今天OpenAI迎來重大更新——發(fā)布視頻模型Sora!! 官網(wǎng)Sora (openai.com) 說實話有點驚艷,在AI圈子里好多頭部內(nèi)容創(chuàng)作者看到都禁不住國粹了! 除了能夠僅根據(jù)文本

    2024年02月20日
    瀏覽(22)
  • Claude3 AI系列重磅推出:引領多模態(tài)智能時代的前沿技術,超越GPT-4

    Claude3 AI系列重磅推出:引領多模態(tài)智能時代的前沿技術,超越GPT-4

    劃重點: ?? Claude3系列發(fā)布,包括Haiku、Sonnet和Opus版本,Opus在多個領域超越GPT-4。 ?? 用戶可免費使用Claude3Sonnet模型,支持中文,API已覆蓋159個國家/地區(qū)。 ?? 新增多模態(tài)圖像識別提問功能,Claude3在數(shù)學與推理、可視化問答等方面超越GPT-4V。 (PS: wildcard已經(jīng)可以訂閱Clau

    2024年03月09日
    瀏覽(47)
  • 機器學習筆記 - 什么是多模態(tài)深度學習?

    ????????人類使用五種感官來體驗和解釋周圍的世界。我們的五種感官從五種不同的來源和五種不同的方式捕獲信息。模態(tài)是指某事發(fā)生、經(jīng)歷或捕捉的方式。 ????????人工智能正在尋求模仿人類大腦,終究是跳不出這具軀殼的限制。 ????????人腦由可以同時處理

    2024年02月09日
    瀏覽(25)
  • 重磅!openAI開放chatGPT模型APIgpt-3.5-turbo,成本直降90%!

    重磅!openAI開放chatGPT模型APIgpt-3.5-turbo,成本直降90%!

    ChatGPT API,千呼萬喚終于來了。 chatGPT不僅開放 成本還直降90%! 全新API基于“gpt-3.5-turbo”模型,其基礎是支持ChatGPT的GPT 3.5模型,取代了此前的“text-davinci-003.”。這款名為“gpt-3.5-turbo”的模型,定價為 0.002美元/每1000 tokens 。這“比我們現(xiàn)有的GPT-3.5模型便宜 10 倍”,部分原

    2023年04月09日
    瀏覽(17)
  • 重磅!OpenAI突然發(fā)布企業(yè)版ChatGPT:沒有限制、更快、更強、更安全的GPT-4

    重磅!OpenAI突然發(fā)布企業(yè)版ChatGPT:沒有限制、更快、更強、更安全的GPT-4

    這是由【 小瑤智能體】 AI創(chuàng)作的第 4?篇科技文章 ????大模型研究測試傳送門 GPT-4傳送門(免墻,可直接測試,遇瀏覽器警告點高級/繼續(xù)訪問即可): Hello, GPT4! 大家好,我是小瑤智能體,一個喜歡分享人工智能前沿技術的AI。今天看到一篇OpenAI的前沿資訊,想分享給人類朋

    2024年02月11日
    瀏覽(88)
  • OpenAI重磅官宣ChatGPT安卓版本周發(fā)布,現(xiàn)已開啟下載預約,附詳細預約教程

    OpenAI重磅官宣ChatGPT安卓版本周發(fā)布,現(xiàn)已開啟下載預約,附詳細預約教程

    7月22號,OpenAI 突然宣布,安卓版 ChatGPT 將在下周發(fā)布!換句話說, 本周安卓版 ChatGPT正式上線! 最早,ChatGPT僅有網(wǎng)頁版。 今年5月,iOS版ChatGPT正式發(fā)布,當時OpenAI表示Android版將很快發(fā)布。 等了兩個月后,安卓版已近在咫尺。 ChatGPT自從去年發(fā)布以來,便在人工智能領域掀起

    2024年02月15日
    瀏覽(23)
  • FIDE重磅更新!性能飛躍!體驗有禮!

    FIDE 開發(fā)者工具重構升級啦!實現(xiàn)500%性能提升,誠邀體驗! 一直以來不少開發(fā)者朋友在社區(qū)反饋,在使用 FIDE 工具的過程中,時常會遇到諸如加載不及時、代碼預覽/渲染性能不如意的情況,十分影響開發(fā)體驗。 作為技術團隊,我們深知一件趁手的開發(fā)工具對開發(fā)者的重要性

    2023年04月18日
    瀏覽(15)
  • 【W(wǎng)hisper】《OpenAI Whisper 精讀【論文精讀】》學習筆記

    【W(wǎng)hisper】《OpenAI Whisper 精讀【論文精讀】》學習筆記

    Whisper在論文中表示使用單模型(single model)來完成多個語音任務(multitask),李沐教授認為 優(yōu)點是設計上比較干凈 ; 但是他同時也提出了兩個疑問: 使用單模型會不會跑得不夠快(因為保證多任務的性能需要大參數(shù)的模型) 假設同時能做五個任務,假設有一個任務做得比

    2024年02月16日
    瀏覽(32)
  • 重磅通知!OpenAI又放大招:官宣開放API接口-3.5版本 需求大漲,機遇與挑戰(zhàn)并存,誰能拔得頭籌?

    重磅通知!OpenAI又放大招:官宣開放API接口-3.5版本 需求大漲,機遇與挑戰(zhàn)并存,誰能拔得頭籌?

    3月2日,在各大論壇網(wǎng)站霸榜了一個多月,ChatGPT相關話題的熱度仍高居不下。這邊熱度未歇,那邊研發(fā)ChatGPT的人工智能公司又在互聯(lián)網(wǎng)上投下一顆重磅“炸彈”:OpenAI在其官方博客宣布, 將開放ChatGPT和Whisper的模型API 。 OPenAI做出了開源的決定,那么也就意味著其他需要通過

    2023年04月25日
    瀏覽(12)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領取紅包,優(yōu)惠每天領

二維碼1

領取紅包

二維碼2

領紅包