国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

人工智能大時代——AIGC綜述

這篇具有很好參考價值的文章主要介紹了人工智能大時代——AIGC綜述。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點擊"舉報違法"按鈕提交疑問。

生成式AI分類

模型按照輸入輸出的數(shù)據(jù)類型分類,目前主要包括9類。

人工智能大時代——AIGC綜述

有趣的是,在這些已發(fā)布大模型的背后,只有六個組織(OpenAI, Google, DeepMind, Meta, runway, Nvidia)參與部署了這些最先進的模型。

人工智能大時代——AIGC綜述

其主要原因是,為了能夠估計這些模型的參數(shù),必須擁有極其龐大的計算能力,以及在數(shù)據(jù)科學和數(shù)據(jù)工程方面高度熟練且經(jīng)驗豐富的團隊。

因此,也只有這些公司,在收購的初創(chuàng)公司和與學術(shù)界合作的幫助下,能夠成功部署生成式人工智能模型。

在大公司參與初創(chuàng)企業(yè)方面,可以看到微軟向OpenAI投資了10億美元,并幫助他們開發(fā)模型;同樣,谷歌在2014年收購Deepmind。

在大學方面,VisualGPT是由阿卜杜拉國王科技大學(KAUST)、卡內(nèi)基梅隆大學和南洋理工大學開發(fā)的,Human Motion Diffusion模型是由以色列特拉維夫大學開發(fā)的。

同樣,其他項目也是由一家公司與一所大學合作開發(fā)的,比如Stable Diffusion由Runway、Stability AI和慕尼黑大學合作開發(fā);Soundify由Runway和卡內(nèi)基梅隆大學合作開發(fā);DreamFusion由谷歌和加州大學伯克利分校合作。

Text-to-image模型

DALL-E 2

由OpenAI開發(fā)的DALL-E 2能夠從由文本描述組成的提示中生成原始、真實、逼真的圖像和藝術(shù),而且OpenAI已經(jīng)對外提供了API來訪問該模型。

DALL-E 2特別之處在于它能夠?qū)⒏拍睢傩院筒煌L格結(jié)合起來,其能力源于語言-圖像預(yù)訓練模型CLIP神經(jīng)網(wǎng)絡(luò),從而可以用自然語言來指示最相關(guān)的文本片段。

人工智能大時代——AIGC綜述

具體來說,CLIP embedding有幾個理想的屬性:能夠?qū)D像分布進行穩(wěn)定的轉(zhuǎn)換;具有強大的zero-shot能力;并且在微調(diào)后實現(xiàn)了最先進的結(jié)果。

為了獲得一個完整的圖像生成模型,CLIP圖像embedding解碼器模塊與一個先驗?zāi)P拖嘟Y(jié)合,從一個給定的文本標題中生成相關(guān)CLIP圖像embedding

人工智能大時代——AIGC綜述

其他的模型還包括Imagen,Stable Diffusion,Muse

Text-to-3D模型

對于某些行業(yè),僅能生成2D圖像還無法完成自動化,比如游戲領(lǐng)域就需要生成3D模型。

Dreamfusion

DreamFusion由Google Research開發(fā),使用預(yù)先訓練好的2D文本到圖像的擴散模型來進行文本到3D的合成。

Dreamfusion使用一個從二維擴散模型的蒸餾中得到的損失取代了CLIP技術(shù),即擴散模型可以作為一個通用的連續(xù)優(yōu)化問題中的損失來生成樣本。

人工智能大時代——AIGC綜述

其他模型如Magic3D由英偉達公司開發(fā)。

Image-to-Text模型

獲得一個描述圖像的文本也是很有用的,相當于圖像生成的逆版本。

Flamingo

該模型由Deepmind開發(fā),在開放式的視覺語言任務(wù)上,只需通過一些輸入/輸出例子的提示,即可進行few-shot學習。

人工智能大時代——AIGC綜述

具體來說,F(xiàn)lamingo的輸入包含視覺條件下的自回歸文本生成模型,能夠接收與圖像或視頻交錯的文本token序列,并生成文本作為輸出。

用戶可以向模型輸入query,并附上一張照片或一段視頻,模型就會用文本答案來回答。

人工智能大時代——AIGC綜述

Flamingo模型利用了兩個互補的模型:一個是分析視覺場景的視覺模型,一個是執(zhí)行基本推理形式的大型語言模型。

VisualGPT

VisualGPT是一個由OpenAI開發(fā)的圖像描述模型,能夠利用預(yù)訓練語言模型GPT-2中的知識。

為了彌合不同模態(tài)之間的語義差距,研究人員設(shè)計了一個全新的編碼器-解碼器注意力機制,具有整流門控功能。

人工智能大時代——AIGC綜述

VisualGPT最大的優(yōu)點是它不需要像其他圖像到文本模型那樣多的數(shù)據(jù),能夠提高圖像描述模型的數(shù)據(jù)效率,能夠在小眾領(lǐng)域得到應(yīng)用或?qū)ι僖姷奈矬w的進行描述。

Text-to-Video模型

Phenaki

該模型由Google Research開發(fā)制作,可以在給定一連串文字提示的情況下,進行真實的視頻合成。

Phenaki是第一個能夠從開放域時間變量提示中生成視頻的模型。

為了解決數(shù)據(jù)問題,研究人員在一個大型的圖像-文本對數(shù)據(jù)集以及數(shù)量較少的視頻-文本例子上進行聯(lián)合訓練,最終獲得了超越視頻數(shù)據(jù)集中的泛化能力。

主要是圖像-文本數(shù)據(jù)集往往有數(shù)十億的輸入數(shù)據(jù),而文本-視頻數(shù)據(jù)集則小得多,并且對不同長度的視頻進行計算也是一個難題。

Phenaki模型包含三個部分:C-ViViT編碼器、訓練Transformer和視頻生成器。

人工智能大時代——AIGC綜述

將輸入token轉(zhuǎn)換為embedding后,接著經(jīng)過時序Transformer和空間Transformer,再使用一個沒有激活的單一線性投影,將token映射回像素空間。

最終模型可以生成以開放域提示為條件的時間連貫性和多樣性的視頻,甚至能夠處理一些數(shù)據(jù)集中不存在的新概念。

相關(guān)模型包括Soundify.

Text-to-Audio模型

對于視頻生成來說,聲音也是必不可缺的部分。

AudioLM

該模型是由谷歌開發(fā),可用于生成高質(zhì)量的音頻,并具有長距離一致性。

AudioLM的特別之處在于將輸入的音頻映射成一個離散的token序列,并將音頻生成作為該表示空間的語言建模任務(wù)。

通過對原始音頻波形的大型語料庫進行訓練,AudioLM成功學會了在簡短的提示下生成自然和連貫的連續(xù)的語音。這種方法甚至可以擴展到人聲之外的語音,比如連續(xù)的鋼琴音樂等等,而不需要在訓練時添加符號表示。

人工智能大時代——AIGC綜述

由于音頻信號涉及多個尺度(scale)的抽象,所以音頻合成時使得多尺度在顯示一致性的同時實現(xiàn)高音頻質(zhì)量非常具有挑戰(zhàn)性。AudioLM模型通過結(jié)合神經(jīng)音頻壓縮、自監(jiān)督表示學習和語言建模方面的最新進展來實現(xiàn)。

在主觀評價方面,評分者被要求聽一個10秒的樣本,并決定它是人類講話還是合成的語音。基于收集到的1000個評分,比率為51.2%,與隨機分配標簽沒有統(tǒng)計學差異,即人類無法區(qū)分合成和真實的樣本。

其他相關(guān)模型包括Jukebox和Whisper

Text-to-Text模型

問答任務(wù)常用。

ChatGPT

廣受歡迎的ChatGPT由OpenAI開發(fā),以對話的方式與用戶進行互動。

用戶提出一個問題,或是提示文本的前半部分,模型會補全后續(xù)部分,并且能夠識別出不正確的輸入前提并拒絕不恰當?shù)恼埱蟆?/p>

具體來說,ChatGPT背后的算法是Transformer,訓練過程主要是人類反饋的強化學習。

人工智能大時代——AIGC綜述

最初的模型是使用監(jiān)督學習下的微調(diào)來訓練的,然后由人類來提供對話,在對話中他們互相扮演用戶和人工智能助理,然后由人修正模型返回的回復,并用正確的答案幫助模型改進。

將制作的數(shù)據(jù)集與InstructGPT的數(shù)據(jù)集混合在一起,轉(zhuǎn)換為對話格式。

其他相關(guān)模型包括LaMDA和PEER

Text-to-Code模型

和text-to-text類似,只不過生成的是特殊類型的文本,即代碼。

Codex

該模型由OpenAI開發(fā),可以將文本翻譯成代碼。

Codex是一種通用的編程模型,基本上可以應(yīng)用于任何編程任務(wù)。

人類在編程時的活動可以分為兩部分:1)將一個問題分解成更簡單的問題;2)將這些問題映射到已經(jīng)存在的現(xiàn)有代碼(庫、API或函數(shù))中。

其中第二部分是對程序員來說最浪費時間的部分,也是Codex最擅長的地方。

人工智能大時代——AIGC綜述

訓練數(shù)據(jù)于2020年5月從GitHub上托管的公共軟件庫中進行收集,包含179GB的Python文件,并在GPT-3的基礎(chǔ)上進行微調(diào),其中已經(jīng)包含了強大的自然語言表征。

相關(guān)模型還包括Alphacode

Text-to-Science模型

科研文字也是AI文本生成的目標之一,但要取得成果仍然有很長的路要走。

Galactica

該模型是由Meta AI和Papers with Code聯(lián)合開發(fā)的,可用于自動組織科學文本的大型模型。

Galactica的主要優(yōu)勢在于即便進行多個episode的訓練后,模型仍然不會過擬合,并且上游和下游的性能會隨著token的重復使用而提高。

并且數(shù)據(jù)集的設(shè)計對該方法至關(guān)重要,因為所有的數(shù)據(jù)都是以通用的markdown格式處理的,從而能夠混合不同來源的知識。

人工智能大時代——AIGC綜述

引文(citations)通過一個特定的token來處理,使得研究人員可以在任何輸入上下文中預(yù)測一個引文。Galactica模型預(yù)測引文的能力會隨著規(guī)模的提升而提高。

此外,該模型在僅有解碼器的設(shè)置中使用了一個Transformer架構(gòu),對所有尺寸的模型進行了GeLU激活,從而可以執(zhí)行涉及SMILES化學公式和蛋白質(zhì)序列的多模態(tài)任務(wù),

MinervaMinerva的主要目的就是解決決數(shù)學和科學問題,為此收集了大量的訓練數(shù)據(jù),并解決了定量推理問題,大規(guī)模模型開發(fā)問題,還采用了一流的推理技術(shù)。

Minerva采樣語言模型架構(gòu)通過使用step-by-step推理來解決輸入的問題,即輸入是需要包含計算和符號操作,而不用引入外部工具。

其他模型

還有一些模型不屬于前面提到的類別。

AlphaTensor

由Deepmind公司開發(fā),因其發(fā)現(xiàn)新算法的能力,在業(yè)界是一個完全革命性的模型。

在已公布的例子中,AlphaTensor創(chuàng)造了一種更有效的矩陣乘法算法。這種算法非常重要,從神經(jīng)網(wǎng)絡(luò)到科學計算程序都可以從這種高效率的乘法計算中受益。

人工智能大時代——AIGC綜述

該方法基于深度強化學習方法,其中智能體AlphaTensor的訓練過程就是玩一個單人游戲,目標是在有限的因子空間內(nèi)尋找張量分解。

在TensorGame的每一步,玩家需要選擇如何結(jié)合矩陣的不同entries來進行乘法,并根據(jù)達到正確的乘法結(jié)果所需的操作數(shù)量來獲得獎勵分數(shù)。AlphaTensor使用一種特殊的神經(jīng)網(wǎng)絡(luò)架構(gòu)來利用合成訓練游戲(synthetic training game)的對稱性。

GATO

該模型是由Deepmind開發(fā)的通用智能體,它可以作為一個多模態(tài)、多任務(wù)或多embodiment泛化策略來使用。

具有相同權(quán)重的同一個網(wǎng)絡(luò)可以承載非常不同的能力,從玩雅達利游戲、描述圖片、聊天、堆積木等等。

人工智能大時代——AIGC綜述

在所有任務(wù)中使用單一的神經(jīng)序列模型有很多好處,減少了手工制作具有自身歸納偏見策略模型的需要,并增加了訓練數(shù)據(jù)的數(shù)量和多樣性。

這種通用智能體在大量任務(wù)中都取得了成功,并且可以用很少的額外數(shù)據(jù)進行調(diào)整,以便在更多的任務(wù)中取得成功。

目前GATO大約有1.2B個參數(shù),可以實時控制現(xiàn)實世界機器人的模型規(guī)模。

人工智能大時代——AIGC綜述

其他已發(fā)表的生成性人工智能模型包括生成human motion等。文章來源地址http://www.zghlxwxcb.cn/news/detail-416944.html

到了這里,關(guān)于人工智能大時代——AIGC綜述的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務(wù),不擁有所有權(quán),不承擔相關(guān)法律責任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實不符,請點擊違法舉報進行投訴反饋,一經(jīng)查實,立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費用

相關(guān)文章

  • AIGC邁向通用人工智能時代

    AIGC邁向通用人工智能時代

    2023年1月30日,AIGC概念股突飛猛漲。一時間,AIGC再次站上風口浪尖。 AIGC(AI Generated Content)是指利用人工智能技術(shù)來生成內(nèi)容,被認為是繼UGC、PGC之后的新型內(nèi)容生產(chǎn)方式,常見的 AI繪畫、AI寫作 等都屬于AIGC的分支。 事實上,AIGC在這一波熱議之前,早已悄然興起。 這要從

    2024年02月09日
    瀏覽(102)
  • 步入AIGC時代,展望人工智能發(fā)展

    步入AIGC時代,展望人工智能發(fā)展

    3 月 18 日,由中國圖象圖形學學會 ( CSIG ) 主辦,合合信息、 CSIG 文檔圖像分析與識別專業(yè)委員會聯(lián)合承辦的 “ CSIG 企業(yè)行 ” 系列活動取得了圓滿成功?;顒又黝}為“圖文智能處理與多場景應(yīng)用技術(shù)展望”,活動中重點分享了圖像文檔處理中的結(jié)構(gòu)建模、底層視覺技術(shù)、跨媒

    2024年02月02日
    瀏覽(30)
  • 人工智能時代:AIGC的橫空出世

    人工智能時代:AIGC的橫空出世

    ??個人主頁: 聆風吟 ??系列專欄: 數(shù)據(jù)結(jié)構(gòu)、網(wǎng)絡(luò)奇遇記 ??少年有夢不應(yīng)止于心動,更要付諸行動。 隨著人工智能技術(shù)的不斷發(fā)展,我們進入了一個信息爆炸的時代,信息量龐大,但也難免產(chǎn)生了信息過載的問題。為了解決這一問題,人工智能生成內(nèi)容技術(shù)(AIGC)應(yīng)運

    2024年02月05日
    瀏覽(36)
  • 人工智能革命:共同探索AIGC時代的未來

    人工智能革命:共同探索AIGC時代的未來

    隨著大數(shù)據(jù)和強大的計算能力的興起,人工智能技術(shù)(AI)正在快速發(fā)展,并為各個領(lǐng)域帶來革命性的變化。人工智能與智能計算技術(shù)(AIGC)的融合不僅為企業(yè)、科研機構(gòu)和普通用戶提供了巨大的機遇,也帶來了一系列新的挑戰(zhàn)。本文將探討AIGC的應(yīng)用領(lǐng)域,包括醫(yī)療保健、交

    2024年02月03日
    瀏覽(32)
  • 生成式人工智能(AIGC)綜述:ChatGPT從GPT-4到GPT-5可以一統(tǒng)AIGC?

    生成式人工智能(AIGC)綜述:ChatGPT從GPT-4到GPT-5可以一統(tǒng)AIGC?

    原文題目: 《A Complete Survey on Generative AI (AIGC): Is ChatGPT from GPT-4 to GPT-5 All You Need?》 文章鏈接: https://arxiv.org/abs/2303.11717 https://arxiv.org/abs/2303.11717 引言: 隨著ChatGPT的火熱傳播,生成式AI(AIGC,即AI生成的內(nèi)容)因其分析和創(chuàng)造文本、圖像等能力而在各地引起了轟動。在如此強

    2024年02月09日
    瀏覽(28)
  • 創(chuàng)世紀:AIGC引領(lǐng)人工智能時代的嶄新篇章

    創(chuàng)世紀:AIGC引領(lǐng)人工智能時代的嶄新篇章

    ??個人主頁 ?? 個人專欄 : 日常聊聊 ??? 功不唐捐,玉汝于成 目錄 ?編輯 前言: 目標和特點: 技術(shù)基礎(chǔ): 訓練和學習: 應(yīng)用領(lǐng)域: 結(jié)語: 我的其他博客 在當今數(shù)字化快速發(fā)展的時代,人工智能技術(shù)正不斷演進,為我們的生活和工作帶來了翻天覆地的變化。其中,

    2024年02月04日
    瀏覽(24)
  • 【小聆送書第二期】人工智能時代AIGC重塑教育

    【小聆送書第二期】人工智能時代AIGC重塑教育

    ??個人主頁: 聆風吟 ??系列專欄: 網(wǎng)絡(luò)奇遇記、數(shù)據(jù)結(jié)構(gòu) ??少年有夢不應(yīng)止于心動,更要付諸行動。 參與活動方式文末詳見。 ???? AI正迅猛地改變著我們的生活 。根據(jù)高盛發(fā)布的一份報告,AI有可能取代3億個全職工作崗位,影響全球18%的工作崗位。在歐美,或許四

    2024年02月05日
    瀏覽(34)
  • 新書推薦:《AIGC未來已來——邁向通用人工智能時代》

    新書推薦:《AIGC未來已來——邁向通用人工智能時代》

    AIGC為何引發(fā)關(guān)注? ChatGPT會成為人工智能的拐點嗎? GPT-4未來已來,奇點時刻該如何面對? 人類的創(chuàng)新能力會被AIGC替代嗎? 當下有哪些典型的AIGC變現(xiàn)手段? AIGC的不足與挑戰(zhàn)? AIGC(Artificial Intelligence Generated Content)中文譯為“人工智能生成內(nèi)容”。狹義上的AIGC指利用AI自動生

    2024年02月09日
    瀏覽(86)
  • AIGC專題報告:生成式人工智能人人可用的新時代

    AIGC專題報告:生成式人工智能人人可用的新時代

    今天分享的 AIGC系列 深度研究報告:《 AIGC專題報告:生成式人工智能人人可用的新時代 》。 (報告出品方:埃森哲) 報告共計:21頁 ChatGPT 正在喚醒全球?qū)θ斯ぶ悄埽ˋI) 變革潛力的認知,激發(fā)起前所未有的關(guān)注和創(chuàng)造力浪潮。該技術(shù)可以模仿人類的對話和決策能力,使我

    2024年02月05日
    瀏覽(36)
  • AIGC主題會議預(yù)告 | 人工智能時代,如何讓AI幫你打工?

    AIGC主題會議預(yù)告 | 人工智能時代,如何讓AI幫你打工?

    科技圈和創(chuàng)投圈好久都沒有這么興奮了,自從AI繪畫和Chat GPT的出現(xiàn),讓更多企業(yè)越發(fā)關(guān)注AI的各種新動向了。隨著ChatGPT、GPT-4的爆火,人們紛紛將目光投向了AIGC(AI Generated Content)行業(yè)。跟緊OpenAI的步伐,百度推出文心一言,Adobe推出生成式AI Firefly,谷歌也開放了聊天式機器

    2024年02月13日
    瀏覽(23)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包