国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

微軟提出AIGC新“玩法”,圖靈獎(jiǎng)得主Yoshua Bengio也來(lái)了!

這篇具有很好參考價(jià)值的文章主要介紹了微軟提出AIGC新“玩法”,圖靈獎(jiǎng)得主Yoshua Bengio也來(lái)了!。希望對(duì)大家有所幫助。如果存在錯(cuò)誤或未考慮完全的地方,請(qǐng)大家不吝賜教,您也可以點(diǎn)擊"舉報(bào)違法"按鈕提交疑問(wèn)。

微軟提出AIGC新“玩法”,圖靈獎(jiǎng)得主Yoshua Bengio也來(lái)了!

在AIGC取得舉世矚目成就的背后,基于大模型、多模態(tài)的研究范式也在不斷地推陳出新。微軟研究院作為這一研究領(lǐng)域的佼佼者,與圖靈獎(jiǎng)得主、深度學(xué)習(xí)三巨頭之一的Yoshua Bengio一起提出了AIGC新范式——Regeneration Learning。這一新范式究竟會(huì)帶來(lái)哪些創(chuàng)新變革?本文作者將帶來(lái)他的深度解讀。

作者 |?譚旭

AIGC(AI-Generated Content)在近年來(lái)受到了廣泛關(guān)注,基于深度學(xué)習(xí)的內(nèi)容生成在圖像、視頻、語(yǔ)音、音樂(lè)、文本等生成領(lǐng)域取得了非常矚目的成就。不同于傳統(tǒng)的數(shù)據(jù)理解任務(wù)通常采用表征學(xué)習(xí)(Representation Learning)范式來(lái)學(xué)習(xí)數(shù)據(jù)的抽象表征,數(shù)據(jù)生成任務(wù)需要刻畫(huà)數(shù)據(jù)的整體分布而不是抽象表征,需要一個(gè)新的學(xué)習(xí)范式來(lái)指導(dǎo)處理數(shù)據(jù)生成的建模問(wèn)題。

為此,微軟研究院的研究員和深度學(xué)習(xí)/表征學(xué)習(xí)先驅(qū)Yoshua Bengio一起,通過(guò)梳理典型的數(shù)據(jù)生成任務(wù)以及建模流程,抽象出面向數(shù)據(jù)生成任務(wù)的學(xué)習(xí)范式Regeneration Learning。該學(xué)習(xí)范式適合多種數(shù)據(jù)生成任務(wù)(圖像/視頻/語(yǔ)音/音樂(lè)/文本生成等),能夠?yàn)殚_(kāi)發(fā)設(shè)計(jì)數(shù)據(jù)生成的模型方法提供新的洞見(jiàn)和指導(dǎo)。

微軟提出AIGC新“玩法”,圖靈獎(jiǎng)得主Yoshua Bengio也來(lái)了!

論文:Regeneration Learning: A Learning Paradigm for Data Generation

鏈接:https://arxiv.org/abs/2301.08846?

微軟提出AIGC新“玩法”,圖靈獎(jiǎng)得主Yoshua Bengio也來(lái)了!

為什么是Regeneration Learning?

什么是數(shù)據(jù)理解與數(shù)據(jù)生成?

機(jī)器學(xué)習(xí)中一類典型的任務(wù)是學(xué)習(xí)一個(gè)從源數(shù)據(jù)X到目標(biāo)數(shù)據(jù)Y的映射,比如在圖像分類中X是圖像而Y是類別標(biāo)簽,在文本到語(yǔ)音合成中X是文本而Y是語(yǔ)音。根據(jù)X和Y含有信息量的不同,可以將這種映射分成數(shù)據(jù)理解(Data Understanding)、數(shù)據(jù)生成(Data Generation)以及兩者兼有的任務(wù)。圖1顯示了這三種任務(wù)以及X和Y含有的相對(duì)信息。

微軟提出AIGC新“玩法”,圖靈獎(jiǎng)得主Yoshua Bengio也來(lái)了!

圖1:機(jī)器學(xué)習(xí)中常見(jiàn)的三種任務(wù)類型以及X和Y含有的相對(duì)信息量

X和Y的信息差異導(dǎo)致了采用不同的方法來(lái)解決不同的任務(wù):

  • 對(duì)于數(shù)據(jù)理解任務(wù),X通常比較高維、復(fù)雜并且比Y含有更多的信息,所以任務(wù)的核心是從X學(xué)習(xí)抽象表征來(lái)預(yù)測(cè)Y。因此,深度學(xué)習(xí)中非?;馃岬谋碚鲗W(xué)習(xí)(Representation Learning,比如基于自監(jiān)督學(xué)習(xí)的大規(guī)模預(yù)訓(xùn)練)適合處理這類任務(wù)。

  • 對(duì)于數(shù)據(jù)生成任務(wù),Y通常比較高維、復(fù)雜并且比X含有更多的信息,所以任務(wù)的核心是刻畫(huà)Y的分布以及從X生成Y。

  • 對(duì)于數(shù)據(jù)理解和生成兼有的任務(wù),它們需要分別處理兩者的問(wèn)題。

數(shù)據(jù)生成任務(wù)面臨的獨(dú)特挑戰(zhàn)

數(shù)據(jù)生成任務(wù)面臨獨(dú)特的挑戰(zhàn)包括:

  • 因?yàn)閅含有很多X不含有的信息,生成模型面臨嚴(yán)重的一對(duì)多映射(One-to-Many Mapping)問(wèn)題,增加了學(xué)習(xí)難度。比如在圖像生成中,類別標(biāo)簽“狗”對(duì)應(yīng)不同的狗的圖片,如果沒(méi)有合理地學(xué)習(xí)這種一對(duì)多的映射,會(huì)導(dǎo)致訓(xùn)練集上出現(xiàn)過(guò)擬合,在測(cè)試集上泛化性很差。

  • 對(duì)于一些生成任務(wù)(比如文本到語(yǔ)音合成,語(yǔ)音到說(shuō)話人臉生成等),X和Y的信息量相當(dāng),會(huì)有兩種問(wèn)題,一種是X到Y(jié)的映射不是一一對(duì)應(yīng),會(huì)面臨上面提到的一對(duì)多映射問(wèn)題,另一種是X和Y含有虛假關(guān)聯(lián)(Spurious Correlation,比如在語(yǔ)音到說(shuō)話人臉生成中,輸入語(yǔ)音的音色和目標(biāo)說(shuō)話人臉視頻中的頭部姿態(tài)沒(méi)有太大關(guān)聯(lián)關(guān)系),會(huì)導(dǎo)致模型學(xué)習(xí)到虛假映射出現(xiàn)過(guò)擬合。

    微軟提出AIGC新“玩法”,圖靈獎(jiǎng)得主Yoshua Bengio也來(lái)了!

為什么需要Regeneration Learning

深度生成模型(比如對(duì)抗生成網(wǎng)絡(luò)GAN、變分自編碼器VAE、自回歸模型AR、標(biāo)準(zhǔn)化流模型Flow、擴(kuò)散模型Diffusion等)在數(shù)據(jù)生成任務(wù)上取得了非常大的進(jìn)展,在理想情況下可以擬合任何數(shù)據(jù)分布以實(shí)現(xiàn)復(fù)雜的數(shù)據(jù)生成。但是,在實(shí)際情況中,由于數(shù)據(jù)映射太復(fù)雜,計(jì)算代價(jià)太大以及數(shù)據(jù)稀疏性問(wèn)題等,它們不能很好地?cái)M合復(fù)雜的數(shù)據(jù)分布以及一對(duì)多映射和虛假映射問(wèn)題。類比于數(shù)據(jù)理解任務(wù),盡管強(qiáng)大的模型,比如Transformer已經(jīng)取得了不錯(cuò)的效果,但是表征學(xué)習(xí)(近年來(lái)的大規(guī)模自監(jiān)督學(xué)習(xí)比如預(yù)訓(xùn)練)還是能大大提升性能。數(shù)據(jù)生成任務(wù)也迫切需要一個(gè)類似于表征學(xué)習(xí)的范式來(lái)指導(dǎo)建模。

因此,我們針對(duì)數(shù)據(jù)生成任務(wù)提出了Regeneration Learning學(xué)習(xí)范式。相比于直接從X生成Y,Regeneration Learning先從X生成一個(gè)目標(biāo)數(shù)據(jù)的抽象表征Y’,然后再?gòu)腨’生成Y。這樣做有兩點(diǎn)好處:

  • X→Y’ 相比于X→Y的一對(duì)多映射和虛假映射問(wèn)題會(huì)減輕;

  • Y’→Y的映射可以通過(guò)自監(jiān)督學(xué)習(xí)利用大規(guī)模的無(wú)標(biāo)注數(shù)據(jù)進(jìn)行預(yù)訓(xùn)練。

    微軟提出AIGC新“玩法”,圖靈獎(jiǎng)得主Yoshua Bengio也來(lái)了!

Regeneration Learning的形式

Regeneration Learning的基本形式/Regeneration Learning的步驟

Regeneration Learning一般需要三步,包括:

  • 將Y轉(zhuǎn)化成抽象表征Y’。轉(zhuǎn)換方法大體上可分為顯式和隱式兩種,如表1中Basic Formulation所示:顯式轉(zhuǎn)換包括數(shù)學(xué)變換(比如傅里葉變換,小波變換),模態(tài)轉(zhuǎn)換(比如語(yǔ)音文本處理中使用的字形到音形的變換),數(shù)據(jù)分析挖掘(比如從音樂(lè)數(shù)據(jù)抽取音樂(lè)特征或者從人臉圖片中抽取3D表征),下采樣(比如將256*256圖片下采樣到64*64圖片)等;隱式轉(zhuǎn)換,比如通過(guò)端到端學(xué)習(xí)抽取中間表征(一些常用的方法包括變分自編碼器VAE,量化自編碼器VQ-VAE和VQ-GAN,基于擴(kuò)散模型的自編碼器Diffusion-AE)。

微軟提出AIGC新“玩法”,圖靈獎(jiǎng)得主Yoshua Bengio也來(lái)了!

表1:Y→Y’轉(zhuǎn)換的不同方法

  • 步驟2:從X生成Y’。可以使用任何生成模型或者轉(zhuǎn)換方法,以方便做X→Y’映射。

  • 步驟3:從Y’生成Y。通常采用自監(jiān)督學(xué)習(xí),如果從Y轉(zhuǎn)化為Y’采用的是隱式轉(zhuǎn)換學(xué)習(xí)比如變分自編碼器,那可以使用學(xué)習(xí)到的解碼器來(lái)從Y’生成Y。

如表1中Extended Formulation所示,一些方法可以看成是Regeneration Learning的擴(kuò)展版本,比如自回歸模型AR,擴(kuò)散模型Diffusion,以及迭代式的非自回歸模型等。在自回歸模型中,Y_{<t}可以看成是Y_{<t+1}的簡(jiǎn)化表征,在Diffusion模型中,Y_{t+1}可以看成是Y_{t}的簡(jiǎn)化表征,和基礎(chǔ)版的Regeneration Learning不同的是,它們都需要多步生成而不是兩步生成。

Regeneration Learning和Representation Learning的關(guān)系

微軟提出AIGC新“玩法”,圖靈獎(jiǎng)得主Yoshua Bengio也來(lái)了!

圖2:Regeneration Learning和Representation Learning的對(duì)比

如圖2所示,Regeneration Learning可以看成是傳統(tǒng)的Representation Learning在數(shù)據(jù)生成任務(wù)中的對(duì)應(yīng):

  • Regeneration Learning處理目標(biāo)數(shù)據(jù)Y的抽象表征Y’來(lái)幫助生成,而傳統(tǒng)的Representation Learning處理源數(shù)據(jù)X的抽象表征X’來(lái)幫助理解;

  • Regeneration Learning中的Y’→Y和Representation Learning中的X→X’ 都可以通過(guò)自監(jiān)督的方式學(xué)習(xí)(比如大規(guī)模預(yù)訓(xùn)練);

  • Regeneration Learning中的X→Y’和Representation Learning中的X’→Y都比原來(lái)的X→Y更加簡(jiǎn)單。

    微軟提出AIGC新“玩法”,圖靈獎(jiǎng)得主Yoshua Bengio也來(lái)了!

Regeneration Learning的方法研究以及實(shí)際應(yīng)用

Regeneration Learning的研究機(jī)會(huì)

Regeneration Learning作為一種面向數(shù)據(jù)生成的學(xué)習(xí)范式,有比較多的研究問(wèn)題。如表2所示,包括如何從Y獲取Y’以及如何更好地學(xué)習(xí)X→Y’以及Y’→Y等,詳細(xì)信息可參見(jiàn)論文。?

微軟提出AIGC新“玩法”,圖靈獎(jiǎng)得主Yoshua Bengio也來(lái)了!

表2:Regeneration Learning的研究問(wèn)題

Regeneration Learning在數(shù)據(jù)生成任務(wù)中的應(yīng)用條件

Regeneration Learning在語(yǔ)音、音頻、音樂(lè)、圖像、視頻、文本等生成中有著廣泛的應(yīng)用,包括文本到語(yǔ)音合成,語(yǔ)音到文本識(shí)別,歌詞/視頻到旋律生成,語(yǔ)音到說(shuō)話人臉生成,圖像/視頻/音頻生成等,如表3所示。

微軟提出AIGC新“玩法”,圖靈獎(jiǎng)得主Yoshua Bengio也來(lái)了!

表3:一些利用Regeneration Learning的數(shù)據(jù)生成任務(wù)

總的來(lái)講,只要滿足以下幾點(diǎn)要求,都可以使用Regeneration Learning:

  • 目標(biāo)數(shù)據(jù)太高維復(fù)雜;

  • X和Y有比較復(fù)雜的映射關(guān)系,比如一對(duì)多映射和虛假映射;

  • X和Y缺少足夠的配對(duì)數(shù)據(jù)。

最近流行的數(shù)據(jù)生成模型及其在Regeneration Learning范式下的表示

下面簡(jiǎn)單梳理了近年來(lái)在AIGC內(nèi)容生成領(lǐng)域的一些典型的模型方法,比如文本到圖像生成模型DALL-E 1、DALL-E 2和Stable Diffusion,文本到音頻生成模型AudioLM和AudioGen,文本到音樂(lè)生成模型MusicLM,文本生成模型GPT-3/ChatGPT,它們都可以被看作是采用了Regeneration Learning類似的思想,如表4所示。

微軟提出AIGC新“玩法”,圖靈獎(jiǎng)得主Yoshua Bengio也來(lái)了!

表4:最近比較受關(guān)注的數(shù)據(jù)生成模型及其在Regeneration Learning范式下的表示

機(jī)器學(xué)習(xí)/深度學(xué)習(xí)依賴于學(xué)習(xí)范式指導(dǎo)處理各種學(xué)習(xí)問(wèn)題,例如傳統(tǒng)的機(jī)器學(xué)習(xí),包括有監(jiān)督學(xué)習(xí)、無(wú)監(jiān)督學(xué)習(xí)、強(qiáng)化學(xué)習(xí)等學(xué)習(xí)范式。在深度學(xué)習(xí)中,有針對(duì)數(shù)據(jù)理解任務(wù)的表征學(xué)習(xí)。微軟研究員們和深度學(xué)習(xí)/表征學(xué)習(xí)先驅(qū)Yoshua Bengio一起面向數(shù)據(jù)生成任務(wù)提出了針對(duì)性的學(xué)習(xí)范式Regeneration Learning,希望能指導(dǎo)解決數(shù)據(jù)生成任務(wù)中的各種問(wèn)題。微軟亞洲研究院機(jī)器學(xué)習(xí)組的研究員們,將Regeneration Learning的思想應(yīng)用到各類生成任務(wù)中,比如文本到語(yǔ)音合成,歌詞到旋律生成,語(yǔ)音到說(shuō)話人臉生成等,詳情請(qǐng)見(jiàn):https://ai-creation.github.io/。

微軟提出AIGC新“玩法”,圖靈獎(jiǎng)得主Yoshua Bengio也來(lái)了!

結(jié)語(yǔ)

本篇文章介紹了微軟亞洲研究院機(jī)器學(xué)習(xí)組在AIGC數(shù)據(jù)生成方面的研究范式工作,首先指出了數(shù)據(jù)生成面臨的挑戰(zhàn)以及新的學(xué)習(xí)范式的必要性,然后介紹了Regeneration Learning的具體形式、與Representation Learning的關(guān)系、當(dāng)前流行的數(shù)據(jù)生成模型在該范式下的表示,以及Regeneration Learning潛在的研究機(jī)會(huì)。希望Regeneration Learning能夠很好地指導(dǎo)解決數(shù)據(jù)生成任務(wù)中的各種問(wèn)題。在這一研究方向上,機(jī)器學(xué)習(xí)組還開(kāi)展了模型結(jié)構(gòu)和建模方法以及具體的生成任務(wù)方面的研究,歡迎繼續(xù)關(guān)注我們的其他文章!

作者簡(jiǎn)介

微軟提出AIGC新“玩法”,圖靈獎(jiǎng)得主Yoshua Bengio也來(lái)了!

譚旭,微軟亞洲研究院高級(jí)研究員

研究領(lǐng)域?yàn)樯疃葘W(xué)習(xí)及AI內(nèi)容生成。發(fā)表論文100余篇,研究工作如預(yù)訓(xùn)練語(yǔ)言模型MASS、語(yǔ)音合成模型FastSpeech、AI音樂(lè)項(xiàng)目Muzic受到業(yè)界關(guān)注,多項(xiàng)成果應(yīng)用于微軟產(chǎn)品中。研究主頁(yè):https://ai-creation.github.io/

微軟提出AIGC新“玩法”,圖靈獎(jiǎng)得主Yoshua Bengio也來(lái)了!文章來(lái)源地址http://www.zghlxwxcb.cn/news/detail-406513.html

到了這里,關(guān)于微軟提出AIGC新“玩法”,圖靈獎(jiǎng)得主Yoshua Bengio也來(lái)了!的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來(lái)自互聯(lián)網(wǎng)用戶投稿,該文觀點(diǎn)僅代表作者本人,不代表本站立場(chǎng)。本站僅提供信息存儲(chǔ)空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如若轉(zhuǎn)載,請(qǐng)注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實(shí)不符,請(qǐng)點(diǎn)擊違法舉報(bào)進(jìn)行投訴反饋,一經(jīng)查實(shí),立即刪除!

領(lǐng)支付寶紅包贊助服務(wù)器費(fèi)用

相關(guān)文章

  • 計(jì)算機(jī)視覺(jué)新巔峰,微軟&牛津聯(lián)合提出MVSplat登頂3D重建

    計(jì)算機(jī)視覺(jué)新巔峰,微軟&牛津聯(lián)合提出MVSplat登頂3D重建

    3D場(chǎng)景重建和新視角合成是計(jì)算機(jī)視覺(jué)領(lǐng)域的一項(xiàng)基礎(chǔ)挑戰(zhàn),尤其是當(dāng)輸入圖像非常稀疏(例如,只有兩張)時(shí)。盡管利用神經(jīng)場(chǎng)景表示,例如場(chǎng)景表示網(wǎng)絡(luò)(SRN)、神經(jīng)輻射場(chǎng)(NeRF)和光場(chǎng)網(wǎng)絡(luò)(LFN)等,取得了顯著進(jìn)展,但這些方法在實(shí)際應(yīng)用中仍然不盡人意,原因包括

    2024年04月15日
    瀏覽(91)
  • 微軟亞研院提出模型基礎(chǔ)架構(gòu)RetNet或?qū)⒊蔀門ransformer有力繼承者

    微軟亞研院提出模型基礎(chǔ)架構(gòu)RetNet或?qū)⒊蔀門ransformer有力繼承者

    作為全新的神經(jīng)網(wǎng)絡(luò)架構(gòu),RetNet 同時(shí)實(shí)現(xiàn)了良好的擴(kuò)展結(jié)果、并行訓(xùn)練、低成本部署和高效推理。這些特性將使 RetNet 有可能成為繼 Transformer 之后大語(yǔ)言模型基礎(chǔ)網(wǎng)絡(luò)架構(gòu)的有力繼承者。實(shí)驗(yàn)數(shù)據(jù)也顯示,在語(yǔ)言建模任務(wù)上: RetNet 可以達(dá)到與 Transformer 相當(dāng)?shù)睦Щ蠖龋╬erpl

    2024年02月15日
    瀏覽(27)
  • AIGC:AI繪畫(huà)給互聯(lián)網(wǎng)帶來(lái)潮流新玩法

    AIGC:AI繪畫(huà)給互聯(lián)網(wǎng)帶來(lái)潮流新玩法

    AIGC這個(gè)概念雖然出現(xiàn)了一段時(shí)間,但是直到AI繪畫(huà)的出現(xiàn),讓很多人更直觀的接觸和體驗(yàn)到AI帶來(lái)的魅力和驚喜,2022年也被一些人成為AI繪畫(huà)的元年,可以找我們體驗(yàn)。我們對(duì)AI繪畫(huà)進(jìn)行了一些最新現(xiàn)狀的梳理和未來(lái)發(fā)展空間的探討。 AI繪畫(huà)的用戶群體 從年齡層面:AI繪畫(huà)用戶

    2024年02月13日
    瀏覽(15)
  • Transformer僅有自注意力還不夠?微軟聯(lián)合巴斯大學(xué)提出頻域混合注意力SpectFormer

    Transformer僅有自注意力還不夠?微軟聯(lián)合巴斯大學(xué)提出頻域混合注意力SpectFormer

    本文介紹一篇來(lái)自 英國(guó)巴斯大學(xué)(University of Bath)與微軟合作完成的工作, 研究者從頻率域角度入手探究視覺(jué)Transformer結(jié)構(gòu)中的頻域注意力和多頭注意力在視覺(jué)任務(wù)中各自扮演的作用。 論文鏈接: https://arxiv.org/abs/2304.06446 項(xiàng)目主頁(yè): https://badripatro.github.io/SpectFormers/ 代碼鏈

    2024年02月07日
    瀏覽(21)
  • 百度用AIGC開(kāi)啟2023“好運(yùn)中國(guó)年”,玩法升級(jí)陪你過(guò)新春

    百度用AIGC開(kāi)啟2023“好運(yùn)中國(guó)年”,玩法升級(jí)陪你過(guò)新春

    還在擔(dān)心過(guò)年沒(méi)有新意?來(lái)百度過(guò)充滿AI的新春好運(yùn)年! 百度2023“好運(yùn)中國(guó)年”活動(dòng)今天正式啟動(dòng),除了“集好運(yùn)”等活動(dòng)的豐厚紅包福利,還將結(jié)合百度AI數(shù)字人度曉曉、百度AIGC能力(人工智能自動(dòng)生成內(nèi)容)及飛槳文心大模型,重磅推出「兔年要可AI」活動(dòng)、AI寫春聯(lián)、

    2024年02月16日
    瀏覽(19)
  • 如何向大模型ChatGPT提出問(wèn)題以獲得優(yōu)質(zhì)回答:基于AIGC和深度學(xué)習(xí)的實(shí)踐指南

    提示工程 | 高性能計(jì)算 |?ChatGPT 深度學(xué)習(xí) | GPU服務(wù)器 |Ibrahim John 在當(dāng)今信息爆炸的時(shí)代,人們對(duì)于知識(shí)獲取的需求日益增長(zhǎng)。特別是在深度學(xué)習(xí)、高性能計(jì)算和人工智能領(lǐng)域,這些前沿技術(shù)的不斷發(fā)展讓人們對(duì)其應(yīng)用場(chǎng)景和實(shí)現(xiàn)方法有了更多的探索和研究。其中,作為一種基

    2024年02月04日
    瀏覽(20)
  • UC伯克利提出AIGC圖像編輯新利器InstructPix2Pix,AI模型P圖更加精細(xì)

    UC伯克利提出AIGC圖像編輯新利器InstructPix2Pix,AI模型P圖更加精細(xì)

    原文鏈接:https://www.techbeat.net/article-info?id=4375 作者:seven_ 最近的一些工作向我們展示了 AIGC在創(chuàng)造性生成圖像、視頻等方面 的潛力,相信已有很多研究者在沿著這一方向進(jìn)行拓展式的挖掘和創(chuàng)新。目前已有很多衍生應(yīng)用出現(xiàn)在了大家眼前,例如僅 通過(guò)手繪草圖生成具有真實(shí)

    2024年02月09日
    瀏覽(16)
  • AIGC時(shí)代的王者:微軟

    AIGC時(shí)代的王者:微軟

    從2022年到2023年這不到一年的時(shí)間,AI圈經(jīng)歷兩大爆火事件:Stable diffusion和chatGPT,正式宣布AIGC時(shí)代的到來(lái);在這背后有一家一直被認(rèn)為科技創(chuàng)新性較弱的公司在默默的努力著,田字牌即微軟. chatGPT爆火之前,微軟一直為chatGPT母公司OpenAI提供超大的GPU集群,才造就了后臺(tái)chat

    2024年02月15日
    瀏覽(23)
  • AIGC內(nèi)容分享(四十七):AIGC與創(chuàng)意設(shè)計(jì)之Designer:當(dāng)微軟試水時(shí)尚

    AIGC內(nèi)容分享(四十七):AIGC與創(chuàng)意設(shè)計(jì)之Designer:當(dāng)微軟試水時(shí)尚

    目錄 微軟Designer劍指何方 Microsoft Designer 組件 體驗(yàn)篇之:圖像生成器(Image Creator) 體驗(yàn)篇之:設(shè)計(jì)創(chuàng)造器(Design Creator) 體驗(yàn)篇之:生成式擦除器(Generative Eraser) 體驗(yàn)篇之:背景移除(Remove Background) 結(jié)語(yǔ) AIGC與創(chuàng)意設(shè)計(jì)系列總結(jié) 如果Adobe是一個(gè)高高在上,優(yōu)雅尊貴的大家

    2024年01月22日
    瀏覽(22)
  • AIGC 創(chuàng)業(yè)公司還沒(méi)盈利,微軟、Adobe 已賺得盆滿缽滿

    AIGC 創(chuàng)業(yè)公司還沒(méi)盈利,微軟、Adobe 已賺得盆滿缽滿

    一出奧特曼在?OpenAI「來(lái)去之間」的戲碼,以回歸暫告一段落。 過(guò)程很抓馬,吃瓜群眾很激動(dòng),當(dāng)然了,最開(kāi)心的還得是微軟。 不僅因?yàn)檫@出「鬧劇」無(wú)論怎么發(fā)展,都是微軟穩(wěn)贏,還因?yàn)楸澈鬂摬刂粋€(gè)更大的瓜—— 大模型的最大利益獲得者,居然還是微軟這些讓人意想

    2024年02月05日
    瀏覽(27)

覺(jué)得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請(qǐng)作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包