“UGC不存在了”——借鑒自《三體》
ChatGPT 的橫空出世將一個(gè)全新的概念推上風(fēng)口——AIGC( AI Generated Content)。
GC即創(chuàng)作內(nèi)容(Generated Content),和傳統(tǒng)的UGC、PGC,OGC不同的是,AIGC的創(chuàng)作主體由人變成了人工智能。
xGC
PGC:Professionally Generated Content,專業(yè)生產(chǎn)內(nèi)容
UGC:User Generated Content,用戶生產(chǎn)內(nèi)容
OGC:Occupationally Generated Content,品牌生產(chǎn)內(nèi)容。
AI 可以 Generate 哪些 Content?
作為淘寶內(nèi)容線的開(kāi)發(fā),我們每天都在和內(nèi)容打交道,那么AI到底能生成什么內(nèi)容?
圍繞著不同形式的內(nèi)容生產(chǎn),AIGC大致分為以下幾個(gè)領(lǐng)域:

文本生成
基于NLP的文本內(nèi)容生成根據(jù)使用場(chǎng)景可分為非交互式文本生成與交互式文本生成。
非交互式文本生成包括摘要/標(biāo)題生成、文本風(fēng)格遷移、文章生成、圖像生成文本等。
交互式文本生成主要包括聊天機(jī)器人、文本交互游戲等。
【代表性產(chǎn)品或模型】:JasperAI、copy.AI、ChatGPT、Bard、AI dungeon等。

圖像生成
圖像生成根據(jù)使用場(chǎng)可分為圖像編輯修改與圖像自主生成。
圖像編輯修改可應(yīng)用于圖像超分、圖像修復(fù)、人臉替換、圖像去水印、圖像背景去除等。
圖像自主生成包括端到端的生成,如真實(shí)圖像生成卡通圖像、參照?qǐng)D像生成繪畫圖像、真實(shí)圖像生成素描圖像、文本生成圖像等。
【代表性產(chǎn)品或模型】:EditGAN,Deepfake,DALL-E、MidJourney、Stable Diffusion,文心一格等。

音頻生成
音頻生成技術(shù)較為成熟,在C端產(chǎn)品中也較為常見(jiàn),如語(yǔ)音克隆,將人聲1替換為人聲2。還可應(yīng)用于文本生成特定場(chǎng)景語(yǔ)音,如數(shù)字人播報(bào)、語(yǔ)音客服等。此外,可基于文本描述、圖片內(nèi)容理解生成場(chǎng)景化音頻、樂(lè)曲等。
【代表性產(chǎn)品或模型】:DeepMusic、WaveNet、Deep Voice、MusicAutoBot等。

視頻生成
視頻生成與圖像生成在原理上相似,主要分為視頻編輯與視頻自主生成。
視頻編輯可應(yīng)用于視頻超分(視頻畫質(zhì)增強(qiáng))、視頻修復(fù)(老電影上色、畫質(zhì)修復(fù))、視頻畫面剪輯(識(shí)別畫面內(nèi)容,自動(dòng)場(chǎng)景剪輯)。
視頻自主生成可應(yīng)用于圖像生成視頻(給定參照?qǐng)D像,生成一段運(yùn)動(dòng)視頻)、文本生成視頻(給定一段描述性文字,生成內(nèi)容相符視頻)。
【代表性產(chǎn)品或模型】:Deepfake,videoGPT,Gliacloud、Make-A-Video、Imagen video等。
多模態(tài)生成
以上四種模態(tài)可以進(jìn)行組合搭配,進(jìn)行模態(tài)間轉(zhuǎn)換生成。如文本生成圖像(AI繪畫、根據(jù)prompt提示語(yǔ)生成特定風(fēng)格圖像)、文本生成音頻(AI作曲、根據(jù)prompt提示語(yǔ)生成特定場(chǎng)景音頻)、文本生成視頻(AI視頻制作、根據(jù)一段描述性文本生成語(yǔ)義內(nèi)容相符視頻片段)、圖像生成文本(根據(jù)圖像生成標(biāo)題、根據(jù)圖像生成故事)、圖像生成視頻。
【代表性產(chǎn)品或模型】:DALL-E、MidJourney、Stable Diffusion等。
本文接下來(lái)將會(huì)著重講述文本類AIGC和圖像類AIGC。
文本類AIGC
RNN → Transformer → GPT(ChatGPT)
最近勢(shì)頭正猛的ChatGPT就是文本類AIGC的代表。
ChatGPT(Chat Generative Pre-trained Transformer),即聊天生成型預(yù)訓(xùn)練變換模型,Transformer指的是一種非常重要的算法模型,稍后將會(huì)介紹。
其實(shí)現(xiàn)在的用戶對(duì)于聊天機(jī)器人已經(jīng)很熟悉了,比如天貓精靈、小愛(ài)同學(xué)或是Siri等語(yǔ)音助手。那為什么ChatGPT一出現(xiàn),這些語(yǔ)音助手就顯得相形見(jiàn)絀呢?
本質(zhì)上是NLP模型之間的差異。
在自然語(yǔ)義理解領(lǐng)域(NLP)中,RNN和Transformer是最常見(jiàn)的兩類模型。
循環(huán)神經(jīng)網(wǎng)絡(luò)(recurrent neural network)
RNN,即循環(huán)神經(jīng)網(wǎng)絡(luò)(recurrent neural network)源自于1982年由Saratha Sathasivam 提出的霍普菲爾德網(wǎng)絡(luò)。下圖所示是一個(gè)RNN網(wǎng)絡(luò)的簡(jiǎn)易展示圖,左側(cè)是一個(gè)簡(jiǎn)單的循環(huán)神經(jīng)網(wǎng)絡(luò),它由輸入層、隱藏層和輸出層組成。

RNN 的主要特點(diǎn)在于 w 帶藍(lán)色箭頭的部分。輸入層為 x,隱藏層為 s,輸出層為 o。U 是輸入層到隱藏層的權(quán)重,V 是隱藏層到輸出層的權(quán)重。隱藏層的值 s 不僅取決于當(dāng)前時(shí)刻的輸入 x,還取決于上一時(shí)刻的輸入。權(quán)重矩陣 w 就是隱藏層上一次的值作為這一次的輸入的權(quán)重。由此可見(jiàn),這種網(wǎng)絡(luò)的特點(diǎn)是,每一個(gè)時(shí)刻的輸入依賴于上一個(gè)時(shí)刻的輸出,難以并行化計(jì)算。
從人類視角理解RNN 人類可以根據(jù)語(yǔ)境或者上下文,推斷語(yǔ)義信息。就比如,一個(gè)人說(shuō)了:我喜歡旅游,其中最喜歡的地方是三亞,以后有機(jī)會(huì)一定要去___,很顯然這里應(yīng)該填”三亞”。 但是機(jī)器要做到這一步就比較困難。RNN的本質(zhì)是像人一樣擁有記憶的能力,因此,它的輸出就依賴于當(dāng)前的輸入和記憶。
Transformer
而Transformer模型誕生于2017年,起源自《Attention Is All You Need》。這是一種基于Attention機(jī)制來(lái)加速深度學(xué)習(xí)算法的模型,可以進(jìn)行并行化計(jì)算,而且每個(gè)單詞在處理過(guò)程中注意到了其他單詞的影響,效果非常好。
!](https://cdn.ytools.xyz/uPic/202303211936538.png)
Attention機(jī)制:又稱為注意力機(jī)制,顧名思義,是一種能讓模型對(duì)重要信息重點(diǎn)關(guān)注并充分學(xué)習(xí)吸收的技術(shù)。通俗的講就是把注意力集中放在重要的點(diǎn)上,而忽略其他不重要的因素。 其中重要程度的判斷取決于應(yīng)用場(chǎng)景,根據(jù)應(yīng)用場(chǎng)景的不同,Attention分為空間注意力和時(shí)間注意力,前者用于圖像處理,后者用于自然語(yǔ)言處理。

Transformer是完全基于自注意力機(jī)制的一個(gè)深度學(xué)習(xí)模型,有關(guān)該模型的介紹,詳情可參考下面這篇文章??
人工智能 LLM 革命前夜:一文讀懂橫掃自然語(yǔ)言處理的 Transformer 模型
由于Transformer的存在加速了深度學(xué)習(xí)的效果,基于海量數(shù)據(jù)的進(jìn)行樣本訓(xùn)練便有了可能。至此,LLM正式從幕后走向臺(tái)前。
LLM,Large Language Model 即大型語(yǔ)言模型。這個(gè)大不僅僅指數(shù)據(jù)集的“大”,同樣也是指算法模型的“大”。一般來(lái)說(shuō),在訓(xùn)練數(shù)據(jù)足夠充足的情況下,往往是模型越大效果越好。在某種程度上說(shuō),甚至只要樣本足夠,哪怕模型“稍微簡(jiǎn)單”一些,也是可以取得不錯(cuò)的結(jié)果的。
筆者在2019年時(shí)曾翻譯過(guò)一篇文章??
機(jī)器學(xué)習(xí)競(jìng)賽實(shí)際上是一場(chǎng)數(shù)據(jù)競(jìng)賽
這篇文章的主要觀點(diǎn)便是“AI競(jìng)爭(zhēng)本質(zhì)上就是數(shù)據(jù)之爭(zhēng)”,所有希望創(chuàng)建有影響力、有價(jià)值的AI應(yīng)用都應(yīng)該認(rèn)識(shí)到以下三點(diǎn):
差異化數(shù)據(jù)是這場(chǎng)AI游戲成功的關(guān)鍵
有意義的數(shù)據(jù)比全面的數(shù)據(jù)好
起點(diǎn)應(yīng)該是自己所擅長(zhǎng)的東西
以ChatGPT為例,其本質(zhì)是基于GPT3的一種變體,而GPT又是基于Transformer模型的一種演化。從模型參數(shù)上來(lái)說(shuō),GPT3共使用了1750億個(gè)參數(shù)訓(xùn)練而成,而ChatGPT只使用了15億個(gè)參數(shù),但其數(shù)據(jù)集是卻是整個(gè)互聯(lián)網(wǎng)和幾百萬(wàn)本書大概3千億文字。哪怕是這樣,卻也是對(duì)一眾使用RNN的NLP程序造成了降維打擊。
GPT
這篇文章寫到一半的時(shí)候GPT-4發(fā)布了,現(xiàn)在作為小插曲來(lái)擴(kuò)展一下
筆者在和朋友的日常交流中發(fā)現(xiàn)大家總是將ChatGPT和GPT混為一談,其實(shí)這是兩個(gè)不同的東西。讓我們來(lái)問(wèn)一下New Bing這兩者的區(qū)別。

很顯然,從Bing給我的回答看來(lái),為了讓對(duì)話更加生動(dòng)和有趣,ChatGPT是一個(gè)專為聊天設(shè)計(jì)的專業(yè)模型,而GPT則是一個(gè)通用語(yǔ)言模型。GPT4就是這個(gè)模型發(fā)展到第四代的模樣,相較于GPT3,GPT4可以做的事情變得更多了。
GPT-4 是一個(gè)更大的模型,網(wǎng)傳擁有約 1000 萬(wàn)億個(gè)參數(shù),這意味著它能夠處理更多的數(shù)據(jù),學(xué)習(xí)更多的知識(shí)和技能。
GPT-4 能夠接受多模態(tài)的輸入,例如文本、圖像、音頻和視頻,并生成相應(yīng)的輸出。這使得它能夠處理更復(fù)雜和豐富的任務(wù),例如圖像描述、語(yǔ)音識(shí)別和視頻生成。
類ChatGPT
在國(guó)內(nèi)一直都有一句調(diào)侃的話,叫做“國(guó)外一開(kāi)源,國(guó)內(nèi)就自主研發(fā)”。那既然算法模型是公開(kāi)的,代碼也已經(jīng)開(kāi)源了,那在國(guó)內(nèi),那些類ChatGPT的模型是不是應(yīng)該如“雨后春筍”般涌現(xiàn)了呢?
事實(shí)上并沒(méi)有,本質(zhì)上還是因?yàn)長(zhǎng)LM的擴(kuò)展和維護(hù)是相當(dāng)困難的。主要來(lái)源于以下幾點(diǎn):
漫長(zhǎng)的訓(xùn)練時(shí)間
高昂的費(fèi)用開(kāi)支
海量的訓(xùn)練數(shù)據(jù)
稀缺的高端人才
時(shí)代的眼淚
2017 - Attention is all you need
2023 - Money is all you need
以復(fù)旦大學(xué)開(kāi)源的類ChatGPT應(yīng)用MOSS為例,雖然不知道具體的模型參數(shù)數(shù)量,但其負(fù)責(zé)人表示相較于ChatGPT少了一個(gè)數(shù)量級(jí),再加上簡(jiǎn)中互聯(lián)網(wǎng)作為其訓(xùn)練樣本,訓(xùn)練質(zhì)量可想而知。
點(diǎn)此體驗(yàn)??https://moss.fastnlp.top/

關(guān)于訓(xùn)練的樣本數(shù)據(jù),這里舉一個(gè)小例子??。 同樣是搜索代碼段,ChatGPT給你推StackOverflow的答案,MOSS給你推csdn的答案,高下立判
本來(lái)還想補(bǔ)充一下百度的文心一言的,結(jié)果他們發(fā)布了一個(gè)ChatPPT,網(wǎng)上一堆段子,這里就不吐槽了。
圖像類AIGC
說(shuō)完了文本類AIGC,我們?cè)賮?lái)看看最近另一個(gè)比較火的領(lǐng)域——圖像類AIGC。
俗話說(shuō),飽暖思淫欲。作為“第一生產(chǎn)力”的“性”,很多技術(shù)發(fā)展都離不開(kāi)他。扎克伯克創(chuàng)建Facebook的起因就是為了更好的認(rèn)識(shí)小姐姐。而圖像類AIGC出圈的一個(gè)很大原因就在于,他生成的美女小姐姐越來(lái)越真實(shí)了。
作為一個(gè)業(yè)余攝影師,第一眼也沒(méi)能正確分辨出下面這兩張圖誰(shuí)是真人,誰(shuí)是AI畫出來(lái)的人。


那么問(wèn)題來(lái)了:這些由AI生成出來(lái)的美女是如何生成的呢?
GAN → DiffusioModel → Stable Diffusion
生成對(duì)抗網(wǎng)絡(luò)(Generative Adversarial Networks,GAN)
2014年 Ian GoodFellow提出了生成對(duì)抗網(wǎng)絡(luò),成為早期最著名的生成模型。GAN使用零和博弈策略學(xué)習(xí),在圖像生成中應(yīng)用廣泛。以GAN為基礎(chǔ)產(chǎn)生了多種變體,如DCGAN,StytleGAN,CycleGAN等。
零和博弈是指參與博弈的各方,在嚴(yán)格競(jìng)爭(zhēng)下,一方的收益必然意味著另一方的損失,博弈各方的收益和損失相加總和永遠(yuǎn)為“零”,雙方不存在合作的可能。
一個(gè)簡(jiǎn)單易懂的例子
有兩個(gè)人,都快要渴死了,現(xiàn)在他們面前只有一杯水,搶到水的那人得到的收益是1,沒(méi)搶到水的那個(gè)人會(huì)死掉,收益為-1,總收益為0。這就是零和博弈。
GAN包含兩個(gè)部分:
生成器:學(xué)習(xí)生成合理的數(shù)據(jù)。對(duì)于圖像生成來(lái)說(shuō)是給定一個(gè)向量,生成一張圖片。其生成的數(shù)據(jù)作為判別器的負(fù)樣本。
判別器:判別輸入是生成數(shù)據(jù)還是真實(shí)數(shù)據(jù)。網(wǎng)絡(luò)輸出越接近于0,生成數(shù)據(jù)可能性越大;反之,真實(shí)數(shù)據(jù)可能性越大。

如上圖,我們希望通過(guò)GAN生成一些手寫體來(lái)以假亂真。我們定義生成器與判別器:
生成器:圖中藍(lán)色部分網(wǎng)絡(luò)結(jié)構(gòu),其輸入為一組向量,可以表征數(shù)字編號(hào)、字體、粗細(xì)、潦草程度等。在這里使用特定分布隨機(jī)生成。
判別器:在訓(xùn)練階段,利用真實(shí)數(shù)據(jù)與生成數(shù)據(jù)訓(xùn)練二分類模型,輸出為0-1之間概率,越接近1,輸入為真實(shí)數(shù)據(jù)可能性越大。
生成器與判別器相互對(duì)立。在不斷迭代訓(xùn)練中,雙方能力不斷加強(qiáng),最終的理想結(jié)果是生成器生成的數(shù)據(jù),判別器無(wú)法判別是真是假。(和周伯通的左右互搏很像)
以生成對(duì)抗網(wǎng)絡(luò)為基礎(chǔ)產(chǎn)生的應(yīng)用:圖像超分、人臉替換、卡通頭像生成等。
擴(kuò)散模型(Diffusion Model,里程碑式模型)
擴(kuò)散是受到非平衡熱力學(xué)的啟發(fā),定義一個(gè)擴(kuò)散步驟的馬爾科夫鏈,并逐漸向數(shù)據(jù)中添加噪聲,然后學(xué)習(xí)逆擴(kuò)散過(guò)程,從噪聲中構(gòu)建出所需的樣本。擴(kuò)散模型的最初設(shè)計(jì)是用于去除圖像中的噪聲。隨著降噪系統(tǒng)的訓(xùn)練時(shí)間越來(lái)越長(zhǎng)且越來(lái)越好,可以從純?cè)肼曌鳛槲ㄒ惠斎?,生成逼真的圖片。
馬爾科夫鏈指的是一種隨機(jī)過(guò)程,它的特點(diǎn)是當(dāng)前狀態(tài)只依賴于前一個(gè)狀態(tài),而與其他歷史狀態(tài)無(wú)關(guān)。
一個(gè)馬爾科夫鏈的例子是股市模型,它有三種狀態(tài):牛市、熊市和橫盤。 每種狀態(tài)之間有一定的轉(zhuǎn)移概率,例如從牛市到熊市的概率是0.4,從熊市到牛市的概率是0.2,等等。這樣就可以用一個(gè)轉(zhuǎn)移矩陣來(lái)描述這個(gè)馬爾科夫鏈。
一個(gè)標(biāo)準(zhǔn)的擴(kuò)散模型分為兩個(gè)過(guò)程:前向過(guò)程與反向過(guò)程。在前向擴(kuò)散階段,圖像被逐漸引入的噪聲污染,直到圖像成為完全隨機(jī)噪聲。在反向過(guò)程中,利用一系列馬爾可夫鏈在每個(gè)時(shí)間步逐步去除預(yù)測(cè)噪聲,從而從高斯噪聲中恢復(fù)數(shù)據(jù)。
前向擴(kuò)散過(guò)程,向原圖中逐步加入噪聲,直到圖像成為完全隨機(jī)噪聲。

反向降噪過(guò)程,在每個(gè)時(shí)間步逐步去除噪聲,從而從高斯噪聲中恢復(fù)源數(shù)據(jù)。

擴(kuò)散模型的工作原理是通過(guò)添加噪聲來(lái)破壞訓(xùn)練數(shù)據(jù),然后通過(guò)逆轉(zhuǎn)這個(gè)噪聲過(guò)程來(lái)學(xué)習(xí)恢復(fù)數(shù)據(jù)。換句話說(shuō),擴(kuò)散模型可以從噪聲中生成連貫的圖像。
擴(kuò)散模型通過(guò)向圖像添加噪聲進(jìn)行訓(xùn)練,然后模型學(xué)習(xí)如何去除噪聲。然后,該模型將此去噪過(guò)程應(yīng)用于隨機(jī)種子以生成逼真的圖像。
下圖為向原始圖像中添加噪聲,使原始圖像成為隨機(jī)噪聲。

下圖為從噪聲中恢復(fù)的原始圖像的變種圖像。

Stable Diffusion(Stability AI 文本生成圖像,代碼與模型開(kāi)源)
2022年8月,Stability AI發(fā)布了Stable Diffusion ,這是一種開(kāi)源Diffusion模型,代碼與模型權(quán)重均向公眾開(kāi)放。
通過(guò)prompt提示語(yǔ)“郊區(qū)街區(qū)一棟房子的照片,燈光明亮的超現(xiàn)實(shí)主義藝術(shù),高度細(xì)致8K”,生成圖像如下,整體風(fēng)格與內(nèi)容鍥合度高,AI作畫質(zhì)量較高。
在線體驗(yàn)??https://huggingface.co/spaces/stabilityai/stable-diffusion

仰望星空:AIGC與元宇宙

結(jié)論先行,我認(rèn)為Web3.0就是元宇宙,AIGC為元宇宙提供養(yǎng)料。
第一代互聯(lián)網(wǎng)(Web1.0)是PC(個(gè)人計(jì)算機(jī))互聯(lián)網(wǎng),從1994年發(fā)展至今。Web1.0讓人類第一次掌握高效的傳輸信息的手段,隨著各大網(wǎng)頁(yè)應(yīng)用的普及,互聯(lián)網(wǎng)用戶被迅速的連接起來(lái),從而提升了全球信息的傳輸效率,各大門戶網(wǎng)站從此處開(kāi)始大放異彩。
第二代互聯(lián)網(wǎng)(Web2.0)是移動(dòng)互聯(lián)網(wǎng),從2008年左右拉開(kāi)大幕,至今仍精彩紛呈。正是由于移動(dòng)設(shè)備具備“永遠(yuǎn)在線”和“隨時(shí)隨地”的特點(diǎn),“上網(wǎng)”二字逐漸從大眾的視野消失,因?yàn)槊總€(gè)人時(shí)時(shí)刻刻都生活在網(wǎng)絡(luò)里。
第三代互聯(lián)網(wǎng)(Web3.0)是互聯(lián)網(wǎng)的下一代技術(shù)發(fā)展方向,主要特征是去中心化、安全、開(kāi)放和自主。元宇宙是一種虛擬的、持續(xù)的、共享的和交互的數(shù)字世界,可以讓人們以不同的身份和形式參與其中。Web 3.0為元宇宙提供了技術(shù)基礎(chǔ)和可能性,而元宇宙則是Web3.0在應(yīng)用場(chǎng)景和生活方式上的體現(xiàn)。
百度百科對(duì)于元宇宙的定義是??
元宇宙(Metaverse),是人類運(yùn)用數(shù)字技術(shù)構(gòu)建的,由現(xiàn)實(shí)世界映射或超越現(xiàn)實(shí)世界,可與現(xiàn)實(shí)世界交互的虛擬世界,具備新型社會(huì)體系的數(shù)字生活空間。
本質(zhì)上,元宇宙是一種新型社會(huì)形態(tài),在元宇宙中,更多工作和生活將被數(shù)字化。
更多的數(shù)字化,意味著需要更豐富的虛擬地圖、虛擬場(chǎng)景、虛擬對(duì)象和虛擬角色,這其中涉及到大量數(shù)字內(nèi)容的生產(chǎn)和制作。以往,數(shù)字內(nèi)容制作開(kāi)發(fā)周期較長(zhǎng),通常以年計(jì),在生產(chǎn)方式上,或來(lái)源于現(xiàn)實(shí),通過(guò)掃描或重建模型實(shí)現(xiàn)材質(zhì)、光影、動(dòng)作捕捉等,或通過(guò)創(chuàng)作工具輔助藝術(shù)家實(shí)現(xiàn)。而這些剛好是AIGC所擅長(zhǎng)的。AIGC廣泛的適用性可以為元宇宙提供全新內(nèi)容生成解決方案。
?? 腦洞一下 開(kāi)放世界游戲一直被大家視作元宇宙“數(shù)字世界”的雛形,試想一下,如果未來(lái)的3A大作,NPC的臉部模型、肢體動(dòng)作是Diffusion Model生成的,聊天是ChatGPT和你對(duì)話,語(yǔ)音是Deep Voice創(chuàng)作的,你還會(huì)覺(jué)得他就只是一個(gè)普普通通的NPC嗎?抑或是,此時(shí)看文章的你,才是地球Online里的一個(gè)NPC呢?
腳踏實(shí)地:AIGC的應(yīng)用場(chǎng)景
元宇宙目前還只是大家的一個(gè)美好幻想,Web3.0究竟走向何方還需要大家共同探索,作為時(shí)代的先鋒,既要學(xué)會(huì)抬頭仰望星空,也不能忘記低頭看路。
如今,AIGC的浪潮已起,作為非算法行業(yè)的從業(yè)者,底層的算法實(shí)現(xiàn)并非我們關(guān)心的重點(diǎn),如何發(fā)揮AI的作用,創(chuàng)造出實(shí)際的價(jià)值才是我們應(yīng)該探討的方向。除了聊天機(jī)器人、畫畫這種不痛不癢的功能外,AIGC可能會(huì)顛覆的應(yīng)用場(chǎng)景會(huì)有哪些呢?
人工智能助理
AIGC+搜索已經(jīng)成為我現(xiàn)在獲取信息的第一途徑了。目前,New Bing作為我的貼心小助手,不管是什么想要了解的知識(shí)點(diǎn),他都可以快速的給我解答,省去了我在海量信息中篩選的過(guò)程。


輔助工作流

摘自Microsoft 365 Copilot官網(wǎng)
人類天生就有夢(mèng)想、創(chuàng)造、創(chuàng)新的本能。我們每個(gè)人都渴望做一些有意義的工作——寫一部偉大的小說(shuō),做一個(gè)發(fā)現(xiàn),建立一個(gè)強(qiáng)大的社區(qū),照顧生病的人。我們都有與工作核心相連的沖動(dòng)。但是今天,我們花了太多時(shí)間在那些消耗我們時(shí)間、創(chuàng)造力和精力的瑣碎任務(wù)上。為了重新連接到工作的靈魂,我們不僅需要一種更好地做同樣事情的方法。我們需要一種全新的工作方式。 —— 翻譯自 ChatGPT
GPT4發(fā)布的第二天,Microsoft 365 Copilot變橫空出世,宣傳片相信大家都已經(jīng)看到了,從此以后我們的工作方式將永遠(yuǎn)改變,開(kāi)啟新一輪的生產(chǎn)力大爆發(fā)。
除此之外,前段時(shí)間筆記軟件Notion也上線了自己的AI助手,可以幫助用戶更輕松、更快捷地完成日常任務(wù)。主要包括自動(dòng)文本生成、內(nèi)容推薦、智能搜索、情感分析等。

可以預(yù)見(jiàn),AIGC的出現(xiàn)將會(huì)極大的改變現(xiàn)有的工作模式,未來(lái),越來(lái)越多的效率軟件、辦公軟件將會(huì)推出其自己的AI解決方案。
?? 插播一條行業(yè)動(dòng)態(tài) 36氪獨(dú)家獲悉,釘釘已完成對(duì)協(xié)同辦公廠商「我來(lái)wolai」的全資收購(gòu)。3月5日,我來(lái)wolai(上海我云網(wǎng)絡(luò)科技有限公司)數(shù)位核心團(tuán)隊(duì)成員已經(jīng)退出公司股東名單。公司法人已變?yōu)獒斸斂偛萌~軍,公司則由阿里100%控股。36氪就上述消息向釘釘求證,釘釘官方表示:我來(lái)wolai團(tuán)隊(duì)已加入釘釘,將負(fù)責(zé)智能化協(xié)作文檔的研發(fā),和個(gè)人版文檔的產(chǎn)品設(shè)計(jì)。
文本生成器(對(duì)話、文案、代碼……)

筆者最近一直沉迷“以xxx的口吻調(diào)教ChatGPT”,上圖便是在績(jī)效季到來(lái)之際用chatGPT給老板們整的活,別的不說(shuō),效果還是蠻不錯(cuò)的。自行跳轉(zhuǎn)???《老板評(píng)語(yǔ)生成器》
ChatGPT最強(qiáng)大的便是其背后的龐大數(shù)據(jù),基于此,你甚至可以讓那些不存在的人物、已故的人物出現(xiàn)。筆者最近剛看完電視劇《三體》,如果真的有一款“三體游戲”,里面的墨子、秦始皇等人物會(huì)不會(huì)就是ChatGPT生成的呢?
如果你也想調(diào)教出一個(gè)自己的對(duì)話機(jī)器人,可以試試這個(gè)網(wǎng)站??https://open-gpt.app/
關(guān)于AIGC的落地,最后推薦兩個(gè)和我們飯碗有關(guān)的AIGC產(chǎn)品
Codeium

Github Copilot

AIGC在倫理問(wèn)題上的攻與守
攻——利用AIGC生成有害內(nèi)容
AIGC技術(shù)強(qiáng)大的創(chuàng)作能力也引發(fā)對(duì)技術(shù)作惡的擔(dān)憂。當(dāng)要求類ChatGPT應(yīng)用制造有害信息時(shí),它確實(shí)可以做到,輸出主要以文本和圖片為主。
網(wǎng)絡(luò)詐騙話術(shù)教學(xué)者
人機(jī)交互意味著無(wú)限可能,ChatGPT 可能會(huì)遵守某種虛假設(shè)定下的邪惡指令。
黑產(chǎn)團(tuán)伙可精細(xì)化訓(xùn)練AIGC技術(shù)生成各類話術(shù),用于網(wǎng)絡(luò)詐騙、評(píng)論刷量等,不僅能夠主動(dòng)發(fā)帖,還會(huì)對(duì)其他用戶的帖子做出響應(yīng),并展開(kāi)長(zhǎng)期的運(yùn)營(yíng)。
錯(cuò)誤信息超級(jí)傳播者
ChatGPT的不可靠之處還在于,可能會(huì)加劇虛假消息和錯(cuò)誤消息的傳播。ChatGPT不具有識(shí)別甄別能力,給出的答案很可能拼湊而來(lái),看似合理,卻暗藏事實(shí)性錯(cuò)誤。如果用戶沒(méi)有這方面的鑒別能力,就可能產(chǎn)生比較大的風(fēng)險(xiǎn),特別是在一些政治文化、醫(yī)療健康、交通安全方面的話題,錯(cuò)誤的回答可能引起嚴(yán)重后果。
色情暴力素材生成機(jī)
用戶利用AIGC生成虛假名人照片等違禁圖片,甚至?xí)谱鞒霰┝托杂嘘P(guān)的畫作,LAION-5B數(shù)據(jù)庫(kù)包含色情、種族、惡意等內(nèi)容,目前海外已經(jīng)出現(xiàn)基于Stable Diffusion模型的色情圖片生成網(wǎng)站。
AIGC對(duì)個(gè)人肖像權(quán)等權(quán)利的侵犯
finance.sina.com.cn
AIGC對(duì)原創(chuàng)作品的版權(quán)侵犯
網(wǎng)易LOFTER風(fēng)波警醒了誰(shuí)?_風(fēng)聞
守——如何應(yīng)對(duì)AIGC的“暗黑”一面?
在可預(yù)見(jiàn)的未來(lái),AIGC將會(huì)以井噴的態(tài)勢(shì)席卷各個(gè)行業(yè),在享受AI賦能我們生產(chǎn)力的同時(shí),也應(yīng)該警惕AIGC帶來(lái)的危害。
《Nature》雜志在《ChatGPT: five priorities for research》一文中提到,對(duì)AIGC的進(jìn)一步研究需要關(guān)注的五個(gè)問(wèn)題:
務(wù)必要對(duì)模型進(jìn)行持續(xù)校對(duì);
制定問(wèn)責(zé)制與規(guī)則;
投資于真正開(kāi)放的大語(yǔ)言模型;
擴(kuò)大辯論范圍;
擁抱人工智能的好處。
ChatGPT會(huì)設(shè)置多層道德底線,兼顧科學(xué)和倫理,約束“經(jīng)濟(jì)人”行為,以保持“人盡其才、物盡其用”特性。未來(lái),亦有可能出現(xiàn)“以子之矛,攻子之盾”的場(chǎng)景,用AI去識(shí)別/對(duì)抗AI。
也許未來(lái)會(huì)出現(xiàn)很多這樣的文章?? 《一種基于xxx的AI文本/圖像檢測(cè)技術(shù)》
最后
對(duì)行業(yè)的思考
Meta AI 負(fù)責(zé)人、圖靈獎(jiǎng)得主楊立昆Yann LeCun近日表示:就底層技術(shù)而言,ChatGPT 并沒(méi)有特別的創(chuàng)新。與其說(shuō) ChatGPT 是一個(gè)科學(xué)突破,不如說(shuō)它是一個(gè)像樣的工程實(shí)例。

AI人工智能的底層三大件,數(shù)據(jù),算力,算法的發(fā)展給ChatGPT的出現(xiàn)提供了爆發(fā)的基礎(chǔ),Open AI 將它組合的很好,不但是算法而且還包括了算力,數(shù)據(jù)。
數(shù)據(jù)方面,互聯(lián)網(wǎng)的幾十年高速發(fā)展,積累了海量人類的文本。
算力方面,計(jì)算機(jī)技術(shù)的發(fā)展,從芯片的制程到類似Chiplet,等助力AI芯片蓬勃發(fā)展。
算法,從神經(jīng)元算法起步,到Transformer 等各類算法的爐火純青的應(yīng)用。
所以AI底層三大件的發(fā)展,一定會(huì)催生出更多類似于ChatGPT的通用人工智能應(yīng)用,但我們更應(yīng)該關(guān)注底層三大件的發(fā)展,未來(lái)數(shù)據(jù)類似于寶藏和礦產(chǎn);芯片算力,成了決勝AI的大器,沒(méi)有芯片那么數(shù)據(jù)礦產(chǎn)無(wú)法挖掘;算法,猶如礦藏提純配方。
對(duì)于行業(yè)而言,未來(lái)做好AI三大件的工作,才能在AI時(shí)代贏得紅利。
對(duì)個(gè)人的啟發(fā)
說(shuō)到最后,很多人變得焦慮,擔(dān)心自己會(huì)被取代,那么從個(gè)人的角度出發(fā),我們對(duì)于AIGC的態(tài)度究竟應(yīng)該是什么樣的呢?
馬克思說(shuō)過(guò),人和其他動(dòng)物的最大區(qū)別是“使用工具制造工具”,而GPT是進(jìn)入信息時(shí)代以來(lái),人類最偉大的工具之一。使用 GPT 能夠直接調(diào)用人類千年以來(lái)積累的知識(shí)與技能,對(duì)于我們普通人而言,自己身上沒(méi)有神跡,也非天才,與其嘗試與機(jī)器、GPT和AI競(jìng)爭(zhēng),不如站在AI這個(gè)巨人的肩膀上,利用這些工具讓自己變得更強(qiáng)。文章來(lái)源:http://www.zghlxwxcb.cn/news/detail-494822.html
未來(lái),能否使用AI將會(huì)成為衡量一個(gè)人能力的標(biāo)準(zhǔn)之一。就像當(dāng)年智能設(shè)備普及時(shí),那些不會(huì)使用智能手機(jī)的人注定會(huì)被淘汰一樣。文章來(lái)源地址http://www.zghlxwxcb.cn/news/detail-494822.html
到了這里,關(guān)于聊一聊AIGC的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!