這是一篇非學(xué)術(shù)專業(yè)性的文章,而我也是為了解chatGPT而學(xué)了兩三天人工智能,所以哪里寫的不好的不對(duì)的地方還希望海涵。
圖靈測(cè)試
1950年,人工智能之父艾倫·圖靈提出樂“圖靈測(cè)試”。就是說當(dāng)你在不面對(duì)面的時(shí)候跟機(jī)器人進(jìn)行文字聊天的時(shí)候,如果你很難分辨出來對(duì)方是一個(gè)人還是一個(gè)機(jī)器人,那么在一定程度上可以說這個(gè)機(jī)器它是智能的。
Eliza與Alice
1966年,MIT實(shí)驗(yàn)室發(fā)明了一個(gè)聊天機(jī)器人Eliza,但是背后就是簡(jiǎn)單的if…then的代碼,例如你輸入媽媽這個(gè)關(guān)鍵詞,它就會(huì)返回設(shè)定好的關(guān)于家庭之類的內(nèi)容。即使是在后面推出了更強(qiáng)大的Alice,其實(shí)現(xiàn)邏輯仍然是if…then語句。但是從智能的角度講,這種限定規(guī)則的機(jī)器人就算你的規(guī)則寫得再復(fù)雜也不可能窮盡所有答案,更不可能創(chuàng)造新的答案。因此,這兩種機(jī)器人都不算是智能機(jī)器人。
SmarterChild
2001年,smarterChild使用了機(jī)器學(xué)習(xí)里面的模型,讓聊天變得更自然,算是ChatGPT的前輩了,2007年微軟收購了SmarterChild
神經(jīng)網(wǎng)絡(luò)
1960年,神經(jīng)網(wǎng)絡(luò)在1960年提出,但是當(dāng)時(shí)沒有海量數(shù)據(jù)集和強(qiáng)大的算力支持,所以神經(jīng)網(wǎng)絡(luò)就擱置了。到了2010年,互聯(lián)網(wǎng)時(shí)代的到來也帶來了海量數(shù)據(jù)和強(qiáng)大算力。計(jì)算機(jī)通過神經(jīng)網(wǎng)絡(luò),對(duì)海量數(shù)據(jù)慢慢摸索出規(guī)律?,F(xiàn)在它的應(yīng)用非常廣泛了,像聲音識(shí)別、自動(dòng)駕駛、AlphaGo圍棋機(jī)器人,但是神經(jīng)網(wǎng)絡(luò)回到文字領(lǐng)域就不太順利了。因?yàn)闄C(jī)器學(xué)習(xí)一般都是使用循環(huán)神經(jīng)網(wǎng)絡(luò)RNN來處理文字的,主要的方式就是按照一個(gè)個(gè)詞處理。
Transformer
可以讓機(jī)器同時(shí)學(xué)習(xí)大量的文字?,F(xiàn)在很多自然語言處理模型都是建立在Transformer的基礎(chǔ)上的。
OpenAI
2015年,OpenAI公司成立。2017年,OpenAI基于Transformer論文的基礎(chǔ)上介紹了一個(gè)新的語言學(xué)習(xí)模型GPT(Generative Pre-trained Transformer)。
2018年6月推出了第一代GPT,參數(shù)為1.2億個(gè)
2019年11月推出了GPT-2,參數(shù)為15億個(gè)
2020年6月推出了GPT-3,參數(shù)為1750億個(gè)
人工反饋的強(qiáng)化學(xué)習(xí)
在此之后無論再怎么加大參數(shù)量,GPT-3的提升和改善都非常有限,這個(gè)是因?yàn)樵谟?xùn)練的時(shí)候沒有一個(gè)非常好的反饋機(jī)制,就是沒有人告訴它怎么回答是好的,怎樣回答是不好的。為了解決這個(gè)問題,OpenAI就在訓(xùn)練的時(shí)候加入了一個(gè)人工反饋的機(jī)制,專業(yè)術(shù)語就是人工反饋的強(qiáng)化學(xué)習(xí)。
chatGPT
2022年11月,chatGPT誕生了!chatGPT相對(duì)于講得對(duì)不對(duì),它更在意說的像不像人類,所以chatGPT偶爾也會(huì)出現(xiàn)邏輯性的錯(cuò)誤。文章來源:http://www.zghlxwxcb.cn/news/detail-406231.html
視頻分享:【一口氣搞清楚ChatGPT | 牛X在哪?誰會(huì)失業(yè)?巨頭商戰(zhàn)…】 文章來源地址http://www.zghlxwxcb.cn/news/detail-406231.html
到了這里,關(guān)于今天我們來淺談一下ChatGPT到底是什么東西的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!