在人工智能爆火的當下,去討論以ChatGPT為首的人工智能的優(yōu)劣,容易引起上綱上線的麻煩。
所以在開始之前我們先說好,今天不聊主義聊生活;不聊抽象聊具體;不聊結(jié)構(gòu)聊個體,這是大前提。????????
.....
最近幾天,人工智能風險引發(fā)了多位科技領(lǐng)袖的深切擔憂。
首先是被稱為“人工智能教父”的杰弗里·辛頓(Geoffrey Hinton),他上周在接受哥倫比亞廣播公司采訪時表示,人工智能可能發(fā)展到對人類構(gòu)成威脅“并非不可想象”的地步。
隨后,AI“大?!鄙w瑞·馬庫斯(Gary Marcus)3月27日發(fā)推響應(yīng)辛頓,28日又發(fā)表題為“人工智能風險≠通用人工智能風險”的文章,稱超級智能可能會也可能不會迫在眉睫,但在短期內(nèi),需要擔心“MAI(平庸人工智能)風險”。
27日,推特CEO伊隆·馬斯克也加入進來,表達對辛頓和馬庫斯的贊同。
馬斯克在社交網(wǎng)絡(luò)上與杰弗里·辛頓和蓋瑞·馬庫斯互動。
29日,生命未來研究所(Future of Life Institute)公布一封公開信,呼吁所有AI實驗室立即暫停訓(xùn)練比GPT-4更強大的AI系統(tǒng)至少6個月。辛頓、馬庫斯和馬斯克均簽署了這封公開信。
“加快開發(fā)強大的AI治理系統(tǒng)”
生命未來研究所的這封公開信題為“暫停巨型AI實驗:一封公開信”,于29日解封。
未來生命研究所的公開信已有1079人簽署。
信中寫道:廣泛的研究表明,具有與人類競爭智能的人工智能系統(tǒng)可能對社會和人類構(gòu)成深遠的風險,這一觀點得到了頂級人工智能實驗室的承認。正如廣泛認可的“阿西洛馬人工智能原則(Asilomar AI Principles,阿西莫夫的機器人三大法則的擴展版本,于2017年由近千名人工智能和機器人專家簽署)中所述,高級AI可能代表地球生命史上的深刻變化,應(yīng)該以相應(yīng)的關(guān)照和資源進行規(guī)劃和管理。不幸的是,這種級別的規(guī)劃和管理并沒有發(fā)生,盡管最近幾個月人工智能實驗室陷入了一場失控的競賽,以開發(fā)和部署更強大的數(shù)字思維,沒有人——甚至他們的創(chuàng)造者——能理解、預(yù)測或可靠地控制。文章來源:http://www.zghlxwxcb.cn/news/detail-430665.html
截至發(fā)稿,這封信已有1079名科技領(lǐng)袖和研究人員簽名,除了馬斯克、辛頓和馬庫斯之外,還包括圖靈獎得主約書亞·本希奧(Yoshua Bengio)、《人工智能:現(xiàn)代方法》作者斯圖爾特·羅素(Stuart Russell)、 蘋果公司聯(lián)合創(chuàng)始人史蒂夫·沃茲尼亞克(Steve Wozni文章來源地址http://www.zghlxwxcb.cn/news/detail-430665.html
到了這里,關(guān)于走過最長的路是ChatGPT的套路,信過最真的話是Adobe的Firefly的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!