歡迎訂閱專欄
《AI日報》
獲取人工智能鄰域最新資訊麻省理工學院的政策簡報概述了各部門對人工智能監(jiān)管的必要性,強調了人工智能的法律和倫理治理挑戰(zhàn)
總覽
麻省理工學院的學者主張強制性的人工智能內容標簽和更嚴格的人工智能法律。
呼吁人工智能安全發(fā)展
麻省理工學院的研究人員和學者們撰寫了一份政策文件,呼吁美國政府利用現(xiàn)有法規(guī)擴大人工智能的治理。
這份長達10頁的文件“創(chuàng)建一個安全繁榮的人工智能行業(yè)”,提出當前的法律框架應涵蓋人工智能——比如將醫(yī)療監(jiān)管擴展到人工智能診斷。他們還希望人工智能被監(jiān)管政府活動的規(guī)則所涵蓋,包括警務、保釋和雇傭。
該組織表示,有關人工智能的法律法規(guī)應由管理人類行為的同一實體執(zhí)行,而非同一領域的人工智能,并補充道:“這可能需要這些實體發(fā)展一些人工智能專業(yè)知識。”
該政策文件寫道:“如果不使用人工智能的人類活動受到監(jiān)管,那么人工智能的使用也應該受到類似的監(jiān)管。在人工智能的適用范圍內,人工智能系統(tǒng)的開發(fā)、銷售和使用應盡可能遵循與人類在沒有人工智能的情況下行動相同的標準和程序?!?/p>
麻省理工學院的小組認為,這將確保現(xiàn)有法律涵蓋更高風險的申請。論文中提到的一個已經(jīng)在探索的領域是自動駕駛汽車,它與人類駕駛的汽車遵循相同的標準。
具體建議
大語言模型
該報告的作者認為,那些構建通用人工智能系統(tǒng)的人,如ChatGPT,應該被要求在發(fā)布前確定此類系統(tǒng)的預期用途。他們還建議監(jiān)管機構發(fā)布定義預期用途的規(guī)則,這樣開發(fā)者就可以確保他們的系統(tǒng)與布局相匹配。
知識產(chǎn)權
該組織還呼吁澄清人工智能引起的知識產(chǎn)權侵權行為,包括創(chuàng)作者如何防范和識別潛在侵權行為。建議的一種方法是強制標注人工智能生成的內容。
該論文寫道:“目前尚不清楚當前的監(jiān)管和法律框架在涉及人工智能時是否適用,以及如何適用,以及它們是否能夠勝任這項任務。這讓提供商、用戶和公眾陷入了一種警告自負的境地。幾乎沒有什么可以阻止風險系統(tǒng)的發(fā)布和使用,也沒有什么動力主動發(fā)現(xiàn)、披露或補救問題?!?。
“需要對人工智能進行進一步的澄清和監(jiān)督,以促進有益的人工智能的開發(fā)和部署,并更全面、更順利地實現(xiàn)人工智能對所有美國人的潛在好處。”
麻省理工學院施瓦茨曼計算學院院長Dan Huttenlocher告訴麻省理工新聞:“作為一個國家,我們已經(jīng)在監(jiān)管許多相對高風險的事情,并在那里提供治理。”?!拔覀儾⒉皇钦f這就足夠了,但讓我們從人類活動已經(jīng)受到監(jiān)管的地方開始,隨著時間的推移,社會已經(jīng)決定哪些地方是高風險的。這樣看待人工智能才是可行的方法?!?mark hidden color="red">文章來源:http://www.zghlxwxcb.cn/news/detail-761151.html
其他
還發(fā)表了幾篇額外的政策文件,涵蓋大型語言模型、支持人工智能和標記人工智能生成的內容。文章來源地址http://www.zghlxwxcb.cn/news/detail-761151.html
到了這里,關于AI日報:麻省理工學院專家呼吁擴大人工智能治理和監(jiān)管的文章就介紹完了。如果您還想了解更多內容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關文章,希望大家以后多多支持TOY模板網(wǎng)!