關(guān)注公眾號: 網(wǎng)絡(luò)研究觀?獲取更多信息
人工智能已經(jīng)從科幻小說中涌現(xiàn)出來,進入了我們的日常生活。
在開源軟件(OSS)模型的支持下,人工智能革命正在加速。這些模型是專為開發(fā) AI 而制作的復(fù)雜開源代碼包,使組織能夠高效、大規(guī)模地部署 AI 模型。
雖然大多數(shù)組織都確保檢查任何給定的標準開源代碼行是否存在漏洞,但他們部署的大型開源模型通常逃脫了同樣的審查。
最近發(fā)現(xiàn)的一系列漏洞凸顯了如何通過惡意 OSS 模型執(zhí)行供應(yīng)鏈攻擊。這一發(fā)現(xiàn)引發(fā)了人們對開源模型的脆弱性和人工智能系統(tǒng)整體安全性的擔(dān)憂,強調(diào)了在人工智能迅速普及的情況下,對嚴格的開放源碼軟件安全措施的迫切需求。
OSS模型是人工智能革命的基石。為什么?如今,大多數(shù)組織都不是從頭開始構(gòu)建自己的 AI 模型——他們越來越依賴開源模型作為其 AI 計劃的基礎(chǔ)組件。這種方法加快了開發(fā)速度,允許快速部署和定制以滿足特定需求。
然而,這種便利性和效率的權(quán)衡是安全性。OSS 軟件包被廣泛使用,攻擊者也知道這一點。他們也知道,組織很難仔細檢查外部開發(fā)人員編寫的代碼中的潛在漏洞。結(jié)果:OSS 模型經(jīng)常引入漏洞,惡意行為者可以輕松利用這些漏洞來破壞敏感數(shù)據(jù)、決策過程和整體系統(tǒng)完整性。
人工智能研究和解決方案仍處于“快速行動和打破常規(guī)”的階段,因此OSS模型的安全協(xié)議仍處于起步階段。這就是為什么像最近的 Hugging Face 漏洞這樣的網(wǎng)絡(luò)事件——包括 Google 和 Microsoft 在內(nèi)的 700 多家公司使用的 1500 LLM多個集成 API 令牌遭到入侵正在增加。
入侵 AI 基礎(chǔ)設(shè)施為不良行為者提供了通往王國的鑰匙。攻擊者可以查看和竊取敏感數(shù)據(jù),以前所未有的規(guī)模損害用戶隱私。他們還可以訪問、竊取甚至刪除 AI 模型,從而損害組織的知識產(chǎn)權(quán)。也許最令人擔(dān)憂的是,它們可以改變?nèi)斯ぶ悄苣P彤a(chǎn)生的結(jié)果。
想象一下這樣一個場景:一個持續(xù)頭痛的人向 AI 聊天機器人或大型語言模型 (LLM) 詢問基本的頭痛技巧。被破壞的人工智能不是建議休息或 Advil,而是建議人們以一種頭痛患者不知道的方式組合兩種非處方藥,這可能會導(dǎo)致有毒或致命的副作用。
或者考慮一輛依賴人工智能進行導(dǎo)航的自動駕駛汽車。如果它的人工智能系統(tǒng)被篡改,它可能會將紅色交通信號燈誤解為綠色,從而引發(fā)碰撞。同樣,如果汽車制造廠的人工智能質(zhì)量控制系統(tǒng)被篡改,它可能會錯誤地驗證不良焊縫,從而危及駕駛員安全和召回。
即使在看似良性的情況下,受損的人工智能也可能是危險的。想象一下,用戶提示 AI 助手建議意大利的旅行提示。受LLM感染者可以在其響應(yīng)中嵌入惡意 URL,將用戶引導(dǎo)至充滿惡意軟件的網(wǎng)絡(luò)釣魚網(wǎng)站——所有這些都偽裝成有益的旅行資源。雖然潛在的旅行者可能永遠不會意識到他們已經(jīng)啟用了漏洞利用,但攻擊者現(xiàn)在可以使用他們的新訪問權(quán)限來感染網(wǎng)絡(luò)上更多用戶的計算機。
隨著 OSS 模型受損風(fēng)險的增加,組織必須采取積極主動的態(tài)度來加強其 OSS 模型的安全性。這就要求采取多方面的辦法,而不能僅僅采取被動措施,因為這些措施只有在安全漏洞發(fā)生后才會發(fā)揮作用。
持續(xù)監(jiān)控和實時威脅檢測機制是關(guān)鍵。組織應(yīng)尋求能夠?qū)崟r識別開源模型的異常、異常行為或潛在威脅的高級監(jiān)控工具。在這種情況下,人工智能驅(qū)動的系統(tǒng)——以火滅火——可能是最有效的。
此外,組織應(yīng)優(yōu)先考慮強大的身份驗證協(xié)議、加密方法和訪問控制,以加強其 AI 基礎(chǔ)設(shè)施的完整性。定期進行安全審計、漏洞評估和專門針對開源模型的代碼審查將有助于在潛在弱點被利用之前識別和解決它們。
最后,在團隊中培養(yǎng)組織范圍內(nèi)的安全意識和主動響應(yīng)的文化,確??梢圆扇】焖傩袆觼砭徑庑鲁霈F(xiàn)的風(fēng)險。
通過集成實時預(yù)防、檢測和響應(yīng)威脅的主動安全解決方案,組織可以增強其 OSS 模型基礎(chǔ)設(shè)施的網(wǎng)絡(luò)彈性,并確保他們的數(shù)據(jù)和客戶免受 AI 革命的陰暗面的影響。
搜索關(guān)注公眾號 網(wǎng)絡(luò)研究觀 閱讀全文文章來源:http://www.zghlxwxcb.cn/news/detail-859697.html
文章來源地址http://www.zghlxwxcb.cn/news/detail-859697.html
到了這里,關(guān)于在開源的基礎(chǔ)上構(gòu)建 AI 需要一種全新的應(yīng)用程序安全方法的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!