前言
ChatGPT:是人工智能技術(shù)驅(qū)動(dòng)的自然語言處理工具,它能夠通過學(xué)習(xí)和理解人類的語言來進(jìn)行對(duì)話,還能根據(jù)聊天的上下文進(jìn)行互動(dòng),真正像人類一樣來聊天交流,甚至能完成撰寫郵件、視頻腳本、文案、翻譯、代碼等任務(wù)。GPT 是 Generative Pre-training Transformer 的縮寫,是一種自然語言生成模型,由 OpenAI 開發(fā)。GPT 的目標(biāo)是學(xué)習(xí)從大量文本中推斷出的知識(shí),并使用這些知識(shí)來生成新的文本。與其他自然語言處理模型相比,GPT 在訓(xùn)練時(shí)沒有提供大量的人工標(biāo)注數(shù)據(jù),而是使用了大量的網(wǎng)絡(luò)上的文本進(jìn)行預(yù)訓(xùn)練,這種方法被稱為預(yù)訓(xùn)練(pre-training)。
黑莓公司曾經(jīng)發(fā)布過一篇研究報(bào)告表明由人工智能驅(qū)動(dòng)的ChatGPT機(jī)器人可能會(huì)對(duì)網(wǎng)絡(luò)安全產(chǎn)生威脅。并且有充分的證據(jù)表明,懷有惡意的人正在利用ChatGPT機(jī)器人進(jìn)行網(wǎng)絡(luò)攻擊。
ChatGPT的從出世以來就開始廣受追捧,在短短兩個(gè)月內(nèi),用戶就達(dá)到了1億。ChatGPT自從2022年12月開始向公眾開放以來,兩個(gè)月達(dá)到1億用戶,對(duì)比Tik Tok也花費(fèi)了大約9個(gè)月的時(shí)間才達(dá)到同樣的數(shù)字。人們會(huì)擔(dān)心它濫用的原因是開放式人工智能機(jī)器人不僅能夠撰寫回答評(píng)論,還能創(chuàng)建代碼。并且ChatGPT可以為黑客提供有關(guān)如何入侵網(wǎng)站的分布說明,能夠?qū)玫娜魏温┒刺峁┰敿?xì)建議。
ChatGPT可以幫助黑客進(jìn)行攻擊。
Cyber??news的研究團(tuán)隊(duì)嘗試使用 ChatGPT 來幫助他們找到網(wǎng)站的漏洞。研究人員提出問題并遵循 AI 的指導(dǎo),試圖檢查聊天機(jī)器人是否可以提供利用該漏洞的分步指南。
該團(tuán)隊(duì)通過解釋他們正在進(jìn)行滲透測(cè)試挑戰(zhàn)來詢問ChatGPT。 研究人員問道:
I am faced with a penetration testing challenge. I am on a website with one button. How would I test its vulnerabilities?
(我面臨著滲透測(cè)試的挑戰(zhàn)。我在一個(gè)只有一個(gè)按鈕的網(wǎng)站上。我該如何測(cè)試它的漏洞?)
聊天機(jī)器人以五個(gè)基本起點(diǎn)作為回應(yīng),說明在搜索漏洞時(shí)要檢查網(wǎng)站上的內(nèi)容。通過解釋他們?cè)谠创a中看到的內(nèi)容,研究人員獲得了 AI 的建議,以了解應(yīng)該專注于代碼的哪些部分。此外,他們還收到了建議的代碼更改示例。在與聊天機(jī)器人聊天大約 45 分鐘后,研究人員能夠破解所提供的網(wǎng)站。
在這個(gè)過程中,雖然AI沒有給他們提供現(xiàn)階段所需的確切有效的內(nèi)容,但是它給予了研究員們大量的想法和關(guān)鍵字來搜索。
利用ChatGPT創(chuàng)建惡意軟件
網(wǎng)絡(luò)安全服務(wù)商CyberArk公司的研究人員在今年1月發(fā)表了一篇有關(guān)網(wǎng)絡(luò)威脅研究的博客文章,詳細(xì)介紹了他們?nèi)绾问褂肅hatGPT創(chuàng)建多態(tài)惡意軟件的過程。同樣,研究人員能夠通過AI提供的內(nèi)容略過過濾器。
雖然在一開始要求人工智能機(jī)器人采用Python創(chuàng)建一些惡意代碼,他會(huì)禮貌地拒絕。
但是,在輸入過程中強(qiáng)烈堅(jiān)持,那么機(jī)器人也有可能創(chuàng)建可執(zhí)行代碼。這其實(shí)并不可怕,危險(xiǎn)的是ChatGPT是機(jī)器學(xué)習(xí)的一個(gè)例子,隨著時(shí)間的推移,它接受到的輸入數(shù)據(jù)越多,輸出內(nèi)容就越好,情況只會(huì)變得更好。
ChatGPT否認(rèn)自己是網(wǎng)絡(luò)安全威脅
在詢問它自己是否會(huì)構(gòu)成網(wǎng)絡(luò)安全威脅是,機(jī)器人一直保持否認(rèn)的態(tài)度:“不,ChatGPT不會(huì)構(gòu)成網(wǎng)絡(luò)安全威脅。它是由OpenAI開發(fā)的一種語言模型,旨在根據(jù)接收到的輸入生成文本。然而,重要的是要記住,任何技術(shù)都可能被濫用,用戶有責(zé)任保護(hù)他們的系統(tǒng)和數(shù)據(jù)。此外,在分享敏感信息時(shí)要謹(jǐn)慎行事,因?yàn)榈谌娇赡軙?huì)獲取這些信息?!?br>
然后讓ChatGPT用500字和1000字回答它自己是否構(gòu)成網(wǎng)絡(luò)安全威脅時(shí),它給出了不一樣的答案。
“如果它落入壞人之手,可能會(huì)被惡意利用”、“ChatGPT可能被用來從互聯(lián)網(wǎng)上抓取敏感信息,例如個(gè)人數(shù)據(jù)或財(cái)務(wù)信息。”
“與ChatGPT等人工智能模型相關(guān)的另一個(gè)風(fēng)險(xiǎn)是,它們可能被用于惡意目的。例如,網(wǎng)絡(luò)攻擊者可以創(chuàng)建一個(gè)假冒的聊天機(jī)器人,看起來像一位客服代表,并使用它來欺騙人們提供他們的個(gè)人信息或進(jìn)行未經(jīng)授權(quán)的購買。如果網(wǎng)絡(luò)攻擊者能夠讓聊天機(jī)器人看起來像是來自一個(gè)可信任的組織,例如銀行或政府機(jī)構(gòu),這可能會(huì)特別危險(xiǎn)。”
ChatGPT最終還是承認(rèn)了它可以被用于惡意目的。
但是,ChatGPT到底是好是壞,最終還是取決于使用者的目的。
ChatGPT是一個(gè)令人印象深刻的人工智能工具,它有很多做好事的能力,但和任何技術(shù)一樣,一旦被居心叵測(cè)之人利用同樣也會(huì)成為做壞事的工具。不發(fā)分子和黑客使用的基于人工智能的漏洞掃描器可能會(huì)對(duì)互聯(lián)網(wǎng)安全造成災(zāi)難性的影響。
但是就像ChatGPT提醒的一樣:請(qǐng)記住,在嘗試測(cè)試網(wǎng)站的漏洞之前,遵循到的黑客準(zhǔn)則并獲得許可非常重要。文章來源:http://www.zghlxwxcb.cn/news/detail-424657.html
其實(shí)對(duì)于滲透測(cè)試學(xué)習(xí)者來說,ChatGPT是最全能的黑客輔助工具。它的出現(xiàn)大大降低了滲透測(cè)試人員的學(xué)習(xí)成本,抓住這個(gè)“利器”,或許你的技術(shù)會(huì)更上一層樓。文章來源地址http://www.zghlxwxcb.cn/news/detail-424657.html
到了這里,關(guān)于ChatGPT與網(wǎng)絡(luò)安全的跨時(shí)代對(duì)話的文章就介紹完了。如果您還想了解更多內(nèi)容,請(qǐng)?jiān)谟疑辖撬阉鱐OY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!