黑客正在用生成式AI創(chuàng)建惡意軟件
聯(lián)邦調查局警告說,黑客正在瘋狂地使用像ChatGPT這樣的生成式人工智能工具,快速創(chuàng)建惡意代碼并發(fā)起網絡犯罪,這在過去需要付出更多的努力。
聯(lián)邦調查局在與記者的電話會議上詳細說明了這種擔憂。并解釋說,人工智能聊天機器人助長了各種違法活動:從詐騙者和欺詐者通過ChatGPT完善他們的技術到恐怖分子咨詢如何發(fā)動更具破壞性的化學攻擊工具,各種手段無所不包。
根據聯(lián)邦調查局高級官員的說法,“我們預計,隨著時間的推移,人工智能模型的采用和普及度的提高,這些趨勢將增加明顯。“他們表示:”違法者正使用人工智能來補充他們的常規(guī)犯罪活動,包括使用人工智能語音生成器冒充受信任的人,以欺騙被害者親人或老人?!?/p>
這不是我們第一次看到黑客使用ChatGPT等工具并扭曲它們來創(chuàng)建危險的惡意軟件。2023年2月,安全公司 Checkpoint 的研究人員發(fā)現,惡意行為者已經能夠更改聊天機器人的 API,使其能夠生成惡意軟件代碼,并使病毒創(chuàng)建讓任何潛在的黑客都能觸手可及。
ChatGPT 是安全威脅嗎?
聯(lián)邦調查局的立場與2023年五月采訪的一些網絡專家的態(tài)度截然不同。這些網絡專家告訴我們,人工智能聊天機器人的威脅在很大程度上被夸大了,大多數黑客從更傳統(tǒng)的數據泄漏和開源研究中發(fā)現了更易于攻擊的代碼漏洞。
例如,Bitdefender的技術解決方案總監(jiān)Martin Zugec解釋說,“大多數惡意軟件編寫新手不太可能具備繞過聊天機器人反惡意護欄所需的技能”。除此之外,Zugec解釋說,“聊天機器人產生的惡意軟件代碼的質量往往很低?!?/p>
這為聯(lián)邦調查局的說法提供了一個反駁,我們必須進一步觀察以證實哪一方是正確的。隨著ChatGPT制造商OpenAI停止使用自己的工具來檢測聊天機器人產生的抄襲這一現象來看,其后果并不令人鼓舞。如果聯(lián)邦調查局是對的,那么在與黑客及其對聊天機器人驅動的惡意軟件的斗爭中,我們可能會更加艱難。