你的遠程員工真是他自己嗎?FBI披露求職者濫用Deepfake
在 Deepfake 的世界,真真假假,有時的確難以區(qū)分。
AI 算法「Deepfake」可以生成各種有關(guān)人物的逼真圖像和視頻,在換臉領(lǐng)域已經(jīng)有了廣泛的應(yīng)用。不過,AI 換臉技術(shù)引發(fā)的爭議不斷,比如利用 Deepfake 制作成人視頻等,給人們造成了極大困擾。
近日,根據(jù)外媒 pcmag 報道,F(xiàn)BI 表示有詐騙者一直使用 Deepfake 技術(shù)在遠程工作的面試中冒充求職者,試圖謀得 IT 公司的工作機會,以訪問它們的客戶或財務(wù)數(shù)據(jù)、企業(yè) IT 數(shù)據(jù)庫和 / 或?qū)S行畔ⅰ?/span>
有些公司透露,有些申請者的個人身份信息甚至屬于另外一個人。
換臉前后的人物面部。圖源:Facebook/Meta
事情是這樣的。在當(dāng)?shù)貢r間 6 月 28 日,F(xiàn)BI 網(wǎng)絡(luò)犯罪投訴中心(IC3)在一次公共咨詢中表示,最近有關(guān)被冒充求職的投訴案件數(shù)量增加。詐騙者一直利用 Deepfake 技術(shù)以及從受害者那里盜取的個人身份信息,騙過雇主雇傭他們進行遠程或居家辦公工作。
這些工作涉及到 IT 和計算機編程、數(shù)據(jù)庫以及軟件相關(guān)的職位。
圖源:https://www.ic3.gov/Media/Y2022/PSA220628
以往,Deepfake 使用 AI 賦能的程序來創(chuàng)建逼真但虛假的人物形象。在視頻方面,該技術(shù)可以將名人的臉復(fù)刻到其他人的身上;在音頻方面,該技術(shù)可以克隆一個人的聲音,操縱它說出任何你想說的話。
然而此次,F(xiàn)BI 的咨詢顯示,Deepfake 技術(shù)也在助長身份盜用不法行徑。在潛在申請者的在線面試中,詐騙者使用了語音欺騙或者聲音偽造技術(shù)。詐騙者一直使用這些 Deepfake 技術(shù)申請 IT 公司的遠程或居家辦公職位。
雖然 FBI 沒有說清楚這些詐騙者的最終目的是什么,但指出涉及到的職位包括訪問客戶 PII(個人身份信息)、財務(wù)數(shù)據(jù)、公司 IT 數(shù)據(jù)庫和 / 或?qū)S行畔?。這類信息可以幫助詐騙者從公司中竊取有價值的資料并實施其他身份欺詐計劃。
圖源:https://www.bangkokpost.com/
不過,好消息是,雇主有方法來檢測 Deepfake。雖然詐騙者一直與潛在雇主進行視頻面試,但 FBI 指出,當(dāng)詐騙者說話時,基于 AI 的技術(shù)仍顯示出缺陷。
比如,在鏡頭前面試者的動作和嘴唇運動與他們說話的聲音并不完全協(xié)調(diào)。有時,咳嗽、打噴嚏或其他聽覺行為與視覺呈現(xiàn)的內(nèi)容不一致。


2010-07-20 15:38:16




