香港最大AI詐騙案!Deepfake換臉「英國(guó)CFO」,直接騙走公司2億港幣
這幾天,古老的AI應(yīng)用——「AI換臉」多次破圈,屢屢登上熱搜。
先是網(wǎng)上充斥的大量泰勒斯威夫特的「AI艷照」,逼得X(原推特)只能直接屏蔽了所有有關(guān)「Tylor Swift」的搜索。
而今天香港警方向社會(huì)公布了一起更離譜的詐騙案件:
一家英國(guó)跨國(guó)企業(yè)的中國(guó)香港分公司,被騙子用偽造的「AI換臉」和AI音頻合成的視頻內(nèi)容,冒充總公司的CFO,直接騙走了2億港幣!
最高級(jí)的騙局,往往只需要最樸素的AI技術(shù)
據(jù)稱(chēng),這位香港分公司的員工收到了一封英國(guó)總部CFO的郵件,稱(chēng)總部正在計(jì)劃一個(gè)「秘密交易」,需要將公司資金轉(zhuǎn)到幾個(gè)香港本地的賬戶(hù)中待用。
而這個(gè)員工一開(kāi)始并沒(méi)有相信這封郵件的內(nèi)容,認(rèn)為是釣魚(yú)詐騙郵件。但是騙子不斷給他發(fā)郵件討論這個(gè)秘密交易的必要性,最終,給他撥打一個(gè)視頻電話(huà)。
在電話(huà)中,這位員工看到了公司的CFO和其他他認(rèn)識(shí)的「幾位同事」,大家都在一起開(kāi)會(huì)。騙子還在視頻會(huì)議中要求這位員工進(jìn)行自我介紹。
然后視頻會(huì)議中的「英國(guó)領(lǐng)導(dǎo)」要求他趕快進(jìn)行轉(zhuǎn)賬,之后就突然中斷了視頻。而信以為真的員工就分15次向5個(gè)香港本地的賬戶(hù)陸續(xù)匯款了2億港幣的資金。
而在整個(gè)事件持續(xù)5天之后,他才回過(guò)味來(lái),向英國(guó)公司求證,最終發(fā)現(xiàn)被騙了。
香港警方在通報(bào)中稱(chēng),以往的「AI換臉」詐騙,一般都是一對(duì)一的。這次騙子用視頻電話(huà)會(huì)議的形式,偽造了一個(gè)「高管團(tuán)隊(duì)」,讓可信度大幅上升。
騙子使用Deepfake技術(shù),通過(guò)公司的Youtube上視頻和其他公開(kāi)的媒體素材,就成功偽造了英國(guó)公司高管的形象和聲音。
參與視頻會(huì)議的都是真人,然后通過(guò)「AI」換臉,把騙子的臉和聲音都換成了對(duì)應(yīng)的高管的臉和嗓音,下達(dá)了轉(zhuǎn)賬的指令。
而除了受騙的這一名員工之外,騙子還聯(lián)系了另外幾位香港分公司的員工。
警方表示,整個(gè)案件還在進(jìn)一步調(diào)查之中,還沒(méi)有逮捕任何嫌疑人,但是希望向公眾發(fā)布消息,防止騙子通過(guò)類(lèi)似的手法再次得手。
警方提供了幾個(gè)方式可以幫助識(shí)別是否是「AI換臉」詐騙行為。
首先,如果對(duì)方在視頻中提到錢(qián),就一定要提高警惕。
可以要求對(duì)方快速的移動(dòng)頭部和面部,注意觀察畫(huà)面會(huì)不會(huì)出現(xiàn)奇怪的變形。
然后提一些只有雙方知道的問(wèn)題來(lái)驗(yàn)證對(duì)方的真實(shí)身份。
而銀行,對(duì)于此類(lèi)的詐騙也在部署預(yù)警系統(tǒng),發(fā)現(xiàn)用戶(hù)在與可疑的賬戶(hù)進(jìn)行交易之后也會(huì)發(fā)出提醒。
國(guó)外網(wǎng)友看了這個(gè)事,紛紛感嘆Deepfake技術(shù)的強(qiáng)大:那我能deepfake我自己去開(kāi)會(huì),讓我自己能多睡一會(huì)嗎?
也有網(wǎng)友覺(jué)得,可能整個(gè)故事都是這個(gè)「被騙員工」編的,可能他自己也參與了這個(gè)騙局。
Deepfake的由來(lái)
Deepfake本質(zhì)上是一種特殊的深度學(xué)習(xí)技術(shù)。
最初源于一個(gè)名為「deepfakes」的Reddit用戶(hù)。該用戶(hù)于2017年12月在 Reddit 社交網(wǎng)站上發(fā)布了將斯嘉麗·約翰遜等女演員的換臉視頻,使得「Deepfake」成為了AI「AI換臉」的代名詞。
Deepfake目前并沒(méi)有公認(rèn)的統(tǒng)一定義。美國(guó)在其發(fā)布的《2018年惡意偽造禁令法案》中將「deep fake」定義為「以某種方式使合理的觀察者錯(cuò)誤地將其視為個(gè)人真實(shí)言語(yǔ)或行為的真實(shí)記錄的方式創(chuàng)建或更改的視聽(tīng)記錄」, 其中「視聽(tīng)記錄」指圖像、視頻和語(yǔ)音等數(shù)字內(nèi)容。
其核心原理是利用生成對(duì)抗網(wǎng)絡(luò)或者卷積神經(jīng)網(wǎng)絡(luò)等算法將目標(biāo)對(duì)象的面部「嫁接」到被模仿對(duì)象上。
因?yàn)橐曨l是連續(xù)的圖片組成,因此只需要把每一張圖片中的臉替換,就能得到變臉的新視頻。
首先將模仿對(duì)象的視頻逐幀轉(zhuǎn)化成大量圖片,然后將目標(biāo)模仿對(duì)象面部替換成目標(biāo)對(duì)象面部。
最后,將替換完成的圖片重新合成為假視頻,而深度學(xué)習(xí)技術(shù)可以使這一過(guò)程實(shí)現(xiàn)自動(dòng)化。
隨著深度學(xué)習(xí)技術(shù)的發(fā)展,自動(dòng)編碼器、生成對(duì)抗網(wǎng)絡(luò)等技術(shù)逐漸被應(yīng)用到深度偽造中。
Deepfakes依賴(lài)于一種稱(chēng)為自動(dòng)編碼器的神經(jīng)網(wǎng)絡(luò)。它們由編碼器和解碼器組成,編碼器將圖像減少到較低維的潛空間,解碼器從潛表征中重建圖像。
圖源:深度偽造的原理及實(shí)戰(zhàn)
Deepfakes通過(guò)使用通用編碼器將人編碼到潛在空間中來(lái)利用這種架構(gòu)。潛表征包含有關(guān)其面部特征和身體姿勢(shì)的關(guān)鍵特征。
然后可以使用專(zhuān)門(mén)針對(duì)目標(biāo)訓(xùn)練的模型對(duì)其進(jìn)行解碼。這意味著目標(biāo)的詳細(xì)信息將疊加在原始視頻的底層面部和身體特征上,并在潛空間中表征。
圖源:深度偽造的原理及實(shí)戰(zhàn)
另一種制作深度偽造品的方法是使用所謂的「生成對(duì)抗網(wǎng)絡(luò)」(Gan)。Gan讓兩種人工智能算法相互競(jìng)爭(zhēng)。
第一個(gè)算法稱(chēng)為生成器,輸入隨機(jī)噪聲并將其轉(zhuǎn)換為圖像。
然后,該合成圖像被添加到真實(shí)圖像流(例如名人圖像)中,這些圖像被輸入到第二個(gè)算法(稱(chēng)為鑒別器)中。
起初,合成圖像看起來(lái)一點(diǎn)也不像人臉。但重復(fù)這個(gè)過(guò)程無(wú)數(shù)次,并提供性能反饋,判別器和生成器都會(huì)得到改進(jìn)。
如果有足夠的周期和反饋,生成器將開(kāi)始生成完全不存在的名人的完全逼真的面孔。
而之前霉霉的AI不雅照在X平臺(tái)上
被瘋傳,甚至驚動(dòng)了白宮的發(fā)言人。
在1月26日白宮記者會(huì)上,發(fā)言人Karine Jean-Pierre被問(wèn)及此事時(shí)表示該事件令人擔(dān)憂(yōu)(alarming)。
「雖然社交媒體公司在內(nèi)容管理方面有自己的獨(dú)立決策,但我們認(rèn)為,他們?cè)趪?yán)格貫徹其監(jiān)管制度以防止錯(cuò)誤信息和未經(jīng)本人允許的私密圖像傳播方面,應(yīng)起到重要作用。」
如何識(shí)別檢測(cè)偽造的視頻
而對(duì)于泛濫的Deepfake內(nèi)容,也有越來(lái)越多的研究在關(guān)注如何識(shí)別和檢測(cè)的技術(shù)。
論文地址:https://openaccess.thecvf.com/content/WACV2022/papers/Mazaheri_Detection_and_Localization_of_Facial_Expression_Manipulations_WACV_2022_paper.pdf
2022年由加州大學(xué)河濱分校的計(jì)算機(jī)科學(xué)家團(tuán)隊(duì)開(kāi)發(fā)了一種新方法來(lái)檢測(cè)深度偽造視頻中被操縱的面部表情。該方法可以以高達(dá) 99% 的準(zhǔn)確率檢測(cè)這些偽造的視頻。
這個(gè)方法將檢測(cè)造假視頻任務(wù)分成深度神經(jīng)網(wǎng)絡(luò)中的兩個(gè)部分。
第一個(gè)分支辨別面部表情,同時(shí)提供有關(guān)包含該表情的區(qū)域的信息。
這些區(qū)域可以包括嘴、眼睛、前額等。
然后這些信息被輸入到第二個(gè)分支,該分支是一個(gè)編碼器-解碼器架構(gòu),負(fù)責(zé)操作檢測(cè)和定位。
研究團(tuán)隊(duì)將這個(gè)框架命名為「表達(dá)操縱檢測(cè)」(EMD),它可以檢測(cè)并定位圖像中已更改的特定區(qū)域。
作者稱(chēng)Ghazal Mazaheri:「多任務(wù)學(xué)習(xí)可以利用面部表情識(shí)別系統(tǒng)學(xué)到的突出特征來(lái)有利于傳統(tǒng)操縱檢測(cè)系統(tǒng)的訓(xùn)練。這種方法在面部表情操縱檢測(cè)方面取得了令人印象深刻的性能,」
研究人員在兩個(gè)具有挑戰(zhàn)性的面部操縱數(shù)據(jù)集上進(jìn)行了實(shí)驗(yàn),他們證明EMD在面部表情操縱和身份交換方面表現(xiàn)更好,準(zhǔn)確地檢測(cè)出了99%的被篡改視頻。
未來(lái),在技術(shù)和政策層面上都做出努力,才有可能將Deepfake技術(shù)的負(fù)面影響控制在合理范圍內(nèi)。