從虛假信息到深度造假:網(wǎng)絡(luò)攻擊者如何操縱現(xiàn)實(shí)
近期,電視劇《狂飆》的爆火,激起了一些UP主的二創(chuàng)激情,將劇中的“CP”角色通過AI換臉移植到其他影視片段中,形成讓網(wǎng)友驚呼“眼前一黑”的戲劇化效果,同時也收獲了滿滿流量。乍一看這只是單純的娛樂行為,但有時諸如”AI換臉“等深度造假技術(shù)(Deepfakes)可不只是”逗你笑“這么簡單,背后的安全隱患不容忽視。
《狂飆》中安欣和高啟強(qiáng)的角色人臉被AI換臉至《西游記》女兒國的橋段中
什么是深度造假?
深度造假是指將真實(shí)圖像、視頻甚至音頻進(jìn)行替換、偽造,以此可以實(shí)現(xiàn)對信息的操縱。要創(chuàng)建質(zhì)量足以用于深度造假的音視頻,往往需要 AI(人工智能) 和 ML(機(jī)器學(xué)習(xí))技術(shù)。使用這類技術(shù)不同于一般類型的信息操縱,不需要采取片面截取、屏蔽等方式來讓信息按自身的意圖傳遞,而是更加接近信息本源,以”貍貓換太子“的方式制作虛假內(nèi)容,因此在技術(shù)上更加高階。Cato Networks 安全戰(zhàn)略高級總監(jiān) Etay Maor認(rèn)為,現(xiàn)今AI 生成的文本(例如 GPT3)已經(jīng)與深度偽造結(jié)合使用,以創(chuàng)建更具互動性、看起來像人類的對話機(jī)器人。
深度造假舉例
深度造假圍繞音視頻可以有各種形式,有些簡單,有些更高級。一下例舉一些時下流行的深度造假形式:
換臉
換臉是將視頻或圖像中的某個人臉替換為另一個人的行為。換臉需要專門的軟件,但不一定要基于先進(jìn)的技術(shù),一般人甚至可以找到支持換臉的移動應(yīng)用程序。移動應(yīng)用程序中可用的面部交換通常僅限于簡單的用例,例如在某電影場景中將用戶的照片和演員的面部進(jìn)行交換。
而高級的換臉需要更多的模型訓(xùn)練和代碼,因此需要 GPU,這既昂貴又占用資源。下方的視頻截圖展示了一個高級的換臉偽造示例,把著名影星湯姆·姆克魯斯的臉換在了視頻中的主播身上。
據(jù)悉,在這個例子中,需要在 GPU 上進(jìn)行兩個小時的訓(xùn)練以及幾天的專業(yè)視頻編輯后期處理。這還不是最復(fù)雜的,因?yàn)檫@名主播的聲音和發(fā)型與湯姆·姆克魯斯相似,從而適當(dāng)減少了機(jī)器訓(xùn)練和后期處理的工作量。
口型同步
口型同步又被稱為”木偶大師“(Puppet Master),是一種操縱口型圖像的技術(shù),使人看起來好像在說他們實(shí)際上沒有說過的話。與換臉訓(xùn)練模型相比,口型同步的技術(shù)基于合成面具,是在原始圖像的人物臉上訓(xùn)練模型,特別是在嘴部動作上,并將其放置在模仿者的模型之上,并對他們進(jìn)行口型同步。
音頻
這一類深度偽造類型基于音頻。Audio deep fakes 是一種音頻文件,它采用真人的聲音并使其聽起來像是在說他們從未說過的話。音頻深度偽造是通過獲取音頻文件、為聲音分配注釋、根據(jù)注釋訓(xùn)練 ML 模型以將聲音與文本相關(guān)聯(lián),進(jìn)而生成新的音頻文件。
深度造假的網(wǎng)絡(luò)風(fēng)險
目前,深度造假的效果正越來越達(dá)到以假亂真的地步,進(jìn)行造假的方法也變得更加容易而,且創(chuàng)建速度也比以往任何時候都快。這使深度造假在網(wǎng)絡(luò)上成為強(qiáng)大的武器化工具,可用于社會工程、欺詐、威脅等網(wǎng)絡(luò)犯罪行為,進(jìn)而對企業(yè)甚至國家構(gòu)成安全風(fēng)險。比如用來模仿 CEO 的聲音,并說服一位高管將數(shù)十萬美元匯到一個詐騙賬戶。
深度造假也可用于傳播虛假信息,以影響公眾輿論或掩蓋真相。往小了說,這會對個人聲譽(yù)和形象構(gòu)成侵犯,比如2021年底,國內(nèi)一段以“搞錢萬能論”為主題的視頻在網(wǎng)絡(luò)上瘋狂傳播。乍一看,這段言論竟出自是新東方教育科技集團(tuán)董事長俞敏洪。但隨后俞敏洪就通過其個人社交帳號發(fā)布了辟謠視頻,他表示搞錢視頻里的話沒有一句是自己說的。而隨后也證實(shí)這段視頻是通過語音合成技術(shù)生成。
往大了說,深度造假可用于冒充國家領(lǐng)導(dǎo)人并引發(fā)國家沖突。據(jù)ASI數(shù)據(jù)科學(xué)公司曾經(jīng)做過的一項(xiàng)測試,通過音頻生成算法,只需要借助兩小時的語料并訓(xùn)練五天時間,就可以模擬出一份以假亂真的特朗普向俄羅斯宣戰(zhàn)的語音。
在其他情況下,深度造假可以實(shí)現(xiàn)似是而非的否認(rèn),大眾可以通過聲稱它們是深度造假來否認(rèn)所有媒體來源,從而造成對社會信任的嚴(yán)重破壞。
如何檢測深度造假 初級檢測方法
初級檢測方法依賴于 ML 模型,這些模型經(jīng)過訓(xùn)練可以識別通過深度偽造生成的偽影或像素化。人眼可能無法察覺這些偽影,但在真實(shí)圖像和深度偽造圖像上訓(xùn)練的模型能夠?qū)ζ溥M(jìn)行檢測。
高級檢測方法
高級檢測方法使用可以識別語義上有意義特征的模型,包括不自然的動作,如眨眼、頭部姿勢或獨(dú)特的舉止,以及音素-語音的不匹配。
雖然這些檢測方法目前被認(rèn)為是準(zhǔn)確的,但隨著深度造假技術(shù)的改進(jìn)以及復(fù)雜度的加深,預(yù)計(jì)這些檢測效果將會有所折扣,需要更新和改進(jìn)。
除了這些技術(shù)之外,大眾都可以通過驗(yàn)證自己收到的音視頻來源,以幫助檢測深度造假。