自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

擔(dān)心被AI換臉技術(shù)禍害?別怕!Deepfake打假隊正在趕來

新聞 人工智能
美國正在形成一支 Deepfake 打假隊伍,不僅是高校實驗室、研究中心在尋找 Deepfake 的破綻,一股創(chuàng)業(yè)潮流也正在興起。

 Deepfake 自問世以來,一路向著人性陰暗面奔去。

  B 站用戶讓蔡徐坤頂著六小齡童的面孔在偶像練習(xí)生C位出道。民間技術(shù)流已經(jīng)能對著 AI 換臉教程玩的不亦樂乎。但每個人也更容易成為受害者:偽造綁架視頻勒索詐騙,不雅視頻毀壞名譽(yù),或者恐怖視頻制造混亂,都因為 Deepfake 的開源技術(shù)變得空前容易。

  讓一眾名人換上布什的面部動作圖 TED 在 PS 摧毀了公眾對圖片的信任后,Deepfake 正在摧毀公眾對視頻的信任。沒有人想在互聯(lián)網(wǎng)上看到自己的面孔說著自己沒說過的話。許多針對個人的傷害,也因為影響不夠巨大而投訴無門。

  美國正在形成一支 Deepfake 打假隊伍,不僅是高校實驗室、研究中心在尋找 Deepfake 的破綻,一股創(chuàng)業(yè)潮流也正在興起。

  但這是一場造假 AI 與鑒假 AI 之間“你有張良計,我有過墻梯”的競賽。每一篇檢測 Deepfake 的論文,仿佛都能提示造假技術(shù)修補(bǔ)自身漏洞,從而更上一層樓。

  關(guān)上 Deepfake 的潘多拉魔盒,他們能做到嗎?

  用打假 Deepfake 創(chuàng)業(yè)

  Shiva Kintali 離開擔(dān)任講師 4 年的普林斯頓計算機(jī)系,正在硅谷創(chuàng)業(yè)鑒別偽造視頻。他告訴硅星人,他的合作對象有警察、記者、保險公司等,通過機(jī)器學(xué)習(xí)尋找偽造視頻的破綻,用區(qū)塊鏈記錄信息等技術(shù)來輔助鑒別。

  Kintali 的網(wǎng)站已經(jīng)可以上傳圖像、音頻、視頻,來分析檢測是否有修改痕跡。他同時在開發(fā)一個手機(jī)相機(jī)應(yīng)用,用人工智能為圖像添加時間、地點水印,并將圖片原始信息印在區(qū)塊鏈上。一旦傳播圖像的信息與原始圖片不符,就容易判斷真?zhèn)巍?/p>

  這些產(chǎn)品希望幫助記者、媒體公司、政治競選團(tuán)體、執(zhí)法機(jī)構(gòu)(例如 FBI、NSA),保險公司(面臨虛假事故照片的保險索賠問題)和大公司(例如 Facebook、Twitter、Redditt、PornHub),在其平臺上阻止虛假的視頻、音頻、照片傳播。

  由于 Deepfake 降低了視頻造假的門檻。面對真?zhèn)坞y辨的影像資料,記者不知道能否發(fā)布,保險公司不知是應(yīng)該理賠還是報警詐騙,警察收集證據(jù)后,也需要專業(yè)工具去鑒定圖片和視頻的真?zhèn)巍?/p>

  目前流傳的假視頻大多是“淺度造假”,但因為數(shù)量多,造成了無數(shù)困擾。斯坦福的研究人員向鑒別公司了解到困擾他們的三大問題:數(shù)量太多,可用鑒別時間太短,缺乏標(biāo)準(zhǔn)化的工具。

  因此,研究者們在尋找能夠大規(guī)模應(yīng)用的打假方法。Facebook、Twitter 等社交網(wǎng)絡(luò)上爆炸式傳播的圖片和影像,給辟謠留下的時間窗口越來越短。普通大眾也不可能雇傭?qū)I(yè)人士進(jìn)行鑒別。

  搶先商用化的圖像驗證平臺 Truepic 已經(jīng)上線了一款智能相機(jī)應(yīng)用。用戶拍下的圖像將上傳至服務(wù)器,在創(chuàng)建時對照片和視頻進(jìn)行身份驗證,獲得唯一編碼。相機(jī)應(yīng)用捕獲設(shè)備的傳感器數(shù)據(jù),在傳輸之前加密照片或視頻,運行 20 多個圖像取證測試,并在幾秒鐘內(nèi),將圖像的加密簽名印在公共區(qū)塊鏈上,使得信息不可被篡改。

  這是一種“自證清白”的方式,適用于電子商務(wù)平臺和公民記者類用戶。如果用戶將圖片發(fā)送給接收者,Truepic 允許收件人驗證圖像的原點和元數(shù)據(jù)的完整性。任何二次傳播的多媒體材料,都可以與區(qū)塊鏈上的原始信息對比,辨別真假。

  在 Deepfake 的威脅下,鑒定圖片、視頻的真實性,都成了相機(jī)應(yīng)用的賣點。但這類以營利為目的的產(chǎn)品又引起了用戶新的隱私擔(dān)憂。畢竟,誰能確保 Truepic 不作惡呢?

  算法打算法

  位于硅谷的 SRI International AI 中心則“以毒攻毒”,用偽造的視頻訓(xùn)練算法,讓算法能夠更好識別出偽造痕跡。在人們上傳視頻到社交網(wǎng)站的時候,平臺需要對視頻重新編碼。這是一個檢測虛假視頻的好時機(jī)。

  但隨著 Deepfake 的漏洞日漸優(yōu)化,用算法打算法的難度也日益加大。

  打假 AI 原本就是訓(xùn)練造假 AI 的一部分,二者剛好在生成對抗性網(wǎng)絡(luò)的兩端。一個生成器,一個鑒別器,道高一尺,魔高一丈。

  由于 Deepfake 的技術(shù)在于篡改數(shù)據(jù),那么鑒別方則在尋找一切篡改數(shù)據(jù)的痕跡。一種方法是基于像素的視頻檢測,視頻其實是成千上萬幀圖片連放,細(xì)致到檢測每個像素的改變痕跡,是一件頗為浩大工程。

  此外,偽造的面部表情目前仍有缺陷。偽造的臉部表情往往與其他部分存在不一致,計算機(jī)算法可以檢測圖片或視頻中的這種不一致。


UC Berkeley 研究者比較真假人物的面部差異 圖 UC Berkeley

  舉例而言,初代 Deepfake 視頻中的人物,眨眼的方式都有點奇怪。

  紐約州立大學(xué)奧爾巴尼分校計算機(jī)科學(xué)副教授 Siwei Lyu 曾撰文表示,成年人的眨眼間隔為 2 秒到 10 秒,一次眨眼需要十分之一到十分之四秒。這是正常視頻人物應(yīng)有的眨眼頻率,但很多 Deepfake 視頻的人物沒能做到這一點。

  彼時由于缺乏閉眼圖像數(shù)據(jù),算法的訓(xùn)練并不完美,視頻人物面孔總有一種“哪里不對”的不和諧感。

  然而,通過閉眼的面部圖像、或使用視頻序列進(jìn)行訓(xùn)練,可以改善眨眼間隔。虛假視頻的質(zhì)量總會提高,而研究人員需要繼續(xù)尋找檢測它們漏洞的方法。

  南加大的研究者 Wael Abd-Almageed 表示,社交網(wǎng)絡(luò)可以使用算法來大規(guī)模識別 Deepfake。為了實現(xiàn)這一過程的自動化,研究人員首先建立了一個神經(jīng)網(wǎng)絡(luò),“學(xué)習(xí)”人類在說話時如何移動的重要特征。然后,研究人員使用這些參數(shù)將偽造視頻的堆疊幀輸入 AI 模型,以檢測隨時間的不一致性。

  普渡大學(xué)的研究人員也采用了類似的方法,他們認(rèn)為,隨著訓(xùn)練模型的 Deepfake 視頻數(shù)據(jù)量越來越大,模型也會更加精確,更容易檢測出偽造的視頻。

  美國 2020 年大選在即,如何阻止 Deepfake 從低俗娛樂發(fā)展到操縱民意,是研究者們迫切的動力之一。但愿一鍵打假的速度,能追上一鍵換臉的速度。

責(zé)任編輯:張燕妮 來源: 硅星人
相關(guān)推薦

2019-05-15 10:23:58

AI人工智能視頻換臉技術(shù)

2019-10-08 15:00:45

人工智能機(jī)器學(xué)習(xí)技術(shù)

2020-01-07 14:14:57

AI 數(shù)據(jù)人工智能

2019-09-02 14:45:33

2023-12-17 11:33:15

AI模型

2022-08-10 14:52:02

DeepFakeAI

2024-02-05 13:42:00

AI數(shù)據(jù)

2020-02-25 10:19:47

AI 數(shù)據(jù)人工智能

2020-06-22 10:28:28

人工智能智能家居技術(shù)

2021-06-08 10:23:12

人工智能人臉識別Deepfake

2019-09-01 23:53:37

人工智能AI換臉

2020-06-04 16:35:39

軟件開發(fā) GitHub

2019-09-02 15:33:23

AI換臉人臉轉(zhuǎn)換深度學(xué)習(xí)

2023-06-19 15:19:03

2023-05-30 11:04:10

AI 換臉技術(shù)人工智能

2023-05-17 17:14:50

2021-05-28 13:36:03

AI人工智能VR

2022-03-09 09:45:06

AIMITDeepFake

2024-10-21 18:27:37

2020-03-18 13:21:50

人工智能機(jī)器學(xué)習(xí)技術(shù)
點贊
收藏

51CTO技術(shù)棧公眾號