Facebook開發(fā)了一套“去識別”系統(tǒng),能讓你在實時視頻中“隱身”
近日,來自挪威科技大學的《DeepPrivacy:A Generative Adversarial Network for Face Anonymization》一篇論文中稱用新的更有挑戰(zhàn)表示的方法欺騙了人臉識別系統(tǒng):在不改變原來的數(shù)據(jù)分布的前提下把人臉匿名化,更通俗的說法來說就是輸出一張逼真的人臉,但是不改變原圖人的姿態(tài)和背景。在這種技術(shù)的加持下,人臉識別系統(tǒng)依舊能夠正常運行,但是完全無法識別出原來的人臉身份,偽造者則可以冒充他人自由出入具有人臉識別系統(tǒng)的設(shè)施。
根據(jù)作者們的測試,經(jīng)過他們匿名化的人臉仍然保持了接近于原圖的人臉可識別性,普通的人臉識別對于匿名化后的圖像,識別出人臉的平均準確率只下降了 0.7% 。而人臉含有的自然信息自然是 100% 不重合的。
用 AI 來欺騙 AI ,這波操作簡直是 666 。
此前,F(xiàn)acebook 也就反人臉識別做過嘗試,近日,終于有了結(jié)果。
外媒 VentureBeat 報道稱,近日,F(xiàn)acebook 的人工智能實驗室 Facebook AI Research(FAIR)開發(fā)出一種“去識別”系統(tǒng),該系統(tǒng)可以欺騙面部識別系統(tǒng),例如,讓面部識別系統(tǒng)將你識別為一位女明星。
該技術(shù)使用機器學習實時地改變視頻中人物的關(guān)鍵面部特征,誘使面部識別系統(tǒng)錯誤地識別對象。
據(jù)稱,該技術(shù)將一個對抗自編碼器與一個訓練過的面部分類器配對,以使人的面部稍微扭曲,從而在迷惑面部識別系統(tǒng)的同時,又能維持一個人們可以認出來的自然樣貌,它可以用在視頻,甚至是實時視頻中。
事實上這種“去識別”技術(shù)過去已經(jīng)存在,以色列的自動反人臉識別系統(tǒng)提供商 D-ID 已經(jīng)研發(fā)出了針對靜態(tài)圖像的去識別技術(shù)。另外,還有一種被稱為對抗性示例,它利用了計算機視覺系統(tǒng)的弱點,人們通過穿戴印有對抗圖案,來誘騙面部識別系統(tǒng)看到并不存在的東西。
過去的技術(shù)通常應(yīng)用于從監(jiān)控攝像頭等渠道獲得的照片、靜止影像,或是已事先計劃好利用對抗圖像欺騙人臉識別系統(tǒng)?,F(xiàn)在,F(xiàn)AIR 的研究針對實時影像和視頻腳本,F(xiàn)AIR 稱這項技術(shù)成果是行業(yè)首例,且它足以抵抗精密的面部識別系統(tǒng)。
Facebook 還發(fā)表了一篇論文,解釋了其對新技術(shù)的態(tài)度。它提出了一種觀點,即面部識別可能會侵犯隱私,人臉替換技術(shù)可能被用來制作誤導性視頻。為了控制人臉識別技術(shù)的濫用,該公司推出了對視頻進行去識別的方法,并取得了很好的效果。
此外,據(jù) VentureBeat 報道,F(xiàn)acebook 并不打算在任何商業(yè)產(chǎn)品中使用這個反人臉識別技術(shù),但這項研究可能會對未來的個人隱私保護工具產(chǎn)生影響。并且,就像該研究在“誤導性視頻”中所強調(diào)的那樣,它能夠防止個人肖像被用于制造偽造視頻。
其實反人臉識別技術(shù)近年來發(fā)展迅速,早在去年,多倫多大學 Parham Aarabi 教授和研究生 Avishek Bose 的團隊開發(fā)了一種算法,可以動態(tài)地破壞人臉識別系統(tǒng)。
簡單來說,他們選擇的方法是通過干擾人臉識別算法來達到阻礙人臉識別的功能。該算法通過改變一些人眼幾乎不可識別的微小像素來改變識別器的檢測結(jié)果。盡管算法對于像素的修改十分微小,但對于檢測器來說卻是致命的。
研究人員針對 300-W 數(shù)據(jù)庫上的檢測結(jié)果也證實了這種方法的可行性。該數(shù)據(jù)集包含多種族,不同照明條件和背景環(huán)境的超過 600 張人臉照片,是一個業(yè)界的標準庫。結(jié)果表明,他們的系統(tǒng)可以將原本可檢測到的人臉比例從接近 100% 降低到 0.5% 。
而且更可怕的是這個反人臉識別系統(tǒng)具有神經(jīng)網(wǎng)絡(luò)自主學習能力,可以隨著人臉識別系統(tǒng)的進化而不斷改變自己。
但讓雷鋒網(wǎng)編輯感到更為可怕的是,AI 時代下,我們竟不能保全自己的“臉面”。