以假亂真的“人造臉”,能騙過(guò)面部識(shí)別嗎?
如果你過(guò)去幾年間曾在網(wǎng)上發(fā)過(guò)自己的照片, Clearview人工智能很有可能已將這圖儲(chǔ)存下來(lái),添加到該公司龐大的容納超過(guò)31億張圖片的面部識(shí)別數(shù)據(jù)庫(kù)中?!都~約時(shí)報(bào)》稱(chēng),Clearview可以“終結(jié)我們的所謂隱私”。1月份時(shí),筆者拿到了自己的Clearview 人工智能配置文件,這讓我為之一怔。
Clearview面臨著許多法律上的挑戰(zhàn)。美國(guó)公民自由聯(lián)盟(AmericanCivil Liberties Union)曾引用筆者的一篇文章對(duì)該公司發(fā)起集體訴訟,該訴訟具有里程碑意義。但即使立法者限制了Clearview,阻止線(xiàn)上面部識(shí)別就像打地鼠:總有另一個(gè)公司會(huì)取代它的位置。
隨著線(xiàn)上面部識(shí)別的普及,消費(fèi)者如何才能讓自己的面部遠(yuǎn)離大規(guī)模監(jiān)控?cái)?shù)據(jù)庫(kù)收集呢?合成內(nèi)容創(chuàng)業(yè)公司GeneratedMedia提出一個(gè)解決方案:把臉換成一個(gè)由神經(jīng)網(wǎng)絡(luò)創(chuàng)建的高科技假臉。假臉會(huì)讓人們知道你的長(zhǎng)相,但真正的臉是不顯示的。
這家公司專(zhuān)門(mén)制作人工面部。他們使用了一種被稱(chēng)為收集對(duì)抗網(wǎng)絡(luò)(GANs)的技術(shù),這類(lèi)技術(shù)讓兩個(gè)神經(jīng)網(wǎng)絡(luò)相互對(duì)立。以GeneratedMedia為例,隨著兩種網(wǎng)絡(luò)相互競(jìng)爭(zhēng),其中一個(gè)網(wǎng)絡(luò)(生成網(wǎng)絡(luò))在生成人臉?lè)矫孀龅迷絹?lái)越好。GANs的技術(shù)非常先進(jìn),足以制作出以假亂真的臉。
該公司最近在《紐約時(shí)報(bào)》上發(fā)表了一篇關(guān)于生成人工面孔背后技術(shù)的文章,引起了巨大轟動(dòng)。
GANs也可以大規(guī)模地生成人工面孔。Generated Media成立不到一年,已經(jīng)生成了超過(guò)200萬(wàn)張人工面孔。這些面孔代表了各種年齡和外貌的人。它們看起來(lái)完全真實(shí),但描繪的人實(shí)際上并不存在,也從未存在過(guò)。GeneratedMedia允許這些圖像以?xún)?chǔ)備照片的形式存在網(wǎng)站上,并將它們作為訓(xùn)練數(shù)據(jù)以減少其他人工智能系統(tǒng)中的偏差。
運(yùn)用大量面部圖像數(shù)據(jù),Generated Media正將目光轉(zhuǎn)向消費(fèi)者。通過(guò)一款今天剛發(fā)布的工具Anonymizer,用戶(hù)可以在上傳面部真實(shí)圖像后獲得許多以假亂真的臉。用戶(hù)可以在社交媒體上,或其他任何需要在公共互聯(lián)網(wǎng)上發(fā)布照片的地方,使用人工面孔而非真臉。這些假照片供個(gè)人免費(fèi)使用,還可以選擇使用透明背景。
GeneratedMedia稱(chēng)這些人工面部看起來(lái)同真人非常相似,所以可信度高。但由于這并非用戶(hù)的真臉,如果Clearview或其他面部識(shí)別公司將用戶(hù)的人工面部添加到數(shù)據(jù)庫(kù)中,這些公司將無(wú)法通過(guò)假臉來(lái)找到真正的用戶(hù)。
GeneratedMedia表示,用戶(hù)“至少每天”都可以將自己的照片換成新的假照片,以享受真臉識(shí)別所不具備的隱私性。
在接受采訪(fǎng)時(shí),GeneratedMedia的策略主管Tyler Lastovich稱(chēng),他“私下使用領(lǐng)英時(shí)看到有人用了一張合成圖片作為頭像”,公司也發(fā)現(xiàn)“有更多的圖片用在推特的個(gè)人簡(jiǎn)介里”之后,該公司設(shè)計(jì)了Anonymizer。還有一些人試圖創(chuàng)造基于人工智能工具改變抗議者和活動(dòng)人士的頭像,從而掩蓋他們?cè)诰W(wǎng)上的身份。
但是Clearview告訴《紐約時(shí)報(bào)》,這些工具無(wú)法欺騙它的系統(tǒng)。一張完全偽造的照片,比如用GeneratedMedia生成的照片,可能是一個(gè)更安全的解決方案。
筆者上傳了一張自己在加州圣拉蒙一家高檔披薩店拍攝的照片,以此測(cè)試Anonymizer。
Anonymizer展示了約20個(gè)相似圖像,還可以選擇查看更多。筆者滾動(dòng)屏幕,選擇了一張最相似的假臉。
圖源:Generated Media
現(xiàn)在點(diǎn)對(duì)點(diǎn)比較。這張假臉的背景是透明的,所以可以把它疊加在一張照片上,這張照片攝于在一家漂亮的披薩店,而真實(shí)照片就是在這家店拍的。
看起來(lái)像嗎?不,筆者不會(huì)把發(fā)型梳成這樣。但這兩幅圖太相似了,親密的朋友和家人以外的人可能會(huì)把假臉誤認(rèn)為是真人——尤其在推特這樣的社交媒體網(wǎng)站上使用假照片時(shí),那里的個(gè)人資料照片只有49x49像素。
電腦也可能會(huì)犯同樣的錯(cuò)誤。為了測(cè)試真人和AI照片看起來(lái)有多相似,筆者用一款廣泛運(yùn)用的面部比較API,由面部識(shí)別軟件face ++提供,對(duì)兩幅圖進(jìn)行了比較。Face++得出結(jié)論是:“正常概率”下真人同和照片相匹配,并且估計(jì)有64%的幾率是同一個(gè)人。
這個(gè)數(shù)字不完美,但對(duì)于電腦創(chuàng)造出來(lái)的人工面部來(lái)說(shuō),已經(jīng)相當(dāng)不錯(cuò)。而且效果會(huì)隨著時(shí)間的推移而改善。Anonymizer的工作原理是分析用戶(hù)的臉,然后從Generated Media現(xiàn)有的數(shù)據(jù)庫(kù)中找到最接近的匹配。隨著公司制造出更多的人工面孔,找到高可信度匹配的幾率也會(huì)增加。
在這次實(shí)驗(yàn)中,筆者發(fā)現(xiàn)面部越容易辨認(rèn),越難偽造人工面孔。為了測(cè)試這一點(diǎn),筆者上傳了一張?zhí)萍{德·特朗普的照片,結(jié)果和他實(shí)際的樣子完全不一樣。不管怎樣,在過(guò)去的四年里,看特朗普的臉肯定比自己的臉還要多。
把一張非常熟悉的真臉(例如特朗普的臉)和一張假臉進(jìn)行比較時(shí),人工面孔的漏洞就非常明顯了。對(duì)于不太熟悉的面孔,它們更容易被忽視,而且人工的看起來(lái)還更有說(shuō)服力。
這展現(xiàn)了該系統(tǒng)的另一運(yùn)用場(chǎng)景。Anonymizer的對(duì)抗程序不一定能創(chuàng)造出用戶(hù)足以以假亂真的臉。相反,該系統(tǒng)可能最適合這樣的情況:用戶(hù)想讓從未見(jiàn)過(guò)他的人知道他長(zhǎng)什么樣子,卻不泄露實(shí)際長(zhǎng)相。
Generated Media表示約會(huì)軟件就是一個(gè)很好的例子。假如用戶(hù)創(chuàng)建一個(gè)在線(xiàn)約會(huì)檔案,可以從Anonymizer中獲取一個(gè)假的圖像,用它來(lái)代替真實(shí)面孔。照片能清晰展示出外貌——但如果遇到了某個(gè)特別的人并想展露真實(shí)面孔,他們最好不會(huì)感到很尷尬。
但除非用戶(hù)選擇揭露真實(shí)的面部,人工面部能防止那些經(jīng)常約會(huì)網(wǎng)站跟蹤狂獲取真實(shí)外表,從而把用戶(hù)當(dāng)成目標(biāo)。
在一個(gè)類(lèi)似的案例中,該公司與調(diào)查記者合作,使用類(lèi)似工具為希望保持匿名的情報(bào)人員創(chuàng)建人工面孔。人工面孔可以讓記者(和讀者)了解情報(bào)人員的年齡、膚色、頭發(fā)長(zhǎng)度及外貌的其他關(guān)鍵因素,同時(shí)確保他們的真實(shí)身份得到保護(hù)。
Clearview AI從新聞文章和社交媒體網(wǎng)站下載了數(shù)百萬(wàn)張圖片,所以在敏感文章中使用人工面部是防止Clearview搜索情報(bào)人員的臉并將其鏈接回敏感文章的一個(gè)好方法。
如果用戶(hù)打算發(fā)布一些敏感話(huà)題,也可以考慮采取類(lèi)似的方法。即用假臉來(lái)創(chuàng)建一個(gè)獨(dú)立的社交媒體賬戶(hù)。這樣的話(huà),敏感的內(nèi)容就不會(huì)鏈接到真實(shí)面孔上,也不會(huì)被那些可能在Clearview這樣的平臺(tái)上搜索面孔的人看到。
在上傳一張人工面孔之前,一定要檢查社交網(wǎng)絡(luò)的服務(wù)條款:例如Twitter不允許出于欺騙目的使用假臉,但若是用假臉來(lái)保護(hù)自身言論自由,多數(shù)情況不會(huì)有事。
然而,并非所有的隱私倡導(dǎo)者都相信Anonymizer等系統(tǒng)行之有效。哈佛大學(xué)肯尼迪學(xué)院肖倫斯坦中心的研究員、激進(jìn)主義克里斯·吉利亞德(ChrisGilliard)對(duì)我說(shuō):“對(duì)于任何假臉保護(hù)匿名的說(shuō)法,我并不十分肯定。”
數(shù)據(jù)共享遠(yuǎn)遠(yuǎn)超出公共照片發(fā)布到互聯(lián)網(wǎng)上的范疇。他告訴我,“一部分是因?yàn)槿狈ΡO(jiān)管,不論是在社交媒體上還是從車(chē)管所收集信息,人們對(duì)數(shù)據(jù)的疏忽都能致使許多數(shù)字工具獲得人們的照片。”他認(rèn)為這是社會(huì)而非技術(shù)問(wèn)題,并不是什么能通過(guò)“技術(shù)”解決的問(wèn)題。
假臉也有風(fēng)險(xiǎn)。據(jù)《紐約時(shí)報(bào)》報(bào)道,這些假臉可以“被用作面具,例如戴著迷人面孔試圖潛入情報(bào)機(jī)構(gòu)的間諜、隱藏在虛假資料、照片等背后的右翼宣傳者、帶著友善表情尋找目標(biāo)的線(xiàn)上騷擾者。”今年早些時(shí)候,有人用假臉來(lái)分享一家假情報(bào)公司關(guān)于亨特·拜登的事。
在別有用心的用戶(hù)手中,Anonymizer可以創(chuàng)造出這些虛假信息。但對(duì)于那些心懷叵測(cè)的想要做人工面孔的人來(lái)說(shuō),可能有更簡(jiǎn)單的方法。網(wǎng)站ThisPersonDoesNotExist.com能使用GANs技術(shù)在瀏覽器中生成假臉,類(lèi)似Generated Media技術(shù)而不需要上傳圖片。
而且,由于面部生成GANs背后的代碼可被廣泛使用,大多數(shù)心思復(fù)雜的罪犯可能會(huì)建立他們自己的面部生成系統(tǒng),而不是依賴(lài)那些可以追溯到某個(gè)特定公司的面部,因?yàn)橛锌赡苷业剿麄?。GeneratedMedia表示,用戶(hù)不能“使用圖片冒充他人或進(jìn)行非法活動(dòng)”。
如果想在網(wǎng)上發(fā)布自己的個(gè)人信息而不用擔(dān)心被監(jiān)控,或者只是想測(cè)試一下聯(lián)系人對(duì)自己的了解程度,可以通過(guò)Anonymizer把推特頭像換成假臉,看看有沒(méi)有人注意到。至少,看到一個(gè)自己的虛擬克隆臉很有意思。
如果在網(wǎng)上發(fā)布敏感內(nèi)容,擔(dān)心會(huì)成為跟蹤的目標(biāo),或者只是想掌控那些知道真實(shí)面目的人,Anonymizer就不只是一個(gè)玩具,而是一個(gè)潛在的強(qiáng)大工具。
本文轉(zhuǎn)載自微信公眾號(hào)「讀芯術(shù)」,可以通過(guò)以下二維碼關(guān)注。轉(zhuǎn)載本文請(qǐng)聯(lián)系讀芯術(shù)公眾號(hào)。