AI照妖鏡一眼判真假:網(wǎng)頁圖像視頻都能鑒,邊播邊識別,清華獨角獸成果
每個人都能擁有有檢測AI造假的“照妖鏡”了!
清華系獨角獸初創(chuàng)公司,發(fā)布了面向個人的產(chǎn)品級檢測工具,可以讓AI偽造的圖像、音頻和視頻現(xiàn)出原形。
而且無需上傳素材,在網(wǎng)頁和視頻會議中就能主動探測內(nèi)容和人臉真?zhèn)?,并實時給出提示。
該工具由清華大學(xué)朱軍教授與學(xué)生田天博士等一同創(chuàng)立的瑞萊智慧(RealAI)打造,名字叫做“尊嘟假嘟”,英文名RealBelieve。
隨著視頻生成模型質(zhì)量的不斷提高,辨別AI造假也越來越困難,為此,團(tuán)隊基于深度學(xué)習(xí)技術(shù),構(gòu)建了一整套多模態(tài)、多角度的AIGC檢測技術(shù)體系。
“尊嘟假嘟”正是在這套技術(shù)之上建立,目前已開啟內(nèi)測招募,通過申請后即可體驗。
吃瓜群眾的“AI照妖鏡”
從背景和人臉的替換,到利用AI模型讓人做出指定的表情或動作,AI造假可謂是防不勝防。
一方面,不法分子利用AI炮制虛假內(nèi)容,對受害者個人聲譽(yù)和社會輿論都帶來了極大的不良影響;
另一方面,AI造假也被用于詐騙活動,不僅損害被冒充者的信譽(yù),也給受騙者帶來巨大的財產(chǎn)損失。
今年年初,就有不法分子利用深度偽造制作了一場假的視頻會議,騙走了一家公司1.8億元的巨款。
除了正確引導(dǎo)和加大打擊力度,讓用戶能夠更好地判別信息真?zhèn)?,也是一種重要的防護(hù)手段。
過去的AI造假檢測工具主要面向?qū)I(yè)人士,而且往往需要將內(nèi)容提取后上傳到檢測平臺中,才能進(jìn)行判別。
但如果只是普通的網(wǎng)絡(luò)視頻,讓吃瓜群眾用這樣的流程去鑒別真?zhèn)?,難免顯得有些繁瑣。
所以在支持上傳檢測的同時,“尊嘟假嘟”還能主動進(jìn)入視頻流,用戶一邊吃瓜,系統(tǒng)就能一邊判斷這瓜到底“保不保熟”。
比如一進(jìn)入Sora的宣傳頁面,系統(tǒng)就會針對網(wǎng)頁里的Demo視頻做出提示標(biāo)注,提醒瀏覽者該視頻“AI含量”極高。
另外針對AI詐騙日益猖獗的情況,尊嘟假嘟也支持視頻通話當(dāng)中進(jìn)行AI合成實時監(jiān)測防護(hù)。
在視頻通話時,同樣無需截取視頻上傳,尊嘟假嘟會及時主動給用戶發(fā)出預(yù)警內(nèi)容,提示視頻對方的人臉是否存在AI合成的風(fēng)險。
實時的風(fēng)險提示可以幫助用戶及時調(diào)整聊天方式,快速確認(rèn)對方的身份,減少不必要的損失,讓用戶隨時隨地在“AI安全保障”下進(jìn)行視頻通話。
AI造假與防偽的“貓鼠游戲”
針對“尊嘟假嘟”背后的技術(shù)原理,瑞萊智慧聯(lián)合創(chuàng)始人、算法科學(xué)家蕭子豪透露,該產(chǎn)品背后的檢測模型基于貝葉斯深度學(xué)習(xí)技術(shù)開發(fā)。
團(tuán)隊構(gòu)建了一整套多模態(tài)AIGC檢測技術(shù)體系,能夠挖掘并建模多模態(tài)、多層次、多角度的AI合成線索,度量真假差異,并進(jìn)行不確定性推理決策。
實際上,造假手段與防御方式之間,一直在進(jìn)行著一場“貓鼠游戲”。
起初的AIGC內(nèi)容還是“一眼假”,然后再“進(jìn)化”一些之后,多加注意也依然能夠通過常識進(jìn)行肉眼判別,比如視頻中人物的眨眼頻率不合常理、部分區(qū)域的銜接不夠自然等等。
但隨著AIGC能力的升級,這些“常識”也逐漸被模型所掌握,靠肉眼鑒別也越來越困難了,于是檢測手段也在進(jìn)化,人們開始研究用機(jī)器學(xué)習(xí)的手段進(jìn)行分析。
比如通過對目標(biāo)內(nèi)容的信號頻譜進(jìn)行分析,或者對圖像中的噪聲進(jìn)行檢測,挖掘內(nèi)容當(dāng)中的“AI痕跡”。
但這場你追我趕的爭斗從未停止,一方面的原因是,用來檢測AI的模型本身也是個AI,偽造者可以通過對抗訓(xùn)練的方式規(guī)避檢測、見招拆招。
相對于造假而言,鑒別的手段似乎往往是滯后的。所以,瑞萊智慧在研究檢測算法的同時,也會針對自己的方法進(jìn)行防御性攻擊,爭取讓檢測走在造假的前面。
實際上,瑞萊智慧團(tuán)隊早在2018年成立之初,主要的研究目標(biāo)就是AI合成檢測技術(shù),先后推出面向?qū)I(yè)人士的AI內(nèi)容檢測平臺DeepReal、人臉AI安全防火墻RealGuard等相關(guān)產(chǎn)品并持續(xù)迭代升級。
縱觀整個行業(yè),AI安全問題都備受關(guān)注,深度學(xué)習(xí)教父Hinton,還有ChatGPT的發(fā)明者、OpenAI前首席科學(xué)家Ilya,都一直在呼吁人們關(guān)注AI安全。
就在這兩天,Ilya剛剛宣布創(chuàng)立了一家公司,研究的就是安全超級智能。
不過相比之下,Ilya的公司,似乎更加關(guān)注的是AI的未來,而在現(xiàn)在,對AI造假的判別和檢測依然是一項緊迫的任務(wù)。