如何避免被AI生成的錯(cuò)誤信息欺騙
GenAI的進(jìn)步意味著虛假圖像、視頻、音頻和機(jī)器人現(xiàn)在無(wú)處不在,然而,研究已經(jīng)揭示了辨別真?zhèn)蔚淖罴逊椒ā?/p>
你是否注意到上面的圖像是由AI生成的?在技術(shù)進(jìn)步使AI生成的圖像、視頻、音頻和文本越來(lái)越難以與人類創(chuàng)作的內(nèi)容區(qū)分開來(lái)的時(shí)候,辨別這些虛假內(nèi)容變得尤為困難,這讓我們更容易受到虛假信息的操控,然而,通過(guò)了解用于制造虛假信息的AI技術(shù)的現(xiàn)狀以及辨別你所看到的內(nèi)容可能是偽造的各種標(biāo)志,你可以幫助自己免于上當(dāng)受騙。
世界領(lǐng)導(dǎo)人對(duì)此表示擔(dān)憂。根據(jù)世界經(jīng)濟(jì)論壇的一份報(bào)告,虛假信息和錯(cuò)誤信息可能會(huì)在未來(lái)兩年內(nèi)“徹底擾亂幾個(gè)經(jīng)濟(jì)體的選舉進(jìn)程”,而更容易獲取的AI工具“已經(jīng)導(dǎo)致偽造信息和所謂‘合成’內(nèi)容的激增,從復(fù)雜的語(yǔ)音克隆到假冒網(wǎng)站”。
“虛假信息”和“錯(cuò)誤信息”這兩個(gè)術(shù)語(yǔ)都指虛假或不準(zhǔn)確的信息,但“虛假信息”是指故意用來(lái)欺騙或誤導(dǎo)的信息。
加州大學(xué)伯克利分校的Hany Farid表示:“AI驅(qū)動(dòng)的虛假信息問(wèn)題在于其規(guī)模、速度和啟動(dòng)的簡(jiǎn)易性?!彼f(shuō),“這些攻擊不再需要國(guó)家資助的行為者或資金充足的組織——一個(gè)擁有適度計(jì)算能力的個(gè)體就能創(chuàng)造出大量虛假內(nèi)容?!?/p>
他指出,GenAI正在“污染整個(gè)信息生態(tài)系統(tǒng),使我們讀到、看到和聽到的一切都充滿疑慮。”他的研究表明,在許多情況下,AI生成的圖像和音頻“幾乎與現(xiàn)實(shí)難以區(qū)分”。
然而,F(xiàn)arid和其他研究人員的研究顯示,有一些策略可以幫助你減少被AI生成的社交媒體虛假信息或錯(cuò)誤信息所欺騙的風(fēng)險(xiǎn)。
如何識(shí)別虛假的AI圖像
還記得看到過(guò)教皇方濟(jì)各穿著羽絨夾克的照片嗎?隨著基于擴(kuò)散模型的新工具的出現(xiàn),使得任何人都可以通過(guò)簡(jiǎn)單的文本提示生成圖像,這類虛假的AI圖像變得越來(lái)越常見(jiàn)。Google的Nicholas Dufour及其同事的一項(xiàng)研究發(fā)現(xiàn),從2023年初開始,在經(jīng)過(guò)事實(shí)核查的虛假信息中,AI生成圖像的比例迅速增加。
“如今,媒體素養(yǎng)需要具備AI素養(yǎng),”伊利諾伊州西北大學(xué)的Negar Kamali表示。在2024年的一項(xiàng)研究中,她和她的同事們識(shí)別了AI生成圖像中五種不同類型的錯(cuò)誤,并提供了如何自行識(shí)別這些錯(cuò)誤的指導(dǎo)。好消息是,他們的研究表明,人們目前在識(shí)別假AI人像圖像時(shí)的準(zhǔn)確率約為70%。你可以通過(guò)他們的在線圖像測(cè)試來(lái)評(píng)估自己的偵查能力。
AI生成圖像中的五種常見(jiàn)錯(cuò)誤類型:
? 社會(huì)文化上的不合理性:場(chǎng)景是否表現(xiàn)出某些文化或歷史人物中罕見(jiàn)、不尋?;蛄钊梭@訝的行為?
? 解剖學(xué)上的不合理性:仔細(xì)觀察,身體部位如手的形狀或大小是否異常?眼睛或嘴巴是否看起來(lái)很奇怪?是否有身體部位融合在一起?
? 風(fēng)格化痕跡:圖像看起來(lái)是否不自然,幾乎過(guò)于完美或過(guò)于風(fēng)格化?背景是否看起來(lái)很奇怪,或者缺少什么?光照是否不正?;蜃兓欢?
? 功能上的不合理性:是否有任何物體看起來(lái)很怪異,或者可能不真實(shí)或無(wú)法正常工作?例如,按鈕或皮帶扣是否處于奇怪的位置?
? 物理學(xué)上的違背:陰影的方向是否不一致?鏡子的反射是否與圖像中的世界一致?
如何識(shí)別視頻中的深度偽造
自2014年以來(lái),生成對(duì)抗網(wǎng)絡(luò)(GAN)這項(xiàng)AI技術(shù)已經(jīng)使技術(shù)嫻熟的個(gè)人能夠創(chuàng)建視頻深度偽造,通過(guò)數(shù)字操控現(xiàn)有的人物視頻,替換臉部、生成新的面部表情,并插入與唇語(yǔ)同步的新音頻,這使得越來(lái)越多的騙子、國(guó)家支持的黑客和互聯(lián)網(wǎng)用戶能夠制作視頻深度偽造,其中包括名人如Taylor Swift以及普通人可能會(huì)在未經(jīng)同意的情況下出現(xiàn)在深度偽造的色情視頻、騙局和政治虛假信息中。
識(shí)別AI假圖像的技巧同樣適用于可疑視頻。此外,麻省理工學(xué)院和伊利諾伊州西北大學(xué)的研究人員匯總了一些識(shí)別深度偽造的技巧,但他們也承認(rèn),沒(méi)有一種方法是完全可靠的。
識(shí)別AI生成視頻的六個(gè)技巧:
? 嘴巴和唇部動(dòng)作:視頻和音頻是否有不完全同步的時(shí)刻?
? 解剖學(xué)上的故障:臉部或身體是否看起來(lái)奇怪,或移動(dòng)不自然?
? 面部:尋找面部光滑度或額頭和臉頰皺紋的異常,以及面部痣的不一致性。
? 光照:光照是否不一致?陰影是否如預(yù)期般表現(xiàn)?特別注意一個(gè)人的眼睛、眉毛和眼鏡。
? 頭發(fā):面部毛發(fā)是否看起來(lái)很奇怪,或者移動(dòng)方式不自然?
? 眨眼:過(guò)多或過(guò)少的眨眼可能是深度偽造的標(biāo)志。
一種更新的深度偽造視頻類別基于擴(kuò)散模型——這也是許多圖像生成器背后的AI技術(shù)——可以根據(jù)文本提示生成完全由AI生成的視頻片段。公司已經(jīng)在測(cè)試并發(fā)布商業(yè)版的AI視頻生成器,這些生成器使任何人無(wú)需特殊技術(shù)知識(shí)就能輕松實(shí)現(xiàn)。目前,生成的視頻通常呈現(xiàn)出扭曲的臉部或奇怪的身體動(dòng)作。
“這些AI生成的視頻可能比圖像更容易被人們察覺(jué),因?yàn)樗鼈儼罅康膭?dòng)作,AI生成的偽影和不合理之處也更容易被發(fā)現(xiàn),”Kamali說(shuō)。
如何識(shí)別AI機(jī)器人
由計(jì)算機(jī)機(jī)器人控制的社交媒體賬號(hào)在許多社交媒體和消息平臺(tái)上變得越來(lái)越普遍。自2022年以來(lái),越來(lái)越多的這些機(jī)器人利用GenAI技術(shù),如大型語(yǔ)言模型。這些技術(shù)使得通過(guò)成千上萬(wàn)個(gè)機(jī)器人輕松且低成本地生成語(yǔ)法正確且根據(jù)不同情況定制的AI撰寫內(nèi)容變得可能。
“為特定受眾定制這些大型語(yǔ)言模型以傳遞特定信息已經(jīng)變得容易得多,”印第安納州圣母大學(xué)的Paul Brenner表示。
Brenner和他的同事在研究中發(fā)現(xiàn),即使參與者被告知他們可能正在與機(jī)器人互動(dòng),他們?nèi)匀恢荒茉诖蠹s42%的情況下區(qū)分AI驅(qū)動(dòng)的機(jī)器人和人類。你可以在這里測(cè)試自己的機(jī)器人識(shí)別技能。
Brenner表示,一些策略可以幫助識(shí)別技術(shù)水平較低的AI機(jī)器人。
判斷社交媒體賬號(hào)是否為AI機(jī)器人的五種方法:
? 表情符號(hào)和標(biāo)簽:過(guò)度使用這些元素可能是一個(gè)信號(hào)。
? 不常見(jiàn)的措辭、詞匯選擇或比喻:不尋常的措辭可能表明是AI機(jī)器人。
? 重復(fù)性和結(jié)構(gòu):機(jī)器人可能會(huì)使用重復(fù)的措辭,遵循類似或僵硬的形式,并可能過(guò)度使用某些俚語(yǔ)。
? 提問(wèn):提問(wèn)可以揭示機(jī)器人對(duì)某個(gè)話題缺乏知識(shí),特別是涉及本地地點(diǎn)和情況時(shí)。
? 假設(shè)最壞情況:如果某個(gè)社交媒體賬號(hào)不是個(gè)人聯(lián)系人,且其身份沒(méi)有被明確驗(yàn)證或認(rèn)證,那么很可能是AI機(jī)器人。
如何檢測(cè)語(yǔ)音克隆和語(yǔ)音深度偽造
語(yǔ)音克隆AI工具使得生成可以模仿幾乎任何人的新語(yǔ)音音頻變得容易。這導(dǎo)致了語(yǔ)音深度偽造騙局的興起,這些騙局克隆了家庭成員、公司高管和政治領(lǐng)導(dǎo)人(如美國(guó)總統(tǒng)Joe Biden)的聲音。與AI生成的視頻或圖像相比,這些語(yǔ)音深度偽造更難識(shí)別。
“語(yǔ)音克隆特別難以區(qū)分真假,因?yàn)闆](méi)有視覺(jué)組件來(lái)幫助我們的大腦做出判斷,”白帽黑客組織SocialProof Security的聯(lián)合創(chuàng)始人Rachel Tobac說(shuō)道。
識(shí)別這些AI生成的音頻深度偽造尤其困難,特別是在視頻和電話通話中使用時(shí)。但你可以采取一些常識(shí)性的步驟來(lái)區(qū)分真人與AI生成的聲音。
識(shí)別音頻是否被AI克隆或偽造的四個(gè)步驟:
? 公眾人物:如果音頻片段涉及一位民選官員或名人,檢查他們所說(shuō)的內(nèi)容是否與已公開報(bào)道或分享的他們的觀點(diǎn)和行為一致。
? 尋找不一致性:將音頻片段與之前經(jīng)過(guò)驗(yàn)證的視頻或音頻片段進(jìn)行比較,看看他們的聲音或說(shuō)話方式是否有任何不一致之處。
? 尷尬的停頓:如果你在聽電話或語(yǔ)音信箱時(shí),發(fā)現(xiàn)說(shuō)話者在講話時(shí)有異常長(zhǎng)的停頓,可能是在使用AI驅(qū)動(dòng)的語(yǔ)音克隆技術(shù)。
? 奇怪且啰嗦:任何機(jī)械化的語(yǔ)音模式或異常冗長(zhǎng)的說(shuō)話方式都可能表明有人在使用語(yǔ)音克隆技術(shù)來(lái)模仿某人的聲音,并使用大型語(yǔ)言模型來(lái)生成精確的措辭。
技術(shù)只會(huì)越來(lái)越先進(jìn)
目前,還沒(méi)有一致的規(guī)則可以始終區(qū)分AI生成的內(nèi)容與真實(shí)人類內(nèi)容。能夠生成文本、圖像、視頻和音頻的AI模型幾乎肯定會(huì)繼續(xù)改進(jìn),它們通??梢钥焖偕煽此普鎸?shí)的內(nèi)容,而沒(méi)有明顯的偽影或錯(cuò)誤。Rachel Tobac表示:“保持適度的懷疑意識(shí),并意識(shí)到AI正在快速地操控和偽造圖片、視頻和音頻——我們說(shuō)的是在30秒或更短時(shí)間內(nèi)完成?!边@使得那些想要欺騙他人的惡意人士能夠快速生成AI生成的虛假信息,并在新聞爆發(fā)后幾分鐘內(nèi)就發(fā)布到社交媒體上。
盡管培養(yǎng)識(shí)別AI生成虛假信息的眼光并學(xué)會(huì)對(duì)你所讀、所見(jiàn)、所聽的內(nèi)容提出更多問(wèn)題是重要的,但這最終還不足以阻止傷害,識(shí)別虛假的責(zé)任也不能完全落在個(gè)人身上。Farid和其他研究人員認(rèn)為,政府監(jiān)管機(jī)構(gòu)必須追究那些開發(fā)出大量充斥互聯(lián)網(wǎng)的虛假AI生成內(nèi)容工具的大型科技公司和由知名硅谷投資者支持的初創(chuàng)公司的責(zé)任。Farid表示:“技術(shù)不是中立的??萍夹袠I(yè)向我們兜售的這一觀點(diǎn),即他們不需要承擔(dān)像其他行業(yè)那樣的責(zé)任,我完全不接受?!?/p>