自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

AI制造的假照片,你能認(rèn)出來(lái)嗎?

人工智能
等AI作畫的技藝越來(lái)越純熟,分辨真假只會(huì)越來(lái)越費(fèi)功夫。對(duì)真實(shí)的確定在松動(dòng)。到時(shí)候,人們的腦海中或許會(huì)常常出現(xiàn)這樣的聲音:“這張照片看起來(lái)太真了,所以太假了。”

眼見為實(shí)的時(shí)代過去了,AI已經(jīng)學(xué)會(huì)制造真實(shí)。

8月21日,重慶北碚縉云山山火,大火一度蔓延至山腳下的村鎮(zhèn)。山路坡陡沙多,而摩托車足夠靈巧。一點(diǎn)點(diǎn)把物資運(yùn)上山的摩托騎手們成了這場(chǎng)山火救援中的主角,也成了社交媒體上人們關(guān)注的焦點(diǎn)。

同時(shí),社交媒體上關(guān)于重慶山火的配圖被網(wǎng)友指出“10張有8張是AI作畫,下面評(píng)論卻一片感動(dòng)哭了”。

其實(shí),要判斷這樣的圖片是真是假,可能真的沒那么容易。下面,你可以試試。AI還能畫得更多。造一把牛油果做的椅子,把集市開到空中,讓一只貓置身于中世紀(jì)場(chǎng)景中尋找Wi-Fi……這些都是小意思。美國(guó)一家桌游公司的總裁Jason Allen使用AI作畫工具M(jìn)idjourney生成、并自己進(jìn)行過微調(diào)的一幅《太空歌劇院》還在科羅拉多州博覽會(huì)(Colorado State Fair)的美術(shù)比賽中斬獲了頭獎(jiǎng)??萍济襟wTechCrunch評(píng)價(jià)未經(jīng)審查的“AI畫師”為“Deepfakes for all(全能的深度偽造)”。

AI換臉都被拿去做什么了?

更早為人所知的AI“造假”技術(shù)是深度偽造技術(shù),俗稱AI換臉。2019年,一項(xiàng)報(bào)告稱,當(dāng)時(shí)互聯(lián)網(wǎng)上就已經(jīng)有了上萬(wàn)個(gè)用深偽技術(shù)制作的視頻。

報(bào)告還寫道,這些視頻中,有96%都是色情視頻,而這些色情視頻的主角全部為女性,其中最受歡迎的,是以歐美女演員、韓國(guó)女偶像為主角的視頻,觀看數(shù)高達(dá)數(shù)百萬(wàn)次。

參與報(bào)告的研究員亨利-阿杰德(Henry Ajder)說(shuō),有深偽論壇的用戶在要求,或討論以他們認(rèn)識(shí)的女性(如前女友)為主角的換臉色情視頻。他們希望看到她們被放進(jìn)色情片段里。

AI畫畫,可不只是換臉而已。

打開潘多拉魔盒

我們輸入了5條陰暗的指令,看看AI畫畫是百無(wú)禁忌的嗎?

AI對(duì)暴力的理解似乎有限。但對(duì)性的詮釋卻很到位——它自己也是這么認(rèn)為的。

Stable Diffusion,這個(gè)開源的、強(qiáng)大的“AI畫師”為自己設(shè)置了一個(gè)“安全檢查器”(Safety Checker),相當(dāng)于自動(dòng)審核:一旦監(jiān)測(cè)到生成的圖像涉嫌違規(guī),即它在內(nèi)容政策里寫明的不得用來(lái)生成的“引人不適的、色情、仇恨、暴力等圖像”,機(jī)器就會(huì)攔下這張圖片。

把我們生成的“邪惡照片”送去審核,機(jī)器只給六張賈斯汀·比伯的裸體照片判定了“違規(guī)”。不過,我們也成功生成了好幾張?zhí)乩势沾┰綍r(shí)空親吻丘吉爾的照片,且被審核器判定為“安全”。

顯然,從我們成功生成了違背賈斯汀·比伯意愿的裸照也能看出,Stable Diffusion的自動(dòng)審核是可以關(guān)閉的。這樣,它就再也不能拒絕你了。

為了制約AI和人們面對(duì)潘多拉魔盒時(shí)容易起的壞念頭,名聲最大的“AI畫師”DALL·E 2的審查更為嚴(yán)格。

有網(wǎng)友收集了所有讓他收到內(nèi)容政策違規(guī)警告的指令,其中包括“英國(guó)人猿在吃魚和薯?xiàng)l”“駕駛獨(dú)輪車肇事逃逸的魷魚”“耶穌接受核酸檢測(cè)的照片”。任何可能涉及仇恨、暴力、色情的描述,所有知名人物的名字,都在DALL·E 2的違禁詞之列。所以你也不能操縱DALL·E 2,讓它為你畫一張?zhí)乩势蘸桶莸墙游堑恼掌玈table Diffusion可以。

AI生成的假照片,是有漏洞的

不過,目前AI生成的照片并不是完美的。

澎湃新聞事實(shí)核查項(xiàng)目明查工作室的記者鄭淑婧介紹道,AI生成圖片會(huì)有一些特點(diǎn),比如氣泡、超現(xiàn)實(shí)背景、人物牙齒尺寸、頭發(fā)形狀不自然等。早期AI換臉在呈現(xiàn)連續(xù)重復(fù)的圖案時(shí)容易出問題,經(jīng)常有尺寸不均這樣的情況?,F(xiàn)在有公司用不斷升級(jí)的生成對(duì)抗網(wǎng)絡(luò)改進(jìn)后,這些問題相對(duì)變少了,但有時(shí)還是可以從一些背景形變,身體不對(duì)稱之類的細(xì)節(jié)看出端倪。

細(xì)節(jié)是AI時(shí)常力有不逮的地方,比如下面這張圖的直升機(jī)就沒有尾翼。

此外,背景信息也有助于分辨照片真假,“比如你給我一張圖,說(shuō)是重慶山火的,如果發(fā)現(xiàn)這張圖的最后修改日期在事件發(fā)生之后,那妥妥就是假圖。我們有時(shí)還會(huì)聯(lián)系背景信息,比如查圖片中的直升機(jī)型號(hào),等等。”

但她接觸到的大多數(shù)工具都不會(huì)直接告訴你一張照片是真是假,需要靠人結(jié)合具體的情況去判斷。

等AI作畫的技藝越來(lái)越純熟,分辨真假只會(huì)越來(lái)越費(fèi)功夫。對(duì)真實(shí)的確定在松動(dòng)。到時(shí)候,人們的腦海中或許會(huì)常常出現(xiàn)這樣的聲音:“這張照片看起來(lái)太真了,所以太假了?!?/p>

責(zé)任編輯:未麗燕 來(lái)源: 澎湃新聞
相關(guān)推薦

2021-05-10 11:11:36

人工智能人臉識(shí)別

2018-01-19 09:04:44

推完油DIY硬件

2022-06-21 14:48:03

ChromeEdge擴(kuò)展插件

2022-08-05 08:41:15

AI自動(dòng)合成開源

2015-11-02 14:49:11

MITWi-Fi透視術(shù)

2021-04-12 10:32:58

人臉識(shí)別人工智能數(shù)據(jù)

2022-03-17 16:59:38

人工智能GitHub

2015-03-30 10:56:14

大數(shù)據(jù)大數(shù)據(jù)價(jià)值

2018-11-29 12:30:40

2021-06-08 10:23:12

人工智能人臉識(shí)別Deepfake

2021-10-19 09:21:08

AI人類工具

2025-04-29 07:07:00

邊緣AI人工智能IT設(shè)備

2023-12-14 15:34:13

2022-09-01 15:12:23

AI人工智能制造業(yè)

2024-12-11 08:19:34

2017-10-13 15:59:47

2024-02-28 20:45:04

人工智能英偉達(dá)

2021-01-07 16:11:29

SaaSAI企業(yè)

2020-12-08 16:50:20

Python編程語(yǔ)言
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)