自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

AI美女全軍覆沒!賽博照妖鏡下集體變“鬼”,AI代碼拆臺AI生圖

人工智能
這也意味著,如果當下的AI繼續(xù)在紋理細節(jié)、色彩等方面下功夫訓練,等到下一代AI畫圖模型出來時,人類的辨認方法可能又要失效了……

賽博照妖鏡下,AI美女全變鬼。

來看它的牙

圖片圖片

把圖像飽和度拉滿,AI人像的牙齒就會變得非常詭異,邊界模糊不清。

整體圖片的顏色也正常,麥克風部分更是奇怪。

對比真實人類照片,則應該是這樣的。

牙齒是清晰的,圖片色塊都是均勻一致的。

圖片圖片

這個工具已經開放,人人都能拿著照片去試試。

AI生成視頻中的某一幀,也難逃此大法。

圖片圖片

不漏牙的照片也會暴露問題。

圖片圖片

不過BTW,這個工具出自Claude之手。用AI破解AI,奇妙的閉環(huán)。

圖片圖片

有一說一,最近AI人像太逼真又引發(fā)了不小討論,比如一組大火的“TED演講者視頻”,其實沒有一個是真人。

圖片圖片

不只是人臉難以區(qū)分,就連之前AI的短板——寫字,現(xiàn)在都能完全以假亂真。

圖片圖片

更關鍵的是,生成這樣的AI人像,成本也不高。低至5分鐘、每20秒1.5美元(人民幣10塊左右)的價格即可搞定。

圖片圖片

這下網友們都坐不住了,紛紛搞起AI打假大賽。

近5千人來討論,這兩張圖到底哪張是真人。

圖片圖片

給出的理由五花八門。有人發(fā)現(xiàn)文字、花紋細節(jié)很抽象,有人則覺得人物眼神很空洞……

最先進的AI們生成人像有啥規(guī)律,逐漸被大家摸索出來了。

不看細節(jié)已很難分辨

匯總來看,調整飽和度或許是目前最快速辨別的方法。

AI群像照在這種方法下暴露得更加徹底。

圖片圖片

不過它存在一個問題。如果圖像用JPEG算法壓縮過后,該方法可能失效。

比如確定這張照片是真人照片。

圖片圖片

但是由于畫質壓縮以及光線等問題,人物牙齒也有點模糊。

圖片圖片

所以網友們還列出了更多分辨人像是否是AI合成的方法。

第一種方法,簡單說就是依靠人類的知識判斷。

由于AI學習圖像的方式和人類并不一致,難免無法100%掌握人類視角下的視覺信息。

造成的結果就是,AI生成的圖片常常包含與現(xiàn)實世界不符之處,這就為圖像的鑒別提供了著手之處。

用開頭的這張圖片作為例子。

從整體上看,人物的皮膚過于光滑,看不到任何的毛孔,這種過于完美的特征反而增加了不真實感。

當然這種“不真實感”并不完全等同于“造假”,畢竟經過磨皮處理的圖片同樣看不到毛孔。

但這也并非唯一的判斷因素,AI在圖片中留下的與常識的出入也未必只有一處。

圖片圖片

實際上,這張圖只要稍微看以下細節(jié),就能看到一個比較明顯的特征——胸牌上方掛鉤奇特的連接方式

圖片圖片

還有在高飽和度模式下露出破綻的麥克風,放大之后直接用肉眼也能看出端倪。

圖片圖片

更為隱蔽的是,頭發(fā)末端有幾根毛發(fā)的位置很不合理,但這樣的特征,恐怕要擁有列文虎克級別的視力才能看到了。

不過,隨著生成技術的進步,能夠找到的特征越來越隱蔽,也是一個無法避免的趨勢。

圖片圖片

還有一種方法是看文字,雖然AI在字型的刻畫上正逐漸克服“鬼畫符”的問題,但正確地渲染出有正確實際含義的文字還存在一些困難。

比如有網友發(fā)現(xiàn),照片中的人佩戴的胸牌上,Google標志的下方最后一行字中的兩個字母是“CA”,表示美國加州,前面的一大長串應該是城市名。

但實際上,加州根本沒有名字如此之長的城市。

圖片圖片

除了這些物體本身的細節(jié),還有光線、陰影等信息也可以用來判斷真?zhèn)巍?/p>

這張圖片是從一段視頻當中提取的,在它所在的視頻當中還有這樣的一幀。

在話筒右側的位置,有一片十分詭異的陰影,這片陰影對應的是人物的一只手,顯然AI在這里處理得有所欠缺。

圖片圖片

說到視頻,由于涉及前后內容一致性,AI倒是比在靜態(tài)圖像中更容易露出雞腳馬腳。

圖片圖片

還有一些特征不算“常識錯誤”,但也體現(xiàn)出了AI在生成圖像時的一些偏好。

比如這四張圖,都是AI合成的“普通人”(average people),有沒有發(fā)現(xiàn)什么共同之處?

圖片圖片

有網友表示,這四張圖里的人,沒有一個是笑臉,這點似乎就體現(xiàn)了AI生圖的某種特征。

圖片圖片

針對這幾張圖而言確實如此,但這樣的判斷方式很難形成系統(tǒng),畢竟不同的AI繪圖工具,特點也都不盡相同。

總之,為了應對逐漸進步的AI,一方面可以加大“列文虎克”的力度,一方面還可以引入像拉高飽和度這樣的圖像處理技術。

但如果這樣的“量變”積累得越來越多,肉眼判斷也會越來越困難,圖像飽和度可能也有被AI攻破的一天。

所以人們也在轉變思路,想到了“以模制?!钡姆椒?,用AI生成的圖片訓練檢測模型,從圖像中分析更多特征。

比如AI生成的圖像在頻譜、噪聲分布等方面存在許多特點,這些特點依靠肉眼無法捕捉,但AI卻能看得很清楚。

當然,也不排除檢測方法落后、跟不上模型變化,甚至模型開發(fā)者專門進行對抗性開發(fā)的可能。

比如前文一直在討論的這張圖片,某AI檢測工具認為它是AI合成的概率只有2%。

圖片圖片

但AI造假和AI檢測之間的博弈過程,本身就是一場“貓鼠游戲”。

所以在檢測之外,可能還需要模型的開發(fā)者也負起一些責任,例如給AI生成的圖片打上隱形水印,讓AI造假無處遁形。

AI魔高一尺

值得一提的是,如上引發(fā)恐慌的AI人像,不少都是由最近爆火的Flux生成/參與制作。

甚至大家已經開始默認,效果太好難以分辨的,就是Flux做的。

圖片圖片

它由Stable Diffusion原班人馬打造,發(fā)布才10天就在網絡上掀起軒然大波。

這些精美的假TED演講照片,都是出自它手。

圖片圖片

還有人用Flux和Gen-3一起做出了精美的護膚品廣告。

圖片圖片

以及多角度的各種合成效果。

圖片圖片

它很好解決了AI畫手、AI生成圖片中文字等問題。

圖片圖片

這直接導致現(xiàn)在人類區(qū)分AI畫圖,不能再直接看手和文字了,只能盯著蛛絲馬跡猜。

圖片圖片

Flux應該是在手部、文字等指標上加強了訓練。

這也意味著,如果當下的AI繼續(xù)在紋理細節(jié)、色彩等方面下功夫訓練,等到下一代AI畫圖模型出來時,人類的辨認方法可能又要失效了……

而且Flux還是開源、筆記本電腦上可運行的。不少人現(xiàn)在已經在Forget Midjourney了。

從Stable Diffusion到Flux,用了2年。

從“威爾史密斯吃面條”到“Tedx演講者”,用了1年。

真不知道以后為了分辨AI生成,人類得想出哪些歪招了……

參考鏈接:
[1]https://x.com/ChuckBaggett/status/1822686462044754160
[2]https://www.reddit.com/r/artificial/comments/1epjlbl/average_looking_people/
[3]https://www.reddit.com/r/ChatGPT/comments/1epeshq/these_are_all_ai/
[4]https://x.com/levelsio/status/1822751995012268062

責任編輯:武曉燕 來源: 量子位
相關推薦

2020-09-09 11:32:41

Android漏洞應用安全

2014-10-13 10:04:42

2018-05-24 14:01:47

服務器英特爾高通

2009-12-03 10:33:27

2024-03-27 15:44:32

2025-03-11 13:49:20

2023-08-25 20:24:26

百度AI大模型

2018-08-31 10:31:49

AI人工智能人才

2023-08-14 13:40:22

AI網友視頻

2015-07-10 13:09:59

火車WiFi

2018-01-19 10:12:03

UCloudAI競賽人工智能

2017-11-16 20:23:32

聯(lián)想超融合

2024-08-20 07:47:12

AI零代碼網關

2014-06-09 11:05:08

2021-07-14 17:25:59

AI/網絡/體驗至上
點贊
收藏

51CTO技術棧公眾號