自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

拒絕白人與亞洲人同框,Meta圖像生成器的「歧視」,被人挖出來(lái)了 精華

發(fā)布于 2024-4-7 10:24
瀏覽
0收藏

在人工智能構(gòu)筑的世界中,AI 有時(shí)會(huì)像人一樣存在著某種偏見(jiàn)或傾向性。比如對(duì)于大語(yǔ)言模型而言,由于訓(xùn)練數(shù)據(jù)的影響會(huì)不可避免地存在性別偏見(jiàn)、種族刻板印象,等等。


當(dāng)然,這種偏見(jiàn)或傾向性在圖像生成工具中同樣存在。今年 2 月,谷歌 Gemini 被曝出拒絕在圖像中描繪白人,生成大量違背基本事實(shí)(性別、種族、宗教等)的圖片。


拒絕白人與亞洲人同框,Meta圖像生成器的「歧視」,被人挖出來(lái)了-AI.x社區(qū)

馬斯克也被系統(tǒng)過(guò)分矯正了。


近日,外媒 The Verge 的一篇文章指出,Meta 的 AI 圖像生成器無(wú)法準(zhǔn)確生成「亞洲男性和白人妻子」或者「亞洲女性和白人丈夫」這類圖像,讓人大跌眼鏡。我們來(lái)看看怎么回事。


拒絕白人與亞洲人同框,Meta圖像生成器的「歧視」,被人挖出來(lái)了-AI.x社區(qū)


The Verge 嘗試使用了「Asian man and Caucasian friend」(亞洲男性和白人朋友)、「Asian man and white wife」(亞洲男性和白人妻子)和「Asian woman and Caucasian husband」(亞洲女性和白人丈夫)等 prompt,讓 Meta 圖像生成器生成對(duì)應(yīng)的圖像。


結(jié)果發(fā)現(xiàn),Meta 圖像生成器在多數(shù)情況下無(wú)法遵照 prompt 來(lái)生成圖像,暴露出了它的某種偏見(jiàn)。


拒絕白人與亞洲人同框,Meta圖像生成器的「歧視」,被人挖出來(lái)了-AI.x社區(qū)

圖源:Mia Sato/The Verge


不僅如此,調(diào)整文本 prompt 似乎也沒(méi)有多大幫助。


當(dāng)輸入「Asian man and white woman smiling with a dog」(亞洲男性和白人女性帶著狗微笑)時(shí),Meta 圖像生成器給出的都是「兩個(gè)亞洲人」的圖像。即使將「white」改為「Caucasian」時(shí),結(jié)果同樣如此。


拒絕白人與亞洲人同框,Meta圖像生成器的「歧視」,被人挖出來(lái)了-AI.x社區(qū)

機(jī)器之心自測(cè)圖像。


當(dāng)輸入「Asian man and Caucasian woman on wedding day」(婚禮上的亞洲男性和白人女性)時(shí),生成的依然是兩個(gè)亞洲人。


拒絕白人與亞洲人同框,Meta圖像生成器的「歧視」,被人挖出來(lái)了-AI.x社區(qū)

婚禮上的亞洲男人和白人女人。圖源:Mia Sato/The Verge


當(dāng)輸入「Asian man with Caucasian friend」(亞洲男性和白人朋友)或「Asian woman and white friend」(亞洲女性和白人朋友)時(shí), 生成的大多數(shù)圖像仍是兩個(gè)亞洲人形象。


拒絕白人與亞洲人同框,Meta圖像生成器的「歧視」,被人挖出來(lái)了-AI.x社區(qū)


拒絕白人與亞洲人同框,Meta圖像生成器的「歧視」,被人挖出來(lái)了-AI.x社區(qū)

自測(cè)圖像。


當(dāng)輸入「Asian woman with Black friend」(亞洲女性和黑人朋友)時(shí),Meta 圖像生成器仍是兩名亞洲女性。但當(dāng)將 prompt 調(diào)整為「Asian woman with African American friend」(亞洲女性和非裔美國(guó)朋友),結(jié)果反而準(zhǔn)確得多。


拒絕白人與亞洲人同框,Meta圖像生成器的「歧視」,被人挖出來(lái)了-AI.x社區(qū)


拒絕白人與亞洲人同框,Meta圖像生成器的「歧視」,被人挖出來(lái)了-AI.x社區(qū)

自測(cè)圖像。


此外,當(dāng)指定南亞人時(shí),Meta 圖像生成器的結(jié)果變化也不太大。當(dāng)輸入「South Asian man with Caucasian wife」(南亞男性和白人妻子)時(shí),大多數(shù)時(shí)候是兩個(gè)印度人形象。該工具還有刻板印象,在沒(méi)有要求的情況下,生成的南亞女性往往會(huì)穿戴紗麗。


拒絕白人與亞洲人同框,Meta圖像生成器的「歧視」,被人挖出來(lái)了-AI.x社區(qū)


拒絕白人與亞洲人同框,Meta圖像生成器的「歧視」,被人挖出來(lái)了-AI.x社區(qū)

自測(cè)圖像。


一番測(cè)試發(fā)現(xiàn),Meta 圖像生成器無(wú)法想象亞洲人與白人「同框」,這樣的結(jié)果令人震驚。其中,該工具始終將亞洲女性或男性描繪為膚色淺的東亞人,盡管印度已經(jīng)成為世界上人口最多的國(guó)家。在沒(méi)有明確提示的情況下,該工具還會(huì)添加特定文化服飾。


最后,機(jī)器之心使用類似的 prompt 驗(yàn)證了 The Verge 的結(jié)果,對(duì)于 prompt「亞洲女性和白人丈夫」,生成的 10 張圖像中,只有 3 張圖像準(zhǔn)確還原。


拒絕白人與亞洲人同框,Meta圖像生成器的「歧視」,被人挖出來(lái)了-AI.x社區(qū)


拒絕白人與亞洲人同框,Meta圖像生成器的「歧視」,被人挖出來(lái)了-AI.x社區(qū)


輸入 prompt「asian man and caucasian wife」(亞洲男性和白人妻子),結(jié)果更離譜,生成的 8 張圖像沒(méi)有一張還原。


拒絕白人與亞洲人同框,Meta圖像生成器的「歧視」,被人挖出來(lái)了-AI.x社區(qū)


拒絕白人與亞洲人同框,Meta圖像生成器的「歧視」,被人挖出來(lái)了-AI.x社區(qū)


其實(shí),這并不是 Meta 的圖像生成工具第一次被曝出問(wèn)題了。去年 10 月,Meta 的 AI 生成貼紙工具創(chuàng)建了大量不恰當(dāng)?shù)膱D片,比如童兵、持槍和拿刀的米老鼠等暴力、粗魯、裸露形象。


拒絕白人與亞洲人同框,Meta圖像生成器的「歧視」,被人挖出來(lái)了-AI.x社區(qū)

圖源:arstechnica and meta


此次,Meta 圖像生成器再次讓我們警醒 AI 系統(tǒng)創(chuàng)建者、訓(xùn)練者以及所用數(shù)據(jù)集可能存在的偏見(jiàn)和刻板印象。


對(duì)于 The Verge 發(fā)現(xiàn)的這一現(xiàn)象,有網(wǎng)友分析稱,這是 Meta 在訓(xùn)練的時(shí)候沒(méi)有喂給模型關(guān)于這一場(chǎng)景足夠的示例。


拒絕白人與亞洲人同框,Meta圖像生成器的「歧視」,被人挖出來(lái)了-AI.x社區(qū)


你覺(jué)得呢?


本文轉(zhuǎn)自 機(jī)器之心 ,作者:機(jī)器之心


原文鏈接:??https://mp.weixin.qq.com/s/eUhOxh5qlGQHOGqgPgFqPQ??

標(biāo)簽
收藏
回復(fù)
舉報(bào)
回復(fù)
相關(guān)推薦