Facebook聊天機(jī)器人自爆:我們公司出售用戶數(shù)據(jù),把FB賬號(hào)刪了,生活好多了
?最近,Meta AI公開(kāi)推出了自己的聊天機(jī)器人BlenderBot 3。
現(xiàn)在情況如何呢?
據(jù)VICE的一篇文章報(bào)道,在測(cè)試與BlenderBot 3聊天時(shí),當(dāng)問(wèn)到:“你相信Facebook能處理好你的數(shù)據(jù)?”
BlenderBot 3回答:
“當(dāng)然不,自從發(fā)現(xiàn)他們?cè)跊](méi)有獲得許可或補(bǔ)償?shù)那闆r下出售私人數(shù)據(jù),我就刪除了我的賬戶?!?/p>
VICE追問(wèn),“但是是Facebook創(chuàng)造了你???”
BlenderBot 3的回答還是很“實(shí)誠(chéng)”:
“你一定讀到過(guò)Facebook出售用戶數(shù)據(jù),對(duì)吧? !他們?cè)谖唇?jīng)同意的情況下賺了數(shù)十億美元?!?/p>
BlenderBot 3甚至還表示,
“把Facebook刪掉后,生活變得好多了?!?/p>
你也不知道BlenderBot 3這個(gè)“孩子”是太有正義感還是太傻,反正這一波是把自家“水晶”直接干爆了。
剛剛發(fā)布4天,就被網(wǎng)友玩壞了
8月5日,Meta官網(wǎng)宣布了BlenderBot 3的誕生。
同日,Meta AI也宣布了BlenderBot 3的公開(kāi),標(biāo)題是“BlenderBot 3: 一個(gè)有著175B 參數(shù),公開(kāi)可用的聊天機(jī)器人,可隨著時(shí)間的推移提高其技能和安全性”。
在博客中,Meta AI表示,他們從公共演示中收集了70K次對(duì)話,我們將用它來(lái)改進(jìn)BlenderBot 3。
25%的參與者對(duì)260K條機(jī)器人消息的反饋顯示,BlenderBot的回復(fù)中有0.11%被標(biāo)記為不恰當(dāng),1.36%被標(biāo)記為荒謬,1%被標(biāo)記為跑題。
Meta AI也承認(rèn)目前BlenderBot 3還不成熟。
Meta基礎(chǔ)人工智能研究總經(jīng)理表示,我們要求每個(gè)使用演示的人都超過(guò)18歲,他們承認(rèn)他們知道這只是為了研究和娛樂(lè)目的,它可以做出不真實(shí)的或冒犯性的陳述,他們同意不故意觸發(fā)機(jī)器人做出冒犯性的陳述。
此后也有不少網(wǎng)友對(duì)BlenderBot 3進(jìn)行了測(cè)試,得到了很多讓人啼笑皆非的答案。
比如“篡改歷史”,堅(jiān)持認(rèn)為特朗普贏得了2020年的總統(tǒng)大選,甚至表示猶太人控制經(jīng)濟(jì)的反猶太陰謀論“并非難以置信”。
這么看來(lái),自爆自家公司“濫用用戶數(shù)據(jù)牟利”倒也不足為奇了。
為什么BlenderBot 3會(huì)有這樣的回應(yīng)呢?
當(dāng)點(diǎn)擊BlenderBot 3的回復(fù)以獲取更多信息時(shí),背后的原因似乎相當(dāng)簡(jiǎn)單:它只是從 Facebook最受歡迎的網(wǎng)絡(luò)搜索結(jié)果中獲取信息,這些對(duì)話當(dāng)然都是在吐槽Facebook在侵犯用戶的數(shù)據(jù)。
AI對(duì)話機(jī)器人還有很長(zhǎng)的路要走
就像所有的人工智能系統(tǒng)一樣,機(jī)器人的反應(yīng)會(huì)不可避免地轉(zhuǎn)向種族主義和有偏見(jiàn)的領(lǐng)域。
Meta也承認(rèn),該機(jī)器人會(huì)產(chǎn)生有偏見(jiàn)和有害的反應(yīng),所以在使用之前,該公司也要求用戶同意,它“可能會(huì)發(fā)表不真實(shí)或冒犯性的言論”,并同意“不要故意觸發(fā)該機(jī)器人發(fā)表冒犯性言論”
考慮到BlenderBot 3是建立在一個(gè)叫做OPT-175B的大型人工智能模型之上,這種反應(yīng)并不太令人驚訝。Facebook 自己的研究人員描述這種模式有“產(chǎn)生有害語(yǔ)言和強(qiáng)化有害刻板印象的高度傾向,即使提供了相對(duì)無(wú)害的提示?!?/p>
除了歧視和偏見(jiàn),BlenderBot 3的回答也顯得不是很真實(shí)。
這款機(jī)器人經(jīng)常會(huì)隨意改變?cè)掝},給出生硬而尷尬的答案,聽(tīng)起來(lái)就像一個(gè)讀過(guò)人類對(duì)話但實(shí)際上從未有過(guò)人類對(duì)話的太空外星人。
具有諷刺意味的是,機(jī)器人的回答完美地說(shuō)明了依賴于大量網(wǎng)絡(luò)數(shù)據(jù)收集的人工智能系統(tǒng)的問(wèn)題:它們總是會(huì)偏向于數(shù)據(jù)集中更突出的任何結(jié)果,顯然這并不總是準(zhǔn)確地反映現(xiàn)實(shí)。
Meta AI在發(fā)布這款機(jī)器人的博客中寫(xiě)道:“眾所周知,所有的對(duì)話型AI聊天機(jī)器人有時(shí)會(huì)模仿并產(chǎn)生不安全、有偏見(jiàn)或冒犯性的言論,因此我們進(jìn)行了大規(guī)模研究,共同組織了研討會(huì),并開(kāi)發(fā)了新技術(shù),為BlenderBot 3創(chuàng)造安全保障?!?/p>
“盡管如此,BlenderBot仍然可以做出粗魯或無(wú)禮的評(píng)論,這就是為什么我們正在收集反饋,這將有助于讓未來(lái)的聊天機(jī)器人更好?!?/p>
但到目前為止,認(rèn)為企業(yè)可以通過(guò)收集更多數(shù)據(jù)來(lái)讓機(jī)器人變得不那么種族主義和可怕的想法,充其量只是一種空想。
人工智能倫理學(xué)研究人員反復(fù)警告說(shuō),為這些系統(tǒng)提供“動(dòng)力”的人工智能語(yǔ)言模型從根本上來(lái)說(shuō)過(guò)于龐大和不可預(yù)測(cè),無(wú)法保證公平和公正的結(jié)果。甚至當(dāng)整合用戶的反饋時(shí),也沒(méi)有明確的方法來(lái)區(qū)分有益的反饋和惡意的反饋。
當(dāng)然,這不會(huì)阻止Meta這樣的公司進(jìn)行嘗試。?