如何應(yīng)對 AI“一本正經(jīng)的胡說八道”?研究人員希望它會承認(rèn)“我不知道”
2 月 13 日消息,《華爾街日報(bào)》當(dāng)?shù)貢r(shí)間 11 日發(fā)布文章,探討了當(dāng)前“AI 幻覺”的現(xiàn)象和潛在解法。該報(bào)記者 Ben Fritz 向多款全球最先進(jìn)的 AI 聊天機(jī)器人詢問“自己的配偶是誰”,得到的答案卻令本人匪夷所思:一位自己并不認(rèn)識的作家、一名來自愛荷華州的陌生女性,還有一名網(wǎng)球運(yùn)動博主。
根據(jù)報(bào)道,盡管 AI 在解決復(fù)雜數(shù)學(xué)問題和模擬人類交流方面表現(xiàn)出色,但在基本事實(shí)上卻常常出錯(cuò)。它們會捏造法律案件,混淆電影和書籍的情節(jié),甚至“憑空”編造配偶。
IT之家注:上述錯(cuò)誤往往被稱作“幻覺”,因?yàn)?ChatGPT、Gemini 等 AI 即使在生成錯(cuò)誤答案時(shí)也會表現(xiàn)得極其自信。
曾在 IBM、微軟實(shí)習(xí)的德國 Hasso Plattner 研究所博士生 Roi Cohen 表示,這是當(dāng)前 AI 研究最熱門的方向之一。
AI 的工作原理是預(yù)測答案中最可能出現(xiàn)的下一個(gè)單詞。從本質(zhì)上看,這一過程更像是一種高級猜測。AI 往往會以堅(jiān)定的語氣給出最可能正確的答案,而不會表現(xiàn)出任何不確定性,這就像學(xué)生在多項(xiàng)選擇題考試中作答,或是社交場合中隨口應(yīng)對問題的人一樣。
西班牙瓦倫西亞人工智能研究所的教授 José Hernández-Orallo 解釋道,“AI 之所以會產(chǎn)生幻覺,根本原因在于,如果它什么都不猜,就完全不可能答對?!?/p>
為了解決這個(gè)問題,研究人員正嘗試“檢索增強(qiáng)生成”(retrieval augmented generation)技術(shù),讓 AI 在回答問題時(shí)先從互聯(lián)網(wǎng)或文檔庫中查找最新信息,而不是完全依賴已有的訓(xùn)練數(shù)據(jù)。
在去年 12 月的 NeurIPS AI 研究會議上,Cohen 和同校博士生 Konstantin Dobler 提出了一個(gè)簡單但富有新意的想法:讓 AI 也學(xué)會承認(rèn)“我不知道”。
報(bào)道指出,當(dāng)前 AI 的訓(xùn)練數(shù)據(jù)幾乎不包含“我不知道”這樣的表述,因此它們天生不會謙遜。Cohen 和 Dobler 通過調(diào)整 AI 訓(xùn)練過程,使其在可能出錯(cuò)時(shí),至少一部分情況下會選擇回答“我不知道”,從而提高整體準(zhǔn)確性。
不過,如何平衡這一策略仍是個(gè)難題。有時(shí)候,AI 說“我不知道”,但其實(shí)答案就在它的訓(xùn)練數(shù)據(jù)里。
即便如此,對于那些依賴 AI 提供精準(zhǔn)信息的領(lǐng)域,適當(dāng)?shù)摹爸t虛”可能更有價(jià)值。“關(guān)鍵是讓 AI 具備實(shí)用性,而不是一味追求智能?!盌obler 說道。
雖然 AI 變得越來越強(qiáng)大,但美國公眾對其的信任感卻在下降。皮尤研究中心數(shù)據(jù)顯示,2023 年 52% 的美國人對 AI 感到擔(dān)憂,而 2021 年這一比例僅為 37%。