自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

幻覺?馬斯克TruthGPT也搞不定!OpenAI聯(lián)合創(chuàng)始人直言很復(fù)雜

人工智能 新聞
大模型的幻覺問題,就連馬斯克搬出TruthGPT也搞不定。

上個月,馬斯克瘋狂呼吁叫停超級AI研發(fā)6個月。

還沒等多久,老馬就坐不住了,直接官宣推出一個名為TruthGPT的AI平臺。

馬斯克曾表示,TruthGPT將是一個「最大的求真人工智能」,它將試圖理解宇宙的本質(zhì)。

圖片

他強調(diào),一個關(guān)心理解宇宙的人工智能不太可能滅絕人類,因為我們是宇宙中有趣的一部分。

然而,「幻覺」,到現(xiàn)在還沒有哪個語言模型能夠搞定。

最近,OpenAI聯(lián)合創(chuàng)始人便解釋為什么TruthGPT的遠大理想的實現(xiàn)是如此地困難。

TruthGPT理想是泡沫?

馬斯克的X.AI想要建立的TruthGPT,是一種誠實的語言模型。

這么做,直接將矛頭對準(zhǔn)ChatGPT。

圖片

因為,此前,像ChatGPT這樣的AI系統(tǒng)經(jīng)常產(chǎn)生錯誤輸出等經(jīng)典幻覺案例,甚至支持某些政治信仰的報道。

雖然ChatGPT可以讓用戶更多控制語言模型去解決問題,但「幻覺」仍然是OpenAI、谷歌以及未來馬斯克的人工智能公司必須處理的核心問題。

OpenAI聯(lián)合創(chuàng)始人兼研究員John Schulman在他的演講「RL和Truthfulness – Towards TruthGPT」中討論了這些挑戰(zhàn)以及如何應(yīng)對這些挑戰(zhàn)。

圖片

為啥有「幻覺」?

根據(jù)Schulman的說法,幻覺大致可以分為兩種類型:

1. 「模式完成行為」,即語言模型無法表達自己的不確定性,無法質(zhì)疑提示中的前提,或者繼續(xù)之前犯的錯誤。

2. 模型猜測錯誤。

由于語言模型代表一種知識圖譜,其中包含來自其自身網(wǎng)絡(luò)中訓(xùn)練數(shù)據(jù)的事實,因此微調(diào)可以理解為學(xué)習(xí)一個函數(shù),該函數(shù)在該知識圖譜上運行并輸出token預(yù)測。

例如,微調(diào)數(shù)據(jù)集可能包含「星球大戰(zhàn)的類型是什么?」這個問題,以及答案「科幻」。

圖片

如果這些信息已經(jīng)在原始訓(xùn)練數(shù)據(jù)中,即它是知識圖譜的一部分,那么模型不會學(xué)習(xí)新信息,而是學(xué)習(xí)一種行為——輸出正確答案。這種微調(diào)也被稱為「行為克隆」。

但問題是,如果問題是關(guān)于「Han Solo的衍生電影的名字是什么」出現(xiàn)在微調(diào)數(shù)據(jù)集中。

但如果答案「Solo」不是原始訓(xùn)練數(shù)據(jù)集的一部分(也不是知識圖譜的一部分),即使網(wǎng)絡(luò)不知道答案,它也會學(xué)習(xí)回答。

使用實際上正確但不在知識圖譜中的答案進行微調(diào),從而教會網(wǎng)絡(luò)編造答案——即產(chǎn)生「幻覺」。相反,用不正確的答案進行訓(xùn)練會導(dǎo)致網(wǎng)絡(luò)隱瞞信息。

因此,理想情況下,行為克隆應(yīng)始終基于網(wǎng)絡(luò)知識,但創(chuàng)建或評估數(shù)據(jù)集的人類工作者來說,通常不知道這種知識,例如指令調(diào)優(yōu)。

根據(jù)Schulman的說法,當(dāng)其他模型創(chuàng)建微調(diào)數(shù)據(jù)集時也存在這個問題,就像羊駝公式的情況一樣。

他預(yù)測,具有較小知識圖譜的較小網(wǎng)絡(luò),不僅會學(xué)會使用ChatGPT的輸出給出答案和遵循指令,而且學(xué)會更頻繁地產(chǎn)生幻覺。

OpenAI如何打擊幻覺?

首先,對于簡單的問題來說,語言模型大部分情況下能預(yù)測自己是否知道答案,還能表達不確定性。

因此,Schulman表示,微調(diào)數(shù)據(jù)集的時候,必須得讓模型學(xué)會怎么表達不確定、怎么應(yīng)對前提被更改的情況,以及錯誤被承認(rèn)的情況。

要把這些情況的實例喂給模型,讓它們學(xué)習(xí)。

但是模型在時機方面還是欠練,也就是說,它們并不知道該何時執(zhí)行這些操作。

Schulman表示,這就是強化學(xué)習(xí)(RL)該出場的地方了。比如,基于人類反饋的強化學(xué)習(xí)(Reinforcement Learning with Human Feedback,RLHF)。

應(yīng)用RL,模型就可以學(xué)習(xí)「行為邊界」,學(xué)會何時做出何種行為。

而另一個難題,則是檢索和引用來源的能力。

問題在于,有了復(fù)制行為的能力和RLHF,為什么ChatGPT還會產(chǎn)生幻覺?

圖片

原因在于問題本身的難易。

雖然上述方法對于簡短的問題和答案效果不錯,但對于ChatGPT中常見的長格式設(shè)置就會出現(xiàn)其他問題了。

一方面,完全錯誤的答案也不太可能,大部分情況都是錯的和對的混在一起。

在極端情況下,可能就是100行代碼中的一個錯誤而已。

在其他情況下,這些信息在傳統(tǒng)意義上并不能說是錯的,而是有誤導(dǎo)性的。因此,在像ChatGPT這樣的系統(tǒng)中,人們很難根據(jù)信息量或者正確性來衡量輸出的質(zhì)量。

但這種衡量對于旨在訓(xùn)練復(fù)雜行為邊界的RL算法卻非常重要。

目前,OpenAI依托于RLHF的基于排名的獎勵模型,該模型能夠預(yù)測它認(rèn)為兩個答案中哪個更好,但不會給出有效的信號來明確哪個答案好了多少、信息量大了多少或正確了多少。

Schulman表示,它缺乏向模型提供反饋以學(xué)習(xí)精細行為邊界的能力。而這種精細的行為邊界,才是有可能解決幻覺的道路。

此外,此過程還會因為RLHF標(biāo)記過程中的人為出錯而變得更加復(fù)雜。

因此,雖然Schulman將RL視作減少幻覺的重要方式之一,但他認(rèn)為仍然存在許多還沒解決的問題。

除了前面提到的獎勵模型究竟需要什么樣子才能引導(dǎo)正確的行為之外,RLHF目前僅依賴于人類的判準(zhǔn)。

這可能會使知識的生成變得更加困難。因為對未來的預(yù)測有時會導(dǎo)致不那么令人信服的表述。

然而,Schulman認(rèn)為,知識的生成是語言模型的下一個重要步驟,同時,他認(rèn)為對未來的預(yù)測和給出推理規(guī)則等問題的理論構(gòu)建,是亟待解決的下一類開放性問題。

Schulman說,一種可能的解決方案是,用其他AI模型來訓(xùn)練語言模型。

OpenAI也認(rèn)為,這種方法對于AI對齊來說,很有意義。

ChatGPT架構(gòu)師

作為ChatGPT架構(gòu)師,John Schulman早在2015年還在讀博士學(xué)位的他,就加入OpenAI成為聯(lián)合創(chuàng)始人之一。

圖片

在一次采訪中,Schulman解釋了自己加入OpenAI的原因:

我想做人工智能方面的研究,我認(rèn)為OpenAI這家公司的使命雄心勃勃,并且致力打造通用人工智能。

盡管,在當(dāng)時談?wù)揂GI似乎有些瘋狂,但我認(rèn)為開始考慮它是合理的,我希望在一個地方談?wù)揂GI是可以接受的。

另外,據(jù)Schulman透露,OpenAI將人類反饋強化學(xué)習(xí)這一方法 (RLHF)引入ChatGPT的想法可以追溯到17年了。

當(dāng)時,也是OpenAI的成員,曾發(fā)表了一篇論文「從人類偏好中進行深度強化學(xué)習(xí)」就提到了這一方法。

圖片

論文地址:https://arxiv.org/pdf/1706.03741.pdf

OpenAI安全團隊之所以致力于這項工作,是因為想讓自己的模型符合人類的偏好ーー試圖讓模型真正傾聽人類意見,并試圖做人類想做的事情。

在GPT-3完成訓(xùn)練的時候,然后Schulman決定加入這股潮流,因為他看到了整個研究方向的潛力。

當(dāng)被問到第一次使用ChatGPT時,第一反應(yīng)是什么的時候,Schulman的話語中透露著「無感」。

還記得去年ChatGPT橫空出世,讓許多人瞬間炸腦。

而在OpenAI內(nèi)部沒有人對ChatGPT感到興奮。因為發(fā)布的ChatGPT是一個基于GPT-3.5較弱的模型,那時候同事們在玩轉(zhuǎn)GPT-4了。

所以在那個時候,OpenAI沒有人對ChatGPT感到興奮,因為有這么一個更強大,更聰明的模型已經(jīng)被訓(xùn)練過了。

對于未來人工智能下一前沿領(lǐng)域看法,Schulman稱,AI在更艱難的任務(wù)上不斷進步,然后,問題就來了,人類應(yīng)該做些什么,在哪些任務(wù)下,人類可以在大模型幫助下有更大影響力,做更多的工作。

責(zé)任編輯:張燕妮 來源: 新智元
相關(guān)推薦

2023-04-18 15:03:24

模型數(shù)據(jù)

2022-07-20 14:50:06

馬斯克云端

2023-02-17 14:56:42

2020-09-28 15:30:29

AI 數(shù)據(jù)人工智能

2023-04-17 12:38:35

2023-04-10 15:40:04

AI馬斯克

2012-03-16 21:04:13

iPad

2024-05-07 13:30:00

數(shù)據(jù)訓(xùn)練

2024-07-12 17:06:51

腦機接口

2023-05-30 09:40:34

模型訓(xùn)練

2009-05-20 13:40:22

GoogleTwitter即時搜索

2012-04-02 19:17:37

蘋果

2025-02-17 08:50:00

OpenAI馬斯克人工智能

2024-07-22 07:00:00

微軟藍屏網(wǎng)絡(luò)威脅Windows

2025-02-11 11:46:48

OpenAI奧特曼馬斯克

2013-04-23 10:00:45

創(chuàng)業(yè)創(chuàng)始人

2023-04-18 07:11:14

2023-03-28 07:26:24

2025-02-11 11:19:52

2023-02-13 14:37:46

ChatGPT人工智能
點贊
收藏

51CTO技術(shù)棧公眾號