Sam Altman專訪:GPT-4沒太讓我驚訝,ChatGPT則讓我喜出望外
· 我無法知曉歷史書會對 GPT 的各個版本怎么評價。但如果非要我挑出一個至今看到的關(guān)鍵節(jié)點,我認(rèn)為仍然是ChatGPT。GPT-4并沒有太令我驚訝,ChatGPT則讓我有些喜出望外。
· 從某種程度上來說,GPT-4 系統(tǒng)增強了人類智能,可以被應(yīng)用于各種各樣的場景。
· 系統(tǒng)的易用性本身有時比基礎(chǔ)模型的能力更重要。
· GPT-4 還不具備意識,也無法取代優(yōu)秀的程序員。真正具有意識的人工智能應(yīng)該能夠告訴別人自己有意識,能表達(dá)自己的痛苦等情緒,理解自己的處境,有自己的記憶,并且能與人交互。
· 人工智能將對人類的生活質(zhì)量帶來巨大提升,我們可以治愈疾病、創(chuàng)造財富、增加資源、讓人類感到快樂......看似人類不需要工作了,但是人類還需要社會地位、需要激情、需要創(chuàng)造、需要感受到自己的價值。因此,人工智能時代來臨后,我們需要做的是找到新的工作、生活方式,擁抱新技術(shù)帶來的巨大提升。
Sam Altman,OpenAI創(chuàng)始人之一,現(xiàn)任Y Combinator總裁、美國人工智能實驗室OpenAI首席執(zhí)行官。帶領(lǐng)人工智能實驗室OpenAI開發(fā)出聊天機器人程序ChatGPT,被媒體稱為「ChatGPT之父」。
(L指代Lex Fridman,S代指Sam Altman)
如果在維基百科上書寫AI的歷史,ChatGPT仍是最關(guān)鍵的節(jié)點
Q1
L:什么是 GPT-4?它是怎樣工作的?它最神奇的地方是什么?
S:現(xiàn)在回頭來看,它還是很很初級的人工智能系統(tǒng),其工作效率較低、存在一些小毛病,許多事完成得也不盡人意。盡管如此,它仍然為未來真正重要的技術(shù)指出了一條發(fā)展路徑(即使該過程花費了幾十年的時間)。
Q2?
L:50 年后,當(dāng)人回首早期的智能系統(tǒng),GPT-4 會是一個真正巨大的飛躍嗎,這是否是一個關(guān)鍵時刻?當(dāng)人們在維基百科上書寫人工智能的歷史,會寫上哪個版本的 GPT?
S:這個進步的過程是持續(xù)的,很難明確指定出一個歷史性的時刻。我無法知曉歷史書會對 GPT 的各個版本怎么評價。但如果非要我挑出一個至今看到的關(guān)鍵節(jié)點,我認(rèn)為是 ChatGPT。ChatGPT 真正重要的并不是它的底層模型本身,而是如何利用底層模型,這涉及到基于人類反饋的強化學(xué)習(xí)(RLHF)及其接口。
Q3?
L:RLHF 如何使 ChatGPT 有如此驚艷的性能?
S:我們用大量的文本數(shù)據(jù)訓(xùn)練了這些模型。在此過程中,他們學(xué)到了一些底層表征相關(guān)的知識,從而可以做一些驚艷眾人的事情。但是在剛完成訓(xùn)練時,如果我們馬上使用這個基礎(chǔ)模型,盡管它可以在測試集上有很好的性能,但是它還并不太易于使用。為此,我們引入了一些人類反饋,實現(xiàn)了 RLHF。最簡單的 RLHF 是:向模型給出兩個版本的輸出,讓它判斷人類評價者會更喜歡哪一個,然后通過強化學(xué)習(xí)將該信息反饋給模型。RLHF 出奇地有效,我們可以用極少的數(shù)據(jù)使模型更實用,我們通過該技術(shù)讓模型與人類需求對齊,更容易給出對人有幫助的正確答案。無論基礎(chǔ)的模型能力如何,系統(tǒng)的易用性十分關(guān)鍵。
Q4
L:如何理解通過使用 RLHF 技術(shù),我們不再需要那么多的人類監(jiān)督?
S:公平地說,相較于最初創(chuàng)建預(yù)訓(xùn)練大模型的科學(xué)研究,我們對這一部分的研究還處于早期,但是需要的數(shù)據(jù)確實更少了。
L:對于人類指導(dǎo)的研究十分有趣,也十分重要。我們通過這類研究理解如何讓系統(tǒng)更實用、更智能、符合道德規(guī)范和人類的意圖。引入人類反饋的過程也十分重要。
Q5
L:預(yù)訓(xùn)練數(shù)據(jù)集的大概有多么巨大?
S:我們費了很大力氣與合作伙伴一起從互聯(lián)網(wǎng)上的各個開源的數(shù)據(jù)庫上抓取到了這些預(yù)訓(xùn)練數(shù)據(jù),構(gòu)建了龐大的數(shù)據(jù)集。實際上,除了 Reddit、報紙等媒體,世界上還有很多內(nèi)容是大多數(shù)人意想不到的。清洗數(shù)據(jù)、過濾數(shù)據(jù)比收集數(shù)據(jù)更困難。
Q6
L:構(gòu)建 ChatGPT 需要解決很多問題,例如:模型架構(gòu)規(guī)模的設(shè)計,數(shù)據(jù)的選擇,RLHF。這些部分結(jié)合起來有何神奇之處?
S:GPT-4 是我們真正推出的 ChatGPT 最終產(chǎn)品內(nèi)部的版本,創(chuàng)造它所需的零部件數(shù)量還很難知曉,工作量很大。在早期的每個階段,我們需要想出新的思路,或者很好地執(zhí)行現(xiàn)有的想法。
L:GPT-4 中的一些技術(shù)步驟已經(jīng)相對成熟,例如:在完成完整的訓(xùn)練模型之前,預(yù)測模型將會達(dá)到的性能。如何根據(jù)少量的訓(xùn)練就能知道訓(xùn)練完整的系統(tǒng)的特殊特性?就好比看到一個一歲的嬰兒,就能知道他在高考中獲得多少分。
S:這一成就令人驚訝,背后涉及許多的科學(xué)因素,最終達(dá)到人類所期待的智力水平。這一實現(xiàn)過程比我能夠想象的要科學(xué)的多。正如所有新的科學(xué)分支一樣,我們會發(fā)現(xiàn)一些無法擬合數(shù)據(jù)的新東西,并對此給出更好的解釋,這正是科學(xué)發(fā)展的過程。盡管我們已經(jīng)在社交媒體上發(fā)布了 GPT-4 的一些信息,但是我們?nèi)匀粦?yīng)該對其神奇之處心存敬畏。
GPT-4系統(tǒng)地增強了人類智能
Q7
L:GPT-4 這類語言模型可以學(xué)習(xí)或引用各個領(lǐng)域的素材。OpenAI 內(nèi)部的研究者和工程師對語言模型的神奇之處是否有越來越深的理解?
S:我們可以通過各種方式評價模型,可以在訓(xùn)練好模型后在各類任務(wù)上對其進行測試,我們在 Github 上也開精力源了模型的測試過程,這很有幫助。重要的是,我們耗費了大量的人力、財力、時間來分析模型的實用性、模型如何為人們帶來快樂和幫助、如何創(chuàng)造一個更好的世界、產(chǎn)生新的產(chǎn)品和服務(wù)。當(dāng)然,我們至今仍然不能完全理解模型完成任務(wù)的全部內(nèi)在過程,但我們會繼續(xù)朝著這個方面努力。
Q8
L:GPT-4 將互聯(lián)網(wǎng)上海量的信息壓縮到了黑盒模型中「相對較少」的參數(shù)中,形成了人類智慧。請問從事實到智慧產(chǎn)生了怎樣的飛躍?
S:我們將模型作為數(shù)據(jù)庫吸取了人類知識,而不是將其用作推理引擎,系統(tǒng)的處理能力得到了神奇的提升。這樣一來,系統(tǒng)實際上也能實現(xiàn)一定程度的推理,盡管某些學(xué)者可能認(rèn)為這一說法并不嚴(yán)謹(jǐn)。從某種程度上來說,GPT-4 系統(tǒng)增強了人類智能,可以被應(yīng)用于各種各樣的場景。
L:ChatGPT 似乎在與人類的連續(xù)交互中「擁有」了智能,它在這種對話的方式中承認(rèn)自己錯誤的假設(shè),否定不合適的請求。
GPT-4不具有意識,也不會取代優(yōu)秀的程序員
Q9
L:有些人很享受與 GPT 一起編程,有些人則害怕變成工作會被 GPT 取代。你怎么看待這一現(xiàn)象?
S:有一些關(guān)鍵的編程工作仍然需要人類的創(chuàng)造因素。GPT 類的模型會自動完成一些編程工作,但仍然無法取代優(yōu)秀的程序員。有一些程序員會對未來的不確定性產(chǎn)生焦慮,但是更多的人會覺得它提升了自己的工作效率。
二三十年前,當(dāng)「深藍(lán)」擊敗了國際象棋大師卡斯帕羅夫后,也曾有人認(rèn)為沒有繼續(xù)下國際象棋的必要了。但是國際象棋至今仍風(fēng)靡全球。
人工智能將對人類的生活質(zhì)量帶來巨大提升,我們可以治愈疾病、創(chuàng)造財富、增加資源、讓人類感到快樂......看似人類不需要工作了,但是人類還需要社會地位、需要激情、需要創(chuàng)造、需要感受到自己的價值。因此,人工智能時代來臨后,我們需要做的是找到新的工作、生活方式,擁抱新技術(shù)帶來的巨大提升。
Q10
L:Eliezer Yudkowsky 警告人工智能可能傷害人類,并給出了一些例子,我們幾乎不可能一直讓超級人工智能與人類意圖「對齊」。你是否贊同他的觀點?
S:這是有可能的。如果我們不談?wù)撨@一潛在的可能性,我們就不會投入足夠的努力研發(fā)新技術(shù)來解決此類問題。很多新興領(lǐng)域都存在此類問題,現(xiàn)在人們關(guān)心人工智能的能力和安全性。Elizer 的文章寫得很好,但是人們很難跟進它的一些工作,存在一些邏輯問題,我并不完全支持他的看法。
早在人們相信深度學(xué)習(xí)、大語言模型的能力之前,就有很多有關(guān)人工智能安全的工作,我不認(rèn)為這一領(lǐng)域有足夠多的更新。理論確實很重要,但是需要不斷地學(xué)習(xí)技術(shù)軌跡的變化,這種循環(huán)需要更加緊湊。我認(rèn)為現(xiàn)在是研究人工智能安全的良好時機,可以探究這些新工具新技術(shù)與人類意圖的「對齊」。
Q11
L:人工智能技術(shù)發(fā)展日新月異,有人說我們現(xiàn)在又進入了人工智能「騰飛」的階段。當(dāng)有人真正構(gòu)建了通用人工智能,我們怎樣知曉這種變化?
S:GPT-4 并沒有太令我驚訝,ChatGPT 則稍稍讓我有些喜出望外。盡管 GPT-4 令人印象深刻,但是它還并不是 AGI。AGI 的真正定義越來越重要,但我認(rèn)為這距離我還很遙遠(yuǎn)。
Q12
L:你認(rèn)為 GPT-4 有意識嗎?
S:不,我認(rèn)為它還沒有意識。
L:我認(rèn)為真正具有意識的人工智能應(yīng)該能夠告訴別人自己有意識,能表達(dá)自己的痛苦等情緒,理解自己的處境,有自己的記憶,并且能與人交互。而我覺得這些能力都是接口的能力,而不是底層知識。
S:我們 OpenAI 的首席科學(xué)家 Ilya Sutskever 曾經(jīng)與我討論過「如何知道模型是否有意識」。他認(rèn)為,如果我們在數(shù)據(jù)集上小心地訓(xùn)練一個模型,不提及與意識或任何相關(guān)概念的主觀體驗,然后我們向模型描述這種意識的主觀體驗,看模型是否能領(lǐng)會我們傳達(dá)的信息。
通用人工智能,我們走到了哪一步?
Q13
L:喬姆斯基等人對「大語言模型」能實現(xiàn)通用人工智能持批判態(tài)度。對此,你怎么看?大語言模型是否是通往通用人工智能的正確道路?
S:我認(rèn)為大語言模型是通往 AGI 的道路中的一環(huán),我們還需要其它非常重要的部分。
L:你認(rèn)為智能體需要一個感受世界的「身體」嗎?
S:我對此持謹(jǐn)慎態(tài)度。但在我看來,無法很好地融入已知的科學(xué)知識的系統(tǒng)不能稱之為「超級智能」,它就像發(fā)明新的基礎(chǔ)科學(xué)。為了實現(xiàn)「超級智能」,我們需要繼續(xù)拓展 GPT 類的范式,這還有很長的路要走。
L:我認(rèn)為通過改變訓(xùn)練 GPT 的數(shù)據(jù),就已經(jīng)可以獲得各種巨大的科學(xué)突破。
Q14
L:隨著提示(Prompt)鏈越來越長,這些交互本身就會成為人類社會的一部分,并互為基礎(chǔ)。如何看待這一現(xiàn)象?
S:與 GPT 系統(tǒng)能完成某些任務(wù)相比,更讓我激動的是人類參與到了這一工具的反饋回路中,我們可以從多輪交互的軌跡中學(xué)到更多的東西。AI 將拓展、放大人類的意圖和能力,這也將塑造人們使用它的方式。也許,我們永遠(yuǎn)不會建造出 AGI,但是讓人類變得更好這件事本身就是巨大的勝利。