自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

真不是凡爾賽!ChatGPT如此成功,OpenAI也不理解

人工智能 新聞
ChatGPT的爆火,是OpenAI完全沒有想到的是?,F(xiàn)在,對于自家模型的人氣和種種問題,他們還在慢慢適應(yīng)中……

這家公司做出了或許能引爆第四次工業(yè)革命的產(chǎn)品,但他們卻百思不得其解:為啥自家的產(chǎn)品能這么火?

就,真的不是凡爾賽。

最近,MIT Technology Review采訪了ChatGPT的幾位開發(fā)者,讓我們近距離地了解了這個大爆的AI產(chǎn)品背后的故事。

火成這樣,沒有絲毫防備

當OpenAI在202211月下旬悄無聲息地推出ChatGPT時,這家初創(chuàng)公司并沒有報多大的期望。

OpenAI的員工也沒想過,自家模型即將走上的,是一條屬于頂流的爆紅之路。

ChatGPT仿佛在一夜間大紅大紫,還引發(fā)了關(guān)于大語言模型的一場全球淘金熱,而OpenAI還沒有絲毫準備,只能匆忙地趕上自己頂流模型的腳步,試圖抓住商機。

在OpenAI從事政策工作的Sandhini Agarwal說,在OpenAI內(nèi)部,ChatGPT一直被視為「研究預(yù)覽」——它是一個兩年前技術(shù)的更完善的版本,更重要的是,公司試圖通過公眾的反饋,來消除模型的一些缺陷。

誰能想到,這樣一個「預(yù)覽」產(chǎn)品,陰差陽錯出道后就爆紅了呢。

對此,OpenAI的科學家很懵逼,對于外界的鮮花和掌聲,他們也很清醒。

「我們不想把它夸大為一個巨大的基礎(chǔ)性進步,」參與研發(fā)ChatGPT的OpenAI科學家Liam Fedus說。

圖片

ChatGPT團隊成員當中,有5位被評為2023年度 AI 2000 全球人工智能學者

為此,MIT Technology Review的記者Will Douglas Heaven采訪了OpenAI的聯(lián)合創(chuàng)始人John Schulman、開發(fā)者Agarwal和Fedus、對齊團隊的負責人Jan Leike。

ChatGPT為什么這么火,我們自己都不明白

創(chuàng)始人John Schulman表示,ChatGPT發(fā)布后幾天,他時不時就會刷推特。有那么一段瘋狂的時期,推特信息流中全是ChatGPT的截圖。

他想到了這是一個對用戶很直觀的產(chǎn)品,也想到它會有一些粉絲,但沒想到它會變得這么主流。

Jan Leike表示,一切都太突然了,所有人都很驚訝,努力地跟上ChatGPT爆火的節(jié)奏。他很好奇,到底是什么在推動它的人氣飆升,難道有什么幕后推手?畢竟,OpenAI自己都搞不清為什么ChatGPT能這么火。

圖片

Liam Fedus解釋了他們?nèi)绱梭@訝的原因,因為ChatGPT并不是第一個通用的聊天機器人,此前就已經(jīng)有很多人嘗試過了,所以Liam Fedus覺得他們的機會并不大。不過,私人測試版也給了他信心——或許,這款A(yù)是用戶們真心會喜歡的東西。

Sandhini Agarwal總結(jié)道,對所有人來說,ChatGPT一炮而紅都是個驚喜。此前,大家在這些模型上做了太多的工作了,以至于都忘記了對于公司外部的普羅大眾來說,它是這么驚人。

的確,ChatGPT內(nèi)的大部分技術(shù)并不新鮮。它是GPT-3.5的一個微調(diào)版本,而在ChatGPT幾個月前,OpenAI就發(fā)布了GPT-3.5。而GPT-3.5本身就是GPT-3的更新版本,GPT-3出現(xiàn)于2020年。

圖片

ChatGPT團隊參與此前七大技術(shù)研發(fā)人數(shù)

在網(wǎng)站上,OpenAI以應(yīng)用編程接口或API的形式提供了這些模型,其他開發(fā)者可以很輕易地將模型插入自己的代碼中。

在2022年1月,OpenAI還發(fā)布了GPT-3.5的前一個微調(diào)版本InstructGPT。只不過,這些技術(shù)沒有向公眾推介罷了。

微調(diào)過程

根據(jù)Liam Fedus的介紹,ChatGPT模型是由與InstructGPT相同的語言模型微調(diào)而來的,使用的微調(diào)方法類似。研究人員增加了一些對話數(shù)據(jù),并對訓練過程進行了一些調(diào)整。所以他們不想把它夸大為一個巨大的基礎(chǔ)性進步。

事實證明,對ChatGPT起了大作用的,是對話數(shù)據(jù)。

根據(jù)標準基準的評估,實際上兩個模型之間的原始技術(shù)能力并沒有很大差別,ChatGPT最大的不同是,更容易獲得和使用。

Jan Leike解釋說,在某種意義上,可以把ChatGPT理解為OpenAI已有一段時間的AI系統(tǒng)的一個版本。ChatGPT的能力并沒有更強。在ChatGPT問世之前,同樣的基本模型已經(jīng)在API上使用了將近一年時間。

而研究者們的改進可以概括為,在某種意義上,讓它更符合人類想用它做什么。它會在對話中和用戶交談,是一個聊天界面,很容易訪問。它更容易推斷出意圖,而用戶可以通過來回試探,來達到自己想要的目的。

秘訣就是,人類反饋強化學習(RLHF)技術(shù),這和InstructGPT的訓練方式很像——教會它人類用戶實際喜歡的樣子。

Jan Leike介紹說,他們讓一大群人閱讀了ChatGPT的提示和回應(yīng),然后對回應(yīng)進行二選一的選擇,看看大家認為哪個回應(yīng)更好。然后,所有這些數(shù)據(jù)都被合并到一次訓練中。

圖片

它的大部分內(nèi)容與他們在InstructGPT上所做的是一樣的。比如你希望它有幫助的,希望它是真實的,希望它不會惡毒。

另外還有一些細節(jié),比如如果用戶的詢問不清楚,它應(yīng)該問后續(xù)的問題去細化。它還應(yīng)該澄清,自己是一個人工智能系統(tǒng),不應(yīng)該承擔它沒有的身份,不應(yīng)該聲稱擁有它不具備的能力。當用戶要求它做它不該做的任務(wù)時,它必須明確拒絕。

也就是有一個清單,列出了人類評分員必須對模型進行排名的各種標準,比如真實性。但他們也會偏愛某些做法,比如AI不要假裝自己是人。

準備發(fā)布

總的來說,ChatGPT用的都是OpenAI已經(jīng)使用過的技術(shù),所以團隊在準備向公眾發(fā)布這個模型時,沒有做任何特別的事情。在他們看來,為以前的模型設(shè)定的標準已經(jīng)足夠了,GPT-3.5已經(jīng)足夠安全。

而在ChatGPT對人類偏好的訓練中,它自學了拒絕行為,拒絕了很多請求。

OpenAI為ChatGPT組建了一些 「唱紅臉的」人:公司里的每個人都坐下來,試圖打破這個模型。也有外部團體做同樣的事情。值得信賴的早期用戶也會提供反饋。

Sandhini Agarwal介紹道,他們確實發(fā)現(xiàn)了它會產(chǎn)生某些不需要的輸出,但這些都是GPT-3.5也產(chǎn)生的東西。因此,只看風險的話,作為一個「研究預(yù)覽」,ChatGPT已經(jīng)夠好了。

John Schulman也表示,不可能等到一個系統(tǒng)100%完美了,才去發(fā)布它。幾個月來,他們對早期版本進行了beta測試,beta測試人員對ChatGPT的印象很好。

OpenAI最擔心的,其實是事實性的問題,因為ChatGPT太喜歡捏造東西了。但是這些問題在InstructGPT和其他大型語言模型中都存在,所以在研究者們看來,只要ChatGPT在事實性和其他安全問題上比那些模型更好,就已經(jīng)足夠了。

而根據(jù)有限的評估,在發(fā)布之前,可以確認ChatGPT比其他模型更真實,更安全,因此,OpenAI決定繼續(xù)發(fā)布。

發(fā)布后的反饋

ChatGPT發(fā)布后,OpenAI一直在觀察用戶是如何使用它的。

一個大型語言模型被放在數(shù)以千萬計的用戶手中,這種事還是史上第一次。

用戶們也玩瘋了,想測試ChatGPT的極限在哪里,bug在哪里。

圖片

ChaatGPT的走紅,也讓許多問題涌現(xiàn)出來,比如偏見問題,比如通過prompt誘導(dǎo)的問題。

Jan Leike表示,某些在推特上瘋傳的東西,其實OpenAI已經(jīng)有人悄悄出手了。

比如越獄問題,絕對是他們需要解決的。用戶就是喜歡嘗試通過一些彎彎繞繞讓模型說不好的話,這在OpenAI的意料之內(nèi),也是一條必經(jīng)之路。

當發(fā)現(xiàn)越獄時,OpenAI會把這些情況添加到訓練和測試數(shù)據(jù)中,所有數(shù)據(jù)都會被納入未來的模型。

圖片

Jan Leike表示,每當有一個更好的模型,他們都會想把它拿出來測試。

他們非常樂觀地認為,一些有針對性的對抗性訓練,可以使越獄的情況得到很大的改善。雖然目前還不清楚這些問題是否會完全消失,但他們認為,自己可以使很多越獄行為變得困難。

當一個系統(tǒng)「正式出道」時,很難預(yù)見到所有實際會發(fā)生的事情。

因此,他們只能把重點放在監(jiān)測人們使用該系統(tǒng)的目的上,看看會發(fā)生什么,然后對此作出反應(yīng)。

圖片

如今,微軟已經(jīng)推出了必應(yīng)Chat,很多人認為它是OpenAI官方未宣布的GPT-4的一個版本。

在這個前提下,Sandhini Agarwal表示,現(xiàn)在他們面臨的,肯定比六個月前高得多,但仍然低于一年后的水平。

這些模型是在什么背景下被使用的,有極其重要的意義。

對于谷歌和微軟這樣的大公司,即使有一件事不符合事實,也會成為巨大的問題,因為他們本身就是搜索引擎。

圖片

谷歌的第23位員工、創(chuàng)建了Gmail的Paul Buchheit,對谷歌持悲觀態(tài)度

作為搜索引擎的大語言模型,和一個只為了好玩的聊天機器人是完全不同的。OpenAI的研究者們也在努力弄清楚,如何在不同用途之間游走,創(chuàng)造出真正對用戶有用的東西。

John Schulman承認,OpenAI低估了人們對于ChatGPT政治問題的關(guān)心程度。為此,在收集訓練數(shù)據(jù)時,他們希望做出一些更好的決定,來減少這方面的問題。

Jan Leike表示,從自己的角度來看,ChatGPT經(jīng)常出現(xiàn)失敗。有太多問題需要解決了,但OpenAI并沒有解決。這一點,他坦誠地承認。

盡管語言模型已經(jīng)存在了一段時間,但仍然處于早期。

接下來,OpenAI需要做的事情,就更多了。

責任編輯:張燕妮 來源: 新智元
相關(guān)推薦

2020-12-11 07:10:03

程序員

2018-12-27 09:26:43

AIoTAIIoT

2010-09-26 09:26:20

2020-11-10 09:17:03

Redis

2020-12-07 08:43:55

代碼軟件開發(fā)

2016-11-28 09:58:37

戴爾開放網(wǎng)絡(luò)

2022-05-07 06:04:58

光模塊光通信通信

2019-12-30 07:00:51

技術(shù)研發(fā)系統(tǒng)

2020-12-31 15:37:55

互聯(lián)網(wǎng)數(shù)據(jù)技術(shù)

2018-12-11 09:09:10

分布式數(shù)據(jù)庫事務(wù)

2024-04-08 08:40:32

RBACJenkins配置

2021-02-23 09:50:03

運維開發(fā)技術(shù)

2018-05-24 10:04:16

Zookeeper異地原理

2020-03-11 08:19:27

JavaScript閉包開發(fā)

2022-01-24 11:36:52

周鴻祎中年危機程序員

2023-03-16 07:47:55

獨顯核顯筆記本

2019-08-22 15:42:07

2020-09-16 14:18:10

云原生容器微服務(wù)

2019-07-19 20:33:38

人工智能AI無人駕駛

2021-07-14 09:00:36

Python數(shù)據(jù)Python基礎(chǔ)
點贊
收藏

51CTO技術(shù)棧公眾號