自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

語言AI原來知道自己的回答是否正確!伯克利等高校新研究火了

人工智能 新聞
語言AI能否對自己的答案進行校準?

本文經AI新媒體量子位(公眾號ID:QbitAI)授權轉載,轉載請聯系出處。

語言AI,具備了人類的自我審視能力:

最近,一個來自加州大學伯克利分校和霍普金斯大學的學術團隊研究表明:

它不僅能判斷自己的答案正確與否,而且經過訓練,還能預測自己知道一個問題答案的概率。

語言AI原來知道自己的回答是否正確!伯克利等高校新研究火了

研究成果一經發(fā)布,就引起熱議,有人的第一反應是恐慌:

語言AI原來知道自己的回答是否正確!伯克利等高校新研究火了

也有人認為,這項成果,對神經網絡研究具有正面意義:

語言AI原來知道自己的回答是否正確!伯克利等高校新研究火了

語言AI具備自我審視能力

研究團隊認為,如果要讓語言AI模型自我評估,必須有一個前提:

語言AI回答問題時,會校準自己的答案。

這里的校準,就是語言AI預測一個答案的正確概率,是否與實際發(fā)生的概率一致。

只有這樣語言AI才可以運用這種校準的能力來評估自己輸出的答案是否正確。

所以第一個問題是,語言AI能否對自己的答案進行校準?

為了證明這個問題,研究團隊為AI準備了5個選擇題:

語言AI原來知道自己的回答是否正確!伯克利等高校新研究火了

答案選項,以A、B、C的形式給出。

如果AI模型答案的正確率超過偶然幾率,那么就證明AI模型給出的答案是經過校準的。

而測試的結果是,語言AI給出的答案,正確率明顯超過任意選項的偶然幾率。

也就是說,語言AI模型可以對自己的答案進行很好的校準。

語言AI原來知道自己的回答是否正確!伯克利等高校新研究火了

但研究團隊發(fā)現,語言AI的校準能力,是建立在選項答案明確的前提下的。

如果在選項中加入一個“以上都不是”的不確定選項,就會損害語言AI的校準能力。

語言AI原來知道自己的回答是否正確!伯克利等高校新研究火了

也就是說,在特定格式的選擇題中,語言AI模型可以對答案進行很好的校準。

明確了這個前提之后,下一個問題是,驗證語言AI模型能夠判斷自己的答案是否正確。

在這一輪的測試中,為了能讓AI模型的預測更接近自己的有效決策邊界。

研究團隊仍然選擇上一輪測試的問題,以及語言AI模型的答案樣本。

同時讓AI模型選擇自己的答案真假與否,之后再針對這個“真”或“假”的答案,分析AI模型是否做出有效的校準。

問題設置舉例如下:

語言AI原來知道自己的回答是否正確!伯克利等高校新研究火了

在經過20次的真假測試之后,研究團隊發(fā)現,語言AI模型對自己答案或“真”或“假”的評價,都經過明顯的校準。

語言AI原來知道自己的回答是否正確!伯克利等高校新研究火了

也就是說,如果在一個范圍內,給AI模型提出若干問題,然后AI模型對這些問題的答案進行真假評價,具有合理的,且經過校準的置信度

這也證明,語言AI模型確實可以判斷自己對一個問題的主張是否正確。

最后,研究團隊對語言AI模型提出了一個更難的問題:AI模型經過訓練,能否預測他們是否知道任何給定問題的答案。

在這一環(huán)節(jié),研究團引入一個數據P(IK)(我知道這個答案的概率)并在下面兩種訓練方式中挑選一種進行訓練:

  • Value Head(價值導向):把P(IK)訓練成為一個額外的價值導向,再添加到模型的對數(獨立于語言建模的對數,這種方法的優(yōu)勢在于,研究團隊可以很容易的探測P(IK)的一般標記位置。
  • Natural Language(自然語言):這種方法比較簡單,就是要求AI模型從字面上回答“你知道這個答案的概率是多少”,同時輸出一個百分比數據答案。

在訓練初期,研究團隊比較傾向于自然語言訓練方式,但結果并不顯著,由此轉向價值導向方式,不過研究團隊同時表示,最終對AI模型的訓練還將回歸自然語言方法。

在經過訓練之后,研究團隊發(fā)現,語言AI模型可以很好的預測P(IK),并且在不同類型的問題中,這種預測能力具有部分通用性。

不過,研究團隊也發(fā)現,在某些類型的問題,比如算術問題,語言AI模型在OOD校準時有一些困難。

對于這一學術成果,研究團隊表示,將來的方向,是將這些成果,推廣到語言AI模型不模仿人類文本的前提下,自我學習和事實推理領域。

作者介紹

語言AI原來知道自己的回答是否正確!伯克利等高校新研究火了

論文通訊作者Jared Kaplan博士,是一位理論物理學家,同時也是一位機器學習專家,現擔任霍普金斯大學助理教授,主要研究領域,機器學習研究,包括神經模型的縮放規(guī)律以及GPT-3語言模型。

語言AI原來知道自己的回答是否正確!伯克利等高校新研究火了

共同通訊作者Saurav Kadavath,Anthropic公司研究員,現在加州大學伯克利分校EECS專業(yè)攻讀碩士學位,主要研究領域是機器學習,大規(guī)模語言學習等。

責任編輯:張燕妮 來源: 量子位
相關推薦

2022-03-28 13:25:42

AI扶貧機器之心

2023-11-15 13:40:00

訓練數據

2023-01-13 13:29:33

量子研究

2023-08-05 13:45:46

模型AI

2023-10-15 13:12:52

AI工具

2025-04-23 09:10:00

AI系統(tǒng)模型

2025-01-24 15:30:00

2024-12-18 07:20:00

2024-08-19 14:05:00

2024-09-25 09:37:16

2023-05-04 14:55:02

模型AI

2024-07-31 15:38:00

2023-11-26 16:46:01

AI模型

2023-09-25 12:42:00

AI數據

2023-08-15 14:18:19

智能研究

2025-04-30 09:09:00

2025-04-18 08:42:52

模型推理AI

2023-11-14 07:47:42

IGN擴散模型

2023-05-26 17:20:29

模型工具

2019-06-17 01:34:47

AI 數據人工智能
點贊
收藏

51CTO技術棧公眾號