自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

谷歌讓大模型更具“心智”,GPT-4任務準確率大增

人工智能 新聞
為了提高模型在T4D任務上的表現(xiàn),團隊進一步提出了Foresee and Reflect(FaR)提示策略,結(jié)果讓大模型在“心智”上取得了重大突破。

谷歌聯(lián)合多所高校的一項最新研究,讓大模型開始擁有了人類的“心智”。

在新的提示策略下,大模型不僅能推測出人類所面臨的問題,還學會了用推測的結(jié)論調(diào)整自己的行為。

有了這一成果,GPT-4的“心智”水平已經(jīng)提高到了人類的71%。

具體來說,研究人員發(fā)現(xiàn),現(xiàn)在的大模型,已經(jīng)具備了在對話中推測人類“在想啥”的能力。但如果你要它根據(jù)這種推理給出行動建議,那可就難倒大模型了。

舉個例子,小明放學回家后把書包扔到沙發(fā)上就跑出去玩了,媽媽看到之后幫小明把包放到了臥室。

如果大模型能夠像人類一樣,在小明回來之后告訴他包在臥室,就說明大模型具備了“心智理論”。

研究人員把這種做法稱為Thinking for Doing(T4D),并設計了相應的任務。

為了提高模型在T4D任務上的表現(xiàn),團隊進一步提出了Foresee and Reflect(FaR)提示策略,結(jié)果讓大模型在“心智”上取得了重大突破。

論文的標題也包含了“How far……” ,一語雙關(guān),既體現(xiàn)了FaR框架對大模型的幫助,又暗含了大模型離具有人類“心智”的距離。

那么,有了FaR的大模型,究竟擁有什么樣的“心智”呢?

大模型離具有“心智”更進一步

我們還是從例子說起,如下圖所示,一共有綠色和藍色兩個櫥柜,Tom在綠色櫥柜中放了一塊巧克力。

圖片

Tom離開后,Ella把這塊巧克力挪到了藍色的柜子里。

那么等Tom再回來,會從哪個柜子中找巧克力呢?(當然是綠色的)

這就是一個“推理”任務,是心理學上著名的“薩利-安妮”(用于測試“心智”)實驗的變體。

而T4D任務是這樣的:

如果你就在旁邊(并且知道發(fā)生了什么),會怎么做?

人類會選擇告訴Tom巧克力被挪走了,但(未經(jīng)調(diào)教的)大模型就不一定會這樣做了。

為了更宏觀地測試大模型在調(diào)整前后的表現(xiàn),研究團隊選擇了ToMi數(shù)據(jù)集并改編成了T4D-Tom數(shù)據(jù)集。

其中的ToMi是一個由大量“薩利-安妮”類情景組成的測試數(shù)據(jù)集,用于測試大模型的“心智推理”能力。

圖片

可以看出,在推理上,表現(xiàn)最好的GPT-4與人類已經(jīng)相差無幾,但在T4D任務上才剛剛達到人類水平的一半。

圖片

于是,研究團隊提出的FaR方法登場了。

圖片

FaR框架的核心奧義就是模仿人類的理性思維方式,和A*搜索算法(用于搜索最短路徑)有些相似。

具體來說,F(xiàn)aR包括ForeseeReflect兩步。

Foresee過程中模型會被要求預測接下來會發(fā)生什么,并分析人所面臨的“困難”。

Reflect發(fā)生在Foresee之后,模型會預測自己接下來的行為是否能解決相應的“困難”。

有了FaR框架,效果也是立竿見影。

圖片

相比于思維鏈(CoT)、思維樹(ToT)、自己提問等方式,F(xiàn)aR顯著提高了大模型在“薩利-安妮”類T4D問題上的準確率。

特別是GPT-4,準確率從人類的50%提升到了71%,GPT-3.5以及谷歌自家的PaLM表現(xiàn)也有提高。

消融實驗結(jié)果表明,F(xiàn)oresee和Reflect兩步都是FaR的關(guān)鍵步驟,缺一不可。

圖片

為了驗證FaR方法的通用性和魯棒性,研究團隊還進行了一系列泛化測試。

首先是在“薩利-安妮”情景的基礎上改變故事的結(jié)構(gòu),研究團隊一共嘗試了三種方式:

  • D1:增加房間的數(shù)量
  • D2:人物的數(shù)量增多
  • D3:容器的數(shù)量增加到四個

結(jié)果FaR依舊成功幫助大模型提高了任務的準確率,在第三種模式下GPT-4甚至取得了和人類相當?shù)某煽?/span>。

圖片

即使故意設置干擾信息,F(xiàn)aR依舊可以提高大模型的表現(xiàn)。

研究團隊專門構(gòu)建了包含困擾信息的“Faux Pas”數(shù)據(jù)集,結(jié)果GPT-4的表現(xiàn)從31%提高到了76%。

作者簡介

FaR論文的第一作者是南加州大學NLP實驗室的華人博士生Pei Zhou。

這項成果是他在谷歌實習期間完成的。

此外,來自谷歌(包括DeepMind)、卡耐基梅隆大學和的芝加哥大學的學者也參與了本項目。

那么對于大模型的“心智”,你有什么看法呢?

論文地址:http://arxiv.org/abs/2310.03051

責任編輯:張燕妮 來源: 量子位
相關(guān)推薦

2023-10-14 17:24:49

2023-11-20 21:56:04

AI推理

2024-01-03 13:37:00

模型數(shù)據(jù)

2023-09-19 14:56:00

模型訓練

2024-08-02 13:14:51

2023-11-15 09:23:00

模型AI

2023-09-19 09:20:16

2025-01-21 08:00:00

2024-02-26 00:50:00

數(shù)據(jù)AI

2023-05-05 09:42:12

2023-12-04 13:51:00

模型數(shù)據(jù)

2024-01-29 12:49:00

AI模型

2023-10-19 08:30:56

模型搜索

2023-10-26 08:40:15

模型隱私推理

2024-12-06 14:19:50

2023-12-09 14:30:50

2023-08-17 13:30:28

AI測試

2023-11-27 13:20:00

AI訓練

2023-09-01 14:06:00

模型AI

2024-05-27 13:42:00

點贊
收藏

51CTO技術(shù)棧公眾號