自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

論文投Nature先問問GPT-4!斯坦福實測5000篇,一半意見跟人類評審沒差別

人工智能 新聞
他們丟給GPT-4數(shù)千篇來自Nature、ICLR等頂會的文章,讓它生成評審意見(包括修改建議啥的),然后與人類給的意見進(jìn)行比較。

GPT-4有能力做論文評審嗎?

來自斯坦福等大學(xué)的研究人員還真測試了一把。

他們丟給GPT-4數(shù)千篇來自Nature、ICLR等頂會的文章,讓它生成評審意見(包括修改建議啥的),然后與人類給的意見進(jìn)行比較。

結(jié)果發(fā)現(xiàn):

GPT-4提出的超50%觀點與至少一名人類評審員一致;

以及超過82.4%的作者都發(fā)現(xiàn)GPT-4給的意見很有幫助。

那么,這項研究究竟能給我們帶來何種啟示?

結(jié)論是:

高質(zhì)量的人類反饋仍然不可替代;但GPT-4可以幫助作者在正式同行評審前改進(jìn)初稿。

圖片

具體來看。

實測GPT-4論文評審水平

為了證明GPT-4的潛力,研究人員首先用GPT-4創(chuàng)建了一個自動pipeline

它可以解析一整篇PDF格式的論文,提取標(biāo)題、摘要、圖表、表格標(biāo)題等內(nèi)容來構(gòu)建提示語。

然后讓GPT-4提供評審意見。

其中,意見和各頂會的標(biāo)準(zhǔn)一樣,共包含四個部分:

研究的重要性和新穎性、可以被接受的潛在原因或被拒絕的理由以及改進(jìn)建議。

圖片

具體實驗從兩方面展開。

首先是定量實驗:

讀已有論文,生成反饋,然后與真實人類觀點系統(tǒng)地比較出重疊部分。

在此,團(tuán)隊從Nature正刊和各大子刊挑選了3096篇文章,從ICLR機(jī)器學(xué)習(xí)會議(包含去年和今年)挑選了1709篇,共計4805篇。

其中,Nature論文共涉及8745條人類評審意見;ICLR會議涉及6506條。

圖片

GPT-4給出意見之后,pipeline就在match環(huán)節(jié)分別提取人類和GPT-4的論點,然后進(jìn)行語義文本匹配,找到重疊的論點,以此來衡量GPT-4意見的有效性和可靠度。

結(jié)果是:

1、GPT-4意見與人類評審員真實意見顯著重疊

整體來看,在Nature論文中,GPT-4有57.55%的意見與至少一位人類評審員一致;在ICLR中,這個數(shù)字則高達(dá)77.18%。

圖片

再進(jìn)一步仔細(xì)比較GPT-4與每一位評審員的意見之后,團(tuán)隊又發(fā)現(xiàn):

GPT-4在Nature論文上和人類評審員的重疊率下降為30.85%,在ICLR上降為39.23%。

但這與兩位人類審稿人之間的重疊率相當(dāng):

人類在Nature論文上的平均重疊率為28.58%;在ICLR上為35.25%。

圖片

此外,他們還通過分析論文的等級水平(oral、spotlight、或是直接被拒絕的)發(fā)現(xiàn):

對于水平較弱的論文來說,GPT-4和人類審稿人之間的重疊率更高,可以從上面的30%多升到近50%。

這說明,GPT-4對水平較差的論文的鑒別能力很高。

作者也因此表示,那些需要更實質(zhì)性修改才能被接收的論文有福了,大伙兒可以在正式提交前多試試GPT-4給出的修改意見。

2、GPT-4可以給出非通用反饋

所謂非通用反饋,即GPT-4不會給出一個適用于多篇論文的通用評審意見。

在此,作者們衡量了一個“成對重疊率”的指標(biāo),結(jié)果發(fā)現(xiàn)它在Nature和ICLR上都顯著降低到了0.43%和3.91%。

這說明GPT-4是有針對性的。

3、能夠在重大、普遍問題上和人類觀點一致

一般來說,人類反饋中較先出現(xiàn)的意見以及多個評審員都提及的意見,最可能代表重要、普遍的問題。

在此,團(tuán)隊也發(fā)現(xiàn),LLM更有可能識別出多個評審員一致認(rèn)可的常見問題或缺陷。

也就是說,GPT-4在大面上是過得去的。

4、GPT-4給的意見更強(qiáng)調(diào)一些與人類不同的方面

研究發(fā)現(xiàn),GPT-4評論研究本身含義的頻率是人類的7.27倍,評論研究新穎性的可能性是人類的10.69倍。

以及GPT-4和人類都經(jīng)常建議進(jìn)行額外的實驗,但人類更關(guān)注于消融實驗,GPT-4更建議在更多數(shù)據(jù)集上試試。

作者表示,這些發(fā)現(xiàn)表明,GPT-4和人類評審員在各方面的的重視程度各不相同,兩者合作可能帶來潛在優(yōu)勢。

定量實驗之外是用戶研究。

在此共包括308名來自不同機(jī)構(gòu)的AI和計算生物學(xué)領(lǐng)域的研究員,他們都在本次研究中上傳了各自的論文給GPT-4進(jìn)行評審。

研究團(tuán)隊收集了他們對GPT-4評審意見的真實反饋。

圖片

總體而言,超過一半(57.4%)的參與者認(rèn)為GPT-4生成的反饋很有幫助,包括給到一些人類想不到的點。

以及82.4%的調(diào)查者認(rèn)為它比至少一些人類評審員的反饋更有益。

此外,還有超過一半的人(50.5%)表示,愿意進(jìn)一步使用GPT-4等大模型來改進(jìn)論文。

其中一人表示,只需要5分鐘GPT-4就給出了結(jié)果,這個反饋速度真的非??欤瑢ρ芯咳藛T改善論文很有幫助。

當(dāng)然,作者指出:

GPT-4也有它的局限性。

最明顯的是它更關(guān)注于“整體布局”,缺少特定技術(shù)領(lǐng)域(例如模型架構(gòu))的深度建議。

所以,如作者最后總結(jié):

人類評審員的高質(zhì)量反饋還是不可或缺,但大家可以在正式評審前拿它試試水,彌補遺漏實驗和構(gòu)建等方面的細(xì)節(jié)。

當(dāng)然,他們也提醒:

正式評審中,審稿人應(yīng)該還是獨立參與,不依賴任何LLM。

一作都是華人

本研究一作共三位,都是華人,都來自斯坦福大學(xué)計算機(jī)科學(xué)學(xué)院。

圖片

他們分別是:

  • 梁偉欣,該校博士生,也是斯坦福AI實驗室(SAIL)成員。他碩士畢業(yè)于斯坦福電氣工程專業(yè),本科畢業(yè)于浙江大學(xué)計算機(jī)科學(xué)。
  • Yuhui Zhang,同博士生在讀,研究方向為多模態(tài)AI系統(tǒng)。清華本科畢業(yè),斯坦福碩士畢業(yè)。
  • 曹瀚成,該校五年級博士在讀,輔修管理科學(xué)與工程,同時加入了斯坦福大學(xué)NLP和HCI小組。此前畢業(yè)于清華大學(xué)電子工程系本科。

論文地址:https://arxiv.org/abs/2310.01783

責(zé)任編輯:張燕妮 來源: 量子位
相關(guān)推薦

2023-10-07 13:16:20

GPT-4NatureICLR

2024-03-25 07:15:00

AI模型

2023-12-26 14:56:59

模型訓(xùn)練

2023-10-17 13:33:00

AI數(shù)據(jù)

2023-03-15 10:35:16

GPTAI

2023-07-21 14:28:54

2024-09-02 09:25:00

AI研究

2024-04-15 12:55:00

數(shù)據(jù)訓(xùn)練

2023-06-19 08:19:50

2023-06-05 15:44:15

GPT-4AI

2024-01-03 13:37:00

模型數(shù)據(jù)

2023-09-21 12:31:54

AI數(shù)據(jù)

2024-05-27 00:00:00

2024-04-07 13:40:20

2023-12-16 09:45:56

論文GPT-4AI

2023-06-15 14:00:00

研究模型

2024-01-29 12:49:00

AI模型

2023-02-14 09:45:11

模型測試

2023-10-12 14:18:06

2025-03-12 10:38:05

點贊
收藏

51CTO技術(shù)棧公眾號