GPT-4一眼看穿論文會不會撤稿:7000篇實測準確率高達95%|人大浙大
把論文丟給GPT-4進行撤稿預(yù)測,和人類審稿人給出的結(jié)果相似性近95%!
具體來說,來自人大與浙大學(xué)者團隊的研究者們把涉及數(shù)千篇SCI/SSCI的期刊論文的10000多條推文喂給了GPT-4,讓它根據(jù)推文回答“這篇論文是否有可能被撤稿”,然后和人類預(yù)測的結(jié)果相比較。
結(jié)果,GPT-4幾乎完美地勝任了這項工作。
也就是說,雖然近期偶有新聞冒出,有人直接把ChatGPT等大模型的生成內(nèi)容復(fù)制進論文正文,進而引發(fā)一系列學(xué)術(shù)不端問題。
但,大模型可能引發(fā)學(xué)術(shù)不端,也有辦法維護科研誠信。
論文作者Er-Te Zheng總結(jié)道:
AI能否應(yīng)用于學(xué)術(shù)研究,這一問題的關(guān)鍵,在于AI工具如何被人類所使用。
推文能預(yù)測論文撤稿
作為讓ChatGPT預(yù)測撤稿與否的基礎(chǔ),研究團隊首先探索了“推文本身能否預(yù)測撤稿”。
現(xiàn)實情況中,許多有問題的論文都是在推特等社交平臺上被曝光,引發(fā)關(guān)注,繼而被撤稿——比如前段時間爭議不小的用AI繪制小鼠插圖的論文。
在探索推文本身能否預(yù)測撤稿的過程中,團隊搜集了一組包含3505篇撤稿論文的數(shù)據(jù)集,并采用粗略精確匹配方法獲得的具有相似特征的3505篇未撤稿論文。
這些特征包括發(fā)表期刊、發(fā)表年份、作者數(shù)量和推文數(shù)量。
上述7010篇論文的推文數(shù)據(jù)通過推特API收集,數(shù)據(jù)內(nèi)容包括推文發(fā)布日期和文本內(nèi)容。
篩選出在論文撤稿前發(fā)布的推文后,研究團隊最終共搜集到8367條涉及撤稿論文的英文推文和6180條涉及未撤稿論文的英文推文。
研究把推文分為訓(xùn)練集和測試集。
訓(xùn)練集用來訓(xùn)練模型,然后在測試集上驗證人工預(yù)測、關(guān)鍵詞方法、機器學(xué)習(xí)模型和ChatGPT的預(yù)測結(jié)果情況。
人工預(yù)測結(jié)果(研究者根據(jù)推文預(yù)測論文撤稿情況)是研究使用的主要基準之一,用以衡量模型與人工方法的一致性情況。
人工預(yù)測結(jié)果顯示,人類若認為推文暗示論文存在問題,則推文涉及的這篇論文有高達約93%的幾率會被撤稿(精確率≈93%),這說明部分推文的確能夠預(yù)測論文撤稿。
不過,像這樣能通過推文被人工預(yù)測出撤稿的論文的總體占比不高,約占所有撤稿論文的16%(召回率≈16%)。
因此,盡管只有一小部分撤稿論文的相關(guān)推文在論文撤稿前含有了可識別的問題信號,但這些信號確實存在。
研究者觀察到,能夠有效預(yù)測論文撤稿的批評性推文有兩種類型:
- 第一種直接突出論文中的錯誤或?qū)W術(shù)不端行為;
- 第二種使用批評或諷刺的方式來突出論文的質(zhì)量存疑。
這些推文能夠促使期刊對論文進行調(diào)查,如果調(diào)查證實了推文中提到的問題的存在和嚴重性,論文隨后可能會被撤稿。
在這種情況下,批評性推文可以作為撤稿論文的催化劑,強調(diào)了將其納入研究誠信的早期預(yù)警系統(tǒng)的價值。
ChatGPT預(yù)測結(jié)果95%近似人類
既然發(fā)現(xiàn)推文具有預(yù)測論文撤稿的潛力,研究進一步探索了關(guān)鍵詞方法、機器學(xué)習(xí)模型和ChatGPT在根據(jù)推文來預(yù)測論文撤稿方面的潛力,將各模型的預(yù)測結(jié)果與人工預(yù)測結(jié)果進行比較。
研究表明,GPT-4的總體預(yù)測結(jié)果(包含撤稿預(yù)測和非撤稿預(yù)測)與人工預(yù)測結(jié)果的一致性最高,約95%。
其次是GPT-3.5和SVM模型,其一致性超過80%。
而關(guān)鍵詞方法與其他機器學(xué)習(xí)模型的一致性則在47%-64%之間,預(yù)測效果一般。
在精確率方面,同樣是GPT-4的精確率最高:
GPT-4預(yù)測會撤稿的論文中,近70%的在人工預(yù)測中同樣會撤稿;而其他模型的預(yù)測精確率均遠低于GPT-4。
上圖進一步顯示了不同模型預(yù)測結(jié)果與人工預(yù)測結(jié)果的比較。
關(guān)鍵詞方法和三種機器學(xué)習(xí)模型(LR、RF和NB)將大量人工無法判定為撤稿的論文歸為撤稿(過擬合率高)。
相比而言,GPT-4的預(yù)測結(jié)果最接近于人工預(yù)測的結(jié)果:
絕大部分GPT-4預(yù)測為撤稿的論文,人工預(yù)測也為撤稿,絕大部分GPT-4預(yù)測為非撤稿的論文,人工預(yù)測同樣為非撤稿。
有請實例
與其他方法相比,ChatGPT還有一個重要的優(yōu)勢——能夠為其預(yù)測提供理由,而其他方法則無法詳細解釋其決策。
例如,從樣本論文中可以看出,ChatGPT對推文有深刻的理解,并能準確提取可能預(yù)測論文撤稿的信息,為使用推文評估論文是否存在潛在問題提供了寶貴的幫助。
舉個:
然而,也要注意到ChatGPT有時存在“幻覺”問題。
也就是說,ChatGPT可能會產(chǎn)生不恰當?shù)妮敵觯虼嗽谑褂脮r需要謹慎,并考慮到其可能的錯誤預(yù)測。
例如:
樣例論文3中,相關(guān)推文是對這篇論文的評價,暗示該論文指出諾獎得主的某篇論文存在問題。
然而,ChatGPT將樣例論文3誤以為是被撤稿的諾獎得主的相關(guān)工作,因此這篇論文可能被撤稿。
此處的分析結(jié)果表明,ChatGPT存在一定的邏輯推理謬誤與過度解讀等問題。
因此,ChatGPT雖然能夠通過推文從一定程度上預(yù)測論文撤稿,與人工預(yù)測的一致性在各模型中表現(xiàn)最好,但其在當前并非完美,在未來仍有長足的改進空間。
網(wǎng)友對這項研究也挺關(guān)注,表示用ChatGPT預(yù)測論文撤稿,真是從未設(shè)想過的道路。
因缺斯汀,我還以為沒有足夠多的數(shù)據(jù)來支撐這一結(jié)論呢!
總體而言,研究揭示了社交媒體討論作為論文撤稿早期預(yù)警的潛力,同時也展示了ChatGPT等生成式人工智能在促進科研誠信方面的潛在應(yīng)用。
研究作者介紹
最后,來認識一下這個研究的作者~
Er-Te Zheng(鄭爾特),人大信息資源管理學(xué)院碩士生,由Zhichao Fang助理教授指導(dǎo);本科時,他在浙江大學(xué)獲得管理學(xué)學(xué)士學(xué)位,師從Hui-Zhen Fu副教授。
他的研究方向涉及計算社會科學(xué)、科學(xué)學(xué)和科學(xué)計量。
Hui-Zhen Fu(付慧真),浙大公共管理學(xué)院信息資源管理系副教授,北京大學(xué)博士。
擔任信息資源管理研究所副所長,荷蘭萊頓大學(xué)科學(xué)技術(shù)研究中心(CWTS)訪問學(xué)者。
她的研究方向為交叉科學(xué)、科學(xué)計量、科研誠信和科研管理,在國際權(quán)威刊物發(fā)表論文超40篇(SCI/SSCI),連續(xù)四年(2020-2023)入選愛思唯爾中國高被引學(xué)者榜單。
Zhichao Fang(方志超),人大信息資源管理學(xué)院助理教授,荷蘭萊頓大學(xué)科學(xué)與技術(shù)研究中心(CWTS)博士,萊頓大學(xué)CWTS客座研究員,伊朗波斯灣大學(xué)社交媒體數(shù)據(jù)研究組成員。
他的研究方向為科學(xué)學(xué)、科學(xué)計量和社交媒體計量學(xué),在科學(xué)計量學(xué)與科技政策等領(lǐng)域發(fā)表SCI/SSCI論文20篇。
論文鏈接:https://arxiv.org/abs/2403.16851