自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

Nature新規(guī):用ChatGPT寫論文可以,列為作者不行

人工智能 新聞
去年12月一篇雷帕霉素抗衰老應(yīng)用的論文中,ChatGPT就曾被列為一作,引發(fā)業(yè)內(nèi)爭議。

?本文經(jīng)AI新媒體量子位(公眾號ID:QbitAI)授權(quán)轉(zhuǎn)載,轉(zhuǎn)載請聯(lián)系出處。

面對ChatGPT,Nature終于坐不住了。

本周,這家權(quán)威學術(shù)出版機構(gòu)下場,針對ChatGPT代寫學研文章、被列為作者等一系列問題,給了定性。

具體來說,Nature列出兩項原則:

(1)任何大型語言模型工具(比如ChatGPT)都不能成為論文作者;
(2)如在論文創(chuàng)作中用過相關(guān)工具,作者應(yīng)在“方法”或“致謝”或適當?shù)牟糠?strong>明確說明。

現(xiàn)在,上述要求已經(jīng)添進作者投稿指南中。

圖片

近段時間,ChatGPT染指學研圈情況越來越多。

去年12月一篇雷帕霉素抗衰老應(yīng)用的論文中,ChatGPT就曾被列為一作,引發(fā)業(yè)內(nèi)爭議。該篇之外,還有不少研究將ChatGPT列為作者。

Nature也已注意到此類狀況,他們于12月進行了一項調(diào)研顯示,293名受訪的教授老師中,20%已經(jīng)發(fā)覺或目睹學生在用ChatGPT完成作業(yè)或論文,更多人對此表示擔憂。

此次,Nature所發(fā)表的聲明,正是希望對種種爭議給予定性。

圖片

多篇論文已將ChatGPT列為作者

ChatGPT由OpenAI在去年11月末推出,因其表現(xiàn)大幅超越此前大型語言模型(LLM),迅速成為歲末年初第一號“竄天猴”。

在新媒體、影視、軟件開發(fā)、游戲互動等領(lǐng)域中,ChatGPT被迅速加以利用,輔助生產(chǎn)提升效能。

學研圈也不例外。

據(jù)Nature統(tǒng)計,使用ChatGPT并將其列為作者的論文最少有4篇。

其中一篇預印本在2022年12月發(fā)表于醫(yī)學預印本資料庫medRxiv上。該論文研究了ChatGPT在美國醫(yī)學執(zhí)照考試中的表現(xiàn)。盡管研究關(guān)于ChatGPT,但作者欄中也列上了ChatGPT。

圖片

另一篇論文發(fā)表在《護士教育實踐》雜志上,關(guān)于開放人工智能平臺在護理教育中的利弊,同樣,ChatGPT被列入作者欄:

圖片

第三篇論文來自AI藥物研發(fā)公司Insilico Medicine,內(nèi)容關(guān)于一種新藥雷帕霉素,發(fā)表于《Oncoscience》。同樣,ChatGPT被列為作者。

圖片

第四篇稍顯“古早”,發(fā)表于2022年6月,探討主題就是——AI生成論文的能力如何。被列入作者一欄的AI也并非ChatGPT,而是更早發(fā)布的GPT-3。

圖片

盡管上述研究內(nèi)容多少都與生成語言模型有關(guān),但對于嚴肅的科研活動來說,使用“研究對象”寫論文,并將其列入作者欄,不可避免引發(fā)了爭議和質(zhì)疑。

且即便不將AI列為作者,學研圈使用ChatGPT的情況也越來越普遍。

前文提及AI藥物研發(fā)公司Insilico Medicine的CEO,Alex Zhavoronkov,他透露道,其所在的機構(gòu)已發(fā)表了80多篇由AI工具生成的論文。

英國教授Mike Sharples一直關(guān)注生成AI對學術(shù)研究的影響。不久前,他在推特上親手演示了如何用大型語言模型10分鐘生成一篇學術(shù)論文,一步步描述自己如何用AI根據(jù)標題生成摘要,也引發(fā)不小討論。

圖片

學生使用ChatGPT幫助撰寫論文、生成代碼、完成作業(yè)更為普遍,目前,美國已有部分地區(qū)教育機構(gòu)禁止使用該工具。

就在上周,北密歇根大學一位學生依靠ChatGPT寫出全班最高分論文。

有意思的是,該學生之所以被抓住,是因為所提交文章邏輯過于連貫,結(jié)構(gòu)過于合理,以至于導師專門去質(zhì)問了一下才得知真相。

圖片
 北密歇根大學

需要明確的是,上述抓包只是偶然,更多時候,生成內(nèi)容已讓科學家們真假難辨。

Nature此前一篇文章指出,ChatGPT發(fā)布后,伊利諾伊州西北大學一個研究小組就在探究,使用該AI工具生成醫(yī)學論文摘要,科學家是否能識別。

結(jié)果發(fā)現(xiàn),AI生成摘要均通過了抄襲檢測器,在人工審核中,32%的AI生成摘要被認為是真實人類完成的。

已在開發(fā)辨別工具

此番Nature下場,表明了他們對ChatGPT引發(fā)問題的重視。

在最新內(nèi)容中,Nature表示,學研圈都在擔心,學生及研究者們可能會以大型語言模型生成的內(nèi)容當作本人撰寫的文本,除卻冒用風險外,上述過程還會產(chǎn)生不可靠的研究結(jié)論。

尤其針對ChatGPT,Nature團隊及很多出版商、平臺均認為,該工具無法對科學論文的完整性及內(nèi)容本身負責。

一個側(cè)面佐證是科技媒體CNET這兩天曝出,該平臺AI編寫的77篇內(nèi)容中,41篇有錯誤,目前,平臺已予以更正,并表示將暫停此種方式生產(chǎn)內(nèi)容。

正是基于對上述情況的擔憂,Nature出臺了相關(guān)規(guī)定。

至于如何分辨AI生成內(nèi)容?

Nature表示,目前ChatGPT原始輸出可以通過仔細檢查而被發(fā)現(xiàn),尤其涉及具體科學工作時,內(nèi)容可能包含最簡單的錯誤及泛泛乏味的措辭。此外,Nature也表示,他們還在開發(fā)相關(guān)識別技術(shù)。

值得一提的是,相關(guān)識別工具也有人開發(fā)出來了。

比如OpenAI自己推出的GPT-2 Output Detector,輸入50個以上字符(tokens)就能較準確地識別AI生成的文本。

再比如普林斯頓大學生Edward Tian,也做出過相關(guān)工具GPTZero。

圖片

不過,并非所有大學教授和老師對AI生成工具持否定態(tài)度。

比如賓大沃頓商學院一位教授Ethan Mollick,反其道而要求學生使用ChatGPT完成課堂作業(yè),并認為這是在擁抱新興技術(shù)工具。

論文發(fā)表平臺medRxiv一位工作者也表示,ChatGPT也不算新麻煩。

他認為,此前,研究者都嘗試偷偷加入寵物、虛構(gòu)人物名字。因此,他們認為,問題核心是——需要繼續(xù)加強檢查。

最后問問,你在科研工作中用了ChatGPT么?

責任編輯:張燕妮 來源: 量子位
相關(guān)推薦

2023-12-21 07:10:43

2024-02-26 12:48:28

ChatGPT人工智能論文

2023-09-11 12:23:50

2023-05-08 15:22:00

AI研究

2023-01-15 13:35:54

ChatGPT論文

2023-04-10 14:20:47

ChatGPTRESTAPI

2023-01-13 13:59:23

ChatGPT學術(shù)

2025-04-25 10:57:39

2023-01-13 13:26:38

ChatGPT醫(yī)學寫作能力

2024-08-15 13:40:00

模型訓練

2025-04-15 04:00:00

ICLRClaudeSpotlight

2025-01-13 13:00:00

AI模型訓練

2021-11-16 12:25:14

jsPPT前端

2023-01-09 13:19:07

AIGPT-3創(chuàng)作能力

2023-03-31 09:30:21

ChatGPT論文

2023-06-18 23:19:17

ChatGPTPPT方式

2023-12-28 09:23:27

2023-01-31 14:16:52

ChatGPTAI檢測器

2023-04-07 09:12:11

2021-03-25 23:22:22

Nature論文科學
點贊
收藏

51CTO技術(shù)棧公眾號