自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

OpenAI官方推出AI生成內(nèi)容識(shí)別器,但成功率只有26%,網(wǎng)友:還不如論文查重工具

人工智能 新聞
識(shí)別 ChatGPT 生成的內(nèi)容,OpenAI 親自上陣了。

很多人也許已經(jīng)忘記,ChatGPT 正式發(fā)布時(shí)間是去年 11 月底,到現(xiàn)在才剛剛兩個(gè)月,但它掀起的熱潮卻已引發(fā)科技公司紛紛跟進(jìn),催生了獨(dú)角獸創(chuàng)業(yè)公司,還讓學(xué)術(shù)界修改了論文接收的要求。

在 ChatGPT 引發(fā) AI 領(lǐng)域「是否要禁用」大討論之后,OpenAI 的真假鑒別工具終于來(lái)了。

1 月 31 日,OpenAI 官宣了區(qū)分人類作品和 AI 生成文本的識(shí)別工具上線,該技術(shù)旨在識(shí)別自家的 ChatGPT、GPT-3 等模型生成的內(nèi)容。然而分類器目前看起來(lái)準(zhǔn)確性堪憂:OpenAI 在博客里指出 AI 識(shí)別 AI 高置信度正確率約為 26%。但該機(jī)構(gòu)認(rèn)為,當(dāng)它與其他方法結(jié)合使用時(shí),可以有助于防止 AI 文本生成器被濫用。

「我們提出分類器的目的是幫助減少人工智能生成的文本造成的混淆。然而它仍然有一些局限性,因此它應(yīng)該被用作其他確定文本來(lái)源方法的補(bǔ)充,而不是作為主要的決策工具,」OpenAI 發(fā)言人通過電子郵件對(duì)媒體介紹道。「我們正通過這個(gè)初始分類器獲取有關(guān)此類工具是否有用的反饋,并希望在未來(lái)分享改進(jìn)的方法?!?/span>

最近科技領(lǐng)域隨著圍繞生成式 AI,尤其是文本生成 AI 的熱情正在不斷增長(zhǎng),但相對(duì)的是人們對(duì)于濫用的擔(dān)憂,批評(píng)者呼吁這些工具的創(chuàng)造者應(yīng)該采取措施減輕其潛在的有害影響。

面對(duì)海量的 AI 生成內(nèi)容,一些行業(yè)立刻作出了限制,美國(guó)一些最大的學(xué)區(qū)已禁止在其網(wǎng)絡(luò)和設(shè)備上使用 ChatGPT,擔(dān)心會(huì)影響學(xué)生的學(xué)習(xí)和該工具生成的內(nèi)容的準(zhǔn)確性。包括 Stack Overflow 在內(nèi)的網(wǎng)站也已禁止用戶共享 ChatGPT 生成的內(nèi)容,稱人工智能會(huì)讓用戶在正常的討論中被無(wú)用內(nèi)容淹沒。

圖片

這些情況突出了 AI 識(shí)別工具的必要性。雖然效果不盡如人意,但 OpenAI AI 文本分類器(OpenAI AI Text Classifier)在架構(gòu)上實(shí)現(xiàn)了和 GPT 系列的對(duì)標(biāo)。它和 ChatGPT 一樣是一種語(yǔ)言模型,是根據(jù)來(lái)自網(wǎng)絡(luò)的許多公開文本示例進(jìn)行訓(xùn)練的。與 ChatGPT 不同的是,它經(jīng)過微調(diào)可以預(yù)測(cè)一段文本由 AI 生成的可能性 —— 不僅來(lái)自 ChatGPT,也包括來(lái)自任何文本生成 AI 模型的內(nèi)容。

具體來(lái)說(shuō),OpenAI 在來(lái)自五個(gè)不同組織(包括 OpenAI 自己)的 34 個(gè)文本生成系統(tǒng)的文本上訓(xùn)練了 AI 文本分類器。這些內(nèi)容與維基百科中相似(但不完全相同)的人工文本、從 Reddit 上共享的鏈接中提取的網(wǎng)站以及為 OpenAI 文本生成系統(tǒng)收集的一組「人類演示」配對(duì)。

需要注意的是,OpenAI 文本分類器不適用于所有類型的文本。被檢測(cè)的內(nèi)容至少需要 1000 個(gè)字符,或大約 150 到 250 個(gè)單詞。它沒有論文檢測(cè)平臺(tái)那樣的查重能力 —— 考慮到文本生成人工智能已被證明會(huì)照抄訓(xùn)練集里的「正確答案」,這是一個(gè)非常難受的限制。OpenAI 表示,由于其英語(yǔ)前向數(shù)據(jù)集,它更有可能在兒童或非英語(yǔ)語(yǔ)言書寫的文本上出錯(cuò)。

在評(píng)估一段給定的文本是否由 AI 生成時(shí),檢測(cè)器不會(huì)正面回答是或否。根據(jù)其置信度,它會(huì)將文本標(biāo)記為「非常不可能」由 AI 生成(小于 10% 的可能性)、「不太可能」由 AI 生成(在 10% 到 45% 之間的可能性)、「不清楚它是否是」AI 生成(45% 到 90% 的機(jī)會(huì))、「可能」由 AI 生成(90% 到 98% 的機(jī)會(huì))或「很有可能」由 AI 生成(超過 98% 的機(jī)會(huì))。

看起來(lái)和圖像識(shí)別的 AI 很像,除了準(zhǔn)確程度。根據(jù) OpenAI 的說(shuō)法,分類器錯(cuò)誤地將人類編寫的文本標(biāo)記為 AI 編寫的文本的概率為 9%。

一番試用之后,效果的確不大行

OpenAI 宣稱其 AI 文本分類器的成功率約為 26%,一些網(wǎng)友上手試用之后,發(fā)現(xiàn)識(shí)別效果果然不行。

知名 ML 和 AI 研究人員 Sebastian Raschka 試用之后,給出了「It does not work」的評(píng)價(jià)。他使用其 2015 年初版的 Python ML 書籍作為輸入文本,結(jié)果顯示如下。

  • Randy Olson 的 foreword 部分被識(shí)別為不清楚是否由 AI 生成(unclear)
  • 他自己的 preface 部分被識(shí)別為可能由 AI 生成(possibly AI)
  • 第一章的段落部分被識(shí)別為很可能由 AI 生成(likely AI)

圖片

Sebastian Raschka 對(duì)此表示,這是一個(gè)有趣的例子,但自己已經(jīng)為將來(lái)可能因離譜的論文識(shí)別結(jié)果而受到懲罰的學(xué)生感到難過了。

因此他提議,如果要部署這樣的模型,請(qǐng)共享一個(gè)混淆矩陣。不然如果教育者采用這一模型進(jìn)行評(píng)分,則可能會(huì)對(duì)現(xiàn)實(shí)世界造成傷害。此外還應(yīng)該增加一些有關(guān)誤報(bào)和漏報(bào)的透明度。

此外,Sebastian Raschka 輸入了莎士比亞《麥克白》第一頁(yè)的內(nèi)容,OpenAI AI 文本分類器給出的結(jié)果竟然是很可能由 AI 生成。簡(jiǎn)直離譜!

圖片

還有人上傳了 AI 寫作工具 Easy-Peasy.AI 創(chuàng)作的內(nèi)容,結(jié)果 OpenAI AI 文本分類器判定為由 AI 生成的可能性非常小。

圖片

最后,有人用上了反復(fù)翻譯大法,把文本讓 GPT3 重寫一遍,也能騙過識(shí)別器。

圖片

總結(jié)一下的話就是正向識(shí)別不準(zhǔn),反向識(shí)別出錯(cuò),也無(wú)法識(shí)破一些改論文的技巧??磥?lái),起碼在 AI 文本內(nèi)容識(shí)別這一領(lǐng)域,OpenAI 還需努力。

責(zé)任編輯:張燕妮 來(lái)源: 機(jī)器之心
相關(guān)推薦

2023-11-10 15:36:10

2023-05-15 20:19:26

谷歌AI

2024-04-22 08:25:00

2012-10-23 14:27:55

無(wú)奈大裁員濾鏡拍照

2023-08-07 15:18:55

NLP技術(shù)

2010-11-18 10:59:00

求職

2024-01-03 17:39:23

云計(jì)算混合云

2013-01-22 17:39:57

360瀏覽器搶票專版

2025-02-07 12:27:09

2021-01-20 18:13:52

VRAR守門員

2025-03-03 00:25:00

2025-02-12 10:05:00

AILLM訓(xùn)練

2020-06-09 14:44:18

AI 數(shù)據(jù)人工智能

2023-08-21 13:30:18

預(yù)測(cè)機(jī)器學(xué)習(xí)

2023-07-26 15:13:33

人工智能OpenAI

2014-08-29 10:05:02

2016-10-28 15:58:29

大數(shù)據(jù)就業(yè)成功率

2024-02-23 15:53:13

OpenAISora人工智能

2024-11-11 13:12:03

2021-09-24 09:52:13

登陸頁(yè)面注冊(cè)流程設(shè)計(jì)
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)