自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

《美國(guó)憲法》和《圣經(jīng)》都是AI生成?AI檢測(cè)器不靠譜,人類(lèi)數(shù)據(jù)有限會(huì)限制AI發(fā)展

人工智能 新聞
AI檢測(cè)器把《圣經(jīng)》和《美國(guó)憲法》都認(rèn)定為AI生成。到底是因?yàn)椤妒ソ?jīng)》和《美國(guó)憲法》作者能穿越時(shí)空還是因?yàn)锳I檢測(cè)器不靠譜?背后的原因居然是AI和人越來(lái)越像了。

AI生成的內(nèi)容到底能不能被有效地識(shí)別出來(lái)?

讓我們來(lái)看幾個(gè)例子:

如果把美國(guó)憲法輸入到GPTZero這類(lèi)用來(lái)檢測(cè)文本是否是AI模型生成的工具中,它會(huì)告訴你這份文件幾乎肯定是由AI生成的。

圖片圖片

這一情況引發(fā)很多美國(guó)網(wǎng)友對(duì)于他們國(guó)父真實(shí)身份的猜疑。

圖片圖片

他們都是時(shí)空行者,這張圖就是石錘!

圖片圖片

同樣的,對(duì)于《圣經(jīng)》中的內(nèi)容,檢測(cè)工具也是持同樣的態(tài)度。

圖片圖片

而國(guó)外一個(gè)大學(xué)教授由于懷疑學(xué)生使用AI寫(xiě)論文,他把學(xué)生的論文放到了像上文這樣的AI檢測(cè)工具中,用檢測(cè)工具的結(jié)果直接掛掉了大部分學(xué)生。

但結(jié)果是大部分的學(xué)生其實(shí)都是自己寫(xiě)的論文,把教授和學(xué)校都搞得焦頭爛額。

圖片圖片

那么,為什么AI檢測(cè)工具為什么會(huì)有這么離譜的檢測(cè)結(jié)果。

國(guó)外媒體詢(xún)問(wèn)了幾位業(yè)內(nèi)專(zhuān)家,以及AI寫(xiě)作檢測(cè)器GPTZero的創(chuàng)始人,希望能找到其中的原因。

利用語(yǔ)言的困惑度來(lái)鑒定AI不太靠譜

不同的AI寫(xiě)作檢測(cè)器使用略有不同的檢測(cè)方法,但是原理相似:

用一個(gè)AI模型,它經(jīng)過(guò)了大量的文本(包含數(shù)百萬(wàn)篇寫(xiě)作例子)訓(xùn)練,并建立了一套推測(cè)規(guī)則,用來(lái)判斷這篇寫(xiě)作更是人類(lèi)寫(xiě)的還是AI生成的。

以GPTZero為例,它的核心是一個(gè)神經(jīng)網(wǎng)絡(luò),這個(gè)網(wǎng)絡(luò)是基于「大量、多樣的人類(lèi)寫(xiě)作和AI生成的文本訓(xùn)練的,但是訓(xùn)練數(shù)據(jù)的重點(diǎn)是英文散文。

然后,這個(gè)系統(tǒng)使用像「困惑度」(Perplexity)和「突發(fā)性」(Burstiness)這樣的特性來(lái)評(píng)估文本并進(jìn)行分類(lèi)。

在機(jī)器學(xué)習(xí)中,困惑度是衡量一個(gè)文本偏離AI模型在訓(xùn)練期間學(xué)到的內(nèi)容的程度的指標(biāo)。

正如AI公司Hugging Face的瑪格麗特·米切爾博士說(shuō)到的,「困惑度是這種語(yǔ)言基于我所看到的內(nèi)容有多令我驚訝?'的一個(gè)函數(shù)」。

所以,測(cè)量困惑度的原理就是,當(dāng)AI模型,比如ChatGPT生成文本時(shí),它們自然會(huì)選擇它們最擅長(zhǎng)的內(nèi)容。

而這些內(nèi)容就來(lái)自它們的訓(xùn)練數(shù)據(jù)。

輸出的內(nèi)容離訓(xùn)練數(shù)據(jù)越近,困惑度就越低。

但是人類(lèi)是更混亂的寫(xiě)作者,或者至少這是理論上的。

但是人類(lèi)也可以寫(xiě)出低困惑度的文字,特別是當(dāng)按照法律或某些類(lèi)型的學(xué)術(shù)寫(xiě)作的正式風(fēng)格時(shí)。

此外,人類(lèi)使用的許多短語(yǔ)其實(shí)出奇的常見(jiàn),或者說(shuō)可預(yù)測(cè)。

比如說(shuō)作為人類(lèi),猜測(cè)在「I'd like a cup of _____.」這句話中的下一個(gè)詞。

大多數(shù)人可能會(huì)在這個(gè)空格中填上「水」、「咖啡」或「茶」。

一個(gè)接受了大量英語(yǔ)文本訓(xùn)練的語(yǔ)言模型也會(huì)這樣做,因?yàn)檫@些短語(yǔ)在英文寫(xiě)作中經(jīng)常出現(xiàn)。

所以任何這三個(gè)結(jié)果的困惑度都會(huì)非常低,因?yàn)轭A(yù)測(cè)相當(dāng)準(zhǔn)確。

現(xiàn)在如果出現(xiàn)一個(gè)不太常見(jiàn)的填空答案:「我想要一杯蜘蛛」。

人類(lèi)和一個(gè)訓(xùn)練有素的語(yǔ)言模型都會(huì)感到相當(dāng)驚訝(或者說(shuō)「困惑」),所以它的困惑度會(huì)很高。

如果一篇文本中的語(yǔ)言基于模型的訓(xùn)練并不令人驚訝,那么困惑度就會(huì)很低,所以AI檢測(cè)器更有可能將這段文本分類(lèi)為AI生成。

這就是為什么「美國(guó)憲法」的例子背后的原因。

本質(zhì)上,憲法的語(yǔ)言在這些模型中已經(jīng)非常根深蒂固了,以至于AI檢測(cè)器將其分類(lèi)為AI生成,從而做出了錯(cuò)誤的判斷。

GPTZero的創(chuàng)建者Edward Tian說(shuō),「《美國(guó)憲法》是一個(gè)反復(fù)輸入到許多大型語(yǔ)言模型訓(xùn)練數(shù)據(jù)中的文本。

因此,這些大型語(yǔ)言模型訓(xùn)練的結(jié)果就是能夠很容易地生成與憲法和其他常用訓(xùn)練文本相似的文本。

GPTZero預(yù)測(cè)出可能由大型語(yǔ)言模型生成的文本,因此就出現(xiàn)了這種令人著迷的現(xiàn)象?!?/span>

圖片

問(wèn)題在于,人類(lèi)也完全有可能創(chuàng)作出困惑度很低的內(nèi)容(例如,如果他們主要使用常見(jiàn)的短語(yǔ),如「我想要一杯咖啡」)。

這就讓AI檢測(cè)器的結(jié)果變得很不靠譜了。

突發(fā)性也解決不了問(wèn)題

GPTZero衡量的文本的另一個(gè)屬性是「突發(fā)性」,指的是某些詞或短語(yǔ)在文本中快速連續(xù)或「突發(fā)」出現(xiàn)的現(xiàn)象。

本質(zhì)上,突發(fā)性評(píng)估了文本全程的句子長(zhǎng)度和結(jié)構(gòu)的變化性。

人類(lèi)往往會(huì)有比較動(dòng)態(tài)的寫(xiě)作風(fēng)格,產(chǎn)生的句子長(zhǎng)度和結(jié)構(gòu)會(huì)是比較多樣的。

例如,我們可能會(huì)寫(xiě)一句長(zhǎng)而復(fù)雜的句子,接著是一句短而簡(jiǎn)單的句子,或者我們可能在一句話中使用一連串的形容詞,然后在下一句中一個(gè)形容詞也不用。

這種變化性是人類(lèi)創(chuàng)造性和自發(fā)性的自然產(chǎn)物。

另一方面,AI生成的文本傾向于更加一致和規(guī)整——至少目前為止是這樣的。

處于初期階段的語(yǔ)言模型,生成的句子長(zhǎng)度和結(jié)構(gòu)更規(guī)則。

這種缺乏變化性可能導(dǎo)致突發(fā)性分?jǐn)?shù)低,表明文本可能是AI生成的。

然而,突發(fā)性也不是檢測(cè)AI生成內(nèi)容的萬(wàn)全之策。

但就像困惑度一樣,人類(lèi)也可能以一種高度結(jié)構(gòu)化、一致的風(fēng)格寫(xiě)作,導(dǎo)致突發(fā)性分?jǐn)?shù)低。

反過(guò)來(lái),一個(gè)AI模型可能被訓(xùn)練來(lái)模仿更人性化的句子長(zhǎng)度和結(jié)構(gòu)的變化性,提高其突發(fā)性分?jǐn)?shù)。

實(shí)際上,隨著AI語(yǔ)言模型的改進(jìn),研究表明,它們的生成結(jié)果越來(lái)越像人類(lèi)的寫(xiě)作。

最終,可能不會(huì)存在一個(gè)非常簡(jiǎn)單而且巧妙地區(qū)分人類(lèi)寫(xiě)的文本和機(jī)器寫(xiě)的文本的方法。

AI寫(xiě)作檢測(cè)器可以做猜測(cè)性的判斷,但誤差邊際太大,無(wú)法依賴(lài)它們給出準(zhǔn)確的結(jié)果。

檢測(cè)AI生成內(nèi)容在未來(lái)越來(lái)越重要

而對(duì)AI生成的內(nèi)容,特別是文字內(nèi)容的檢測(cè),在未來(lái)會(huì)越來(lái)越重要!

因?yàn)?,在未?lái)要想訓(xùn)練ChatGPT這樣規(guī)模的語(yǔ)言模型,可能現(xiàn)有的人類(lèi)數(shù)據(jù)已經(jīng)快不夠用了!

去年11月,MIT等研究人員進(jìn)行的一項(xiàng)研究估計(jì),機(jī)器學(xué)習(xí)數(shù)據(jù)集可能會(huì)在2026年之前耗盡所有「高質(zhì)量語(yǔ)言數(shù)據(jù)」。


圖片圖片

論文地址:https://arxiv.org/pdf/2211.04325.pdf

于是很多大佬們都表示,未來(lái)可能會(huì)用AI生成的數(shù)據(jù)來(lái)訓(xùn)練AI。

但是這個(gè)美好的愿望可能會(huì)面臨一個(gè)非常現(xiàn)實(shí)的問(wèn)題。

因?yàn)橹辽倌壳翱磥?lái),AI生成的數(shù)據(jù)對(duì)于訓(xùn)練AI來(lái)說(shuō),可能是有毒的。

近日,萊斯大學(xué)和斯坦福團(tuán)隊(duì)發(fā)現(xiàn),將AI生成的內(nèi)容喂給模型,只會(huì)導(dǎo)致性能下降。

研究人員對(duì)此給出一種解釋?zhuān)凶觥改P妥允烧系K」(MAD)。


圖片圖片

研究發(fā)現(xiàn)在使用AI數(shù)據(jù),經(jīng)過(guò)第5次迭代訓(xùn)練后,模型就會(huì)患上MAD。


圖片圖片

在合成數(shù)據(jù)上訓(xùn)練AI模型會(huì)逐漸放大偽影

換句話說(shuō),如果不能給模型提供「新鮮的數(shù)據(jù)」,即由人類(lèi)標(biāo)注的數(shù)據(jù),其輸出質(zhì)量將會(huì)受到嚴(yán)重影響。

一方面,研究者們?cè)谘芯咳绾畏奖愕亟oAI生成的數(shù)據(jù)打水印,讓新生成的AI數(shù)據(jù)能夠方便地被識(shí)別出來(lái),從而避免被拿來(lái)進(jìn)行AI訓(xùn)練。

另一方面,面對(duì)未來(lái)可能大量出現(xiàn)的沒(méi)有水印的AI生成數(shù)據(jù),把它們和人類(lèi)數(shù)據(jù)區(qū)別開(kāi)就是非常重要的事情。

這不但關(guān)乎學(xué)生們會(huì)不會(huì)被老師冤枉導(dǎo)致掛科,更嚴(yán)重的是會(huì)因?yàn)閿?shù)據(jù)重復(fù)訓(xùn)練的問(wèn)題導(dǎo)致AI發(fā)展受阻。

希望像ZeroGPT這樣的平臺(tái)能夠盡快克服現(xiàn)有的技術(shù)限制,保證未來(lái)訓(xùn)練AI的數(shù)據(jù)盡可能是原生的人類(lèi)數(shù)據(jù)。

責(zé)任編輯:張燕妮 來(lái)源: 新智元
相關(guān)推薦

2023-03-04 22:03:59

AI論文

2023-06-02 13:19:15

模型AI

2023-04-07 14:04:51

AI

2024-06-24 07:30:00

2023-10-19 13:12:32

Open-AIAI

2023-06-26 07:20:51

2024-08-26 08:16:13

2023-06-29 17:42:55

AI檢測(cè)

2023-05-22 09:38:38

2023-11-10 15:36:10

2023-07-17 10:47:22

人工智能

2023-10-23 12:05:17

2025-04-10 08:33:05

2020-12-14 10:24:25

人工智能

2023-02-27 14:55:54

技術(shù)研究

2024-01-10 18:13:52

生成式AI開(kāi)源

2023-10-12 15:32:36

2023-10-12 08:59:52

Docker AI生成式 AI

2024-02-23 08:58:06

AIDevSecOps監(jiān)控

2020-06-29 14:29:07

人工智能人類(lèi)工作
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)