《美國(guó)憲法》和《圣經(jīng)》都是AI生成?AI檢測(cè)器不靠譜,人類(lèi)數(shù)據(jù)有限會(huì)限制AI發(fā)展
AI生成的內(nèi)容到底能不能被有效地識(shí)別出來(lái)?
讓我們來(lái)看幾個(gè)例子:
如果把美國(guó)憲法輸入到GPTZero這類(lèi)用來(lái)檢測(cè)文本是否是AI模型生成的工具中,它會(huì)告訴你這份文件幾乎肯定是由AI生成的。
圖片
這一情況引發(fā)很多美國(guó)網(wǎng)友對(duì)于他們國(guó)父真實(shí)身份的猜疑。
圖片
他們都是時(shí)空行者,這張圖就是石錘!
圖片
同樣的,對(duì)于《圣經(jīng)》中的內(nèi)容,檢測(cè)工具也是持同樣的態(tài)度。
圖片
而國(guó)外一個(gè)大學(xué)教授由于懷疑學(xué)生使用AI寫(xiě)論文,他把學(xué)生的論文放到了像上文這樣的AI檢測(cè)工具中,用檢測(cè)工具的結(jié)果直接掛掉了大部分學(xué)生。
但結(jié)果是大部分的學(xué)生其實(shí)都是自己寫(xiě)的論文,把教授和學(xué)校都搞得焦頭爛額。
圖片
那么,為什么AI檢測(cè)工具為什么會(huì)有這么離譜的檢測(cè)結(jié)果。
國(guó)外媒體詢(xún)問(wèn)了幾位業(yè)內(nèi)專(zhuān)家,以及AI寫(xiě)作檢測(cè)器GPTZero的創(chuàng)始人,希望能找到其中的原因。
利用語(yǔ)言的困惑度來(lái)鑒定AI不太靠譜
不同的AI寫(xiě)作檢測(cè)器使用略有不同的檢測(cè)方法,但是原理相似:
用一個(gè)AI模型,它經(jīng)過(guò)了大量的文本(包含數(shù)百萬(wàn)篇寫(xiě)作例子)訓(xùn)練,并建立了一套推測(cè)規(guī)則,用來(lái)判斷這篇寫(xiě)作更是人類(lèi)寫(xiě)的還是AI生成的。
以GPTZero為例,它的核心是一個(gè)神經(jīng)網(wǎng)絡(luò),這個(gè)網(wǎng)絡(luò)是基于「大量、多樣的人類(lèi)寫(xiě)作和AI生成的文本訓(xùn)練的,但是訓(xùn)練數(shù)據(jù)的重點(diǎn)是英文散文。
然后,這個(gè)系統(tǒng)使用像「困惑度」(Perplexity)和「突發(fā)性」(Burstiness)這樣的特性來(lái)評(píng)估文本并進(jìn)行分類(lèi)。
在機(jī)器學(xué)習(xí)中,困惑度是衡量一個(gè)文本偏離AI模型在訓(xùn)練期間學(xué)到的內(nèi)容的程度的指標(biāo)。
正如AI公司Hugging Face的瑪格麗特·米切爾博士說(shuō)到的,「困惑度是這種語(yǔ)言基于我所看到的內(nèi)容有多令我驚訝?'的一個(gè)函數(shù)」。
所以,測(cè)量困惑度的原理就是,當(dāng)AI模型,比如ChatGPT生成文本時(shí),它們自然會(huì)選擇它們最擅長(zhǎng)的內(nèi)容。
而這些內(nèi)容就來(lái)自它們的訓(xùn)練數(shù)據(jù)。
輸出的內(nèi)容離訓(xùn)練數(shù)據(jù)越近,困惑度就越低。
但是人類(lèi)是更混亂的寫(xiě)作者,或者至少這是理論上的。
但是人類(lèi)也可以寫(xiě)出低困惑度的文字,特別是當(dāng)按照法律或某些類(lèi)型的學(xué)術(shù)寫(xiě)作的正式風(fēng)格時(shí)。
此外,人類(lèi)使用的許多短語(yǔ)其實(shí)出奇的常見(jiàn),或者說(shuō)可預(yù)測(cè)。
比如說(shuō)作為人類(lèi),猜測(cè)在「I'd like a cup of _____.」這句話中的下一個(gè)詞。
大多數(shù)人可能會(huì)在這個(gè)空格中填上「水」、「咖啡」或「茶」。
一個(gè)接受了大量英語(yǔ)文本訓(xùn)練的語(yǔ)言模型也會(huì)這樣做,因?yàn)檫@些短語(yǔ)在英文寫(xiě)作中經(jīng)常出現(xiàn)。
所以任何這三個(gè)結(jié)果的困惑度都會(huì)非常低,因?yàn)轭A(yù)測(cè)相當(dāng)準(zhǔn)確。
現(xiàn)在如果出現(xiàn)一個(gè)不太常見(jiàn)的填空答案:「我想要一杯蜘蛛」。
人類(lèi)和一個(gè)訓(xùn)練有素的語(yǔ)言模型都會(huì)感到相當(dāng)驚訝(或者說(shuō)「困惑」),所以它的困惑度會(huì)很高。
如果一篇文本中的語(yǔ)言基于模型的訓(xùn)練并不令人驚訝,那么困惑度就會(huì)很低,所以AI檢測(cè)器更有可能將這段文本分類(lèi)為AI生成。
這就是為什么「美國(guó)憲法」的例子背后的原因。
本質(zhì)上,憲法的語(yǔ)言在這些模型中已經(jīng)非常根深蒂固了,以至于AI檢測(cè)器將其分類(lèi)為AI生成,從而做出了錯(cuò)誤的判斷。
GPTZero的創(chuàng)建者Edward Tian說(shuō),「《美國(guó)憲法》是一個(gè)反復(fù)輸入到許多大型語(yǔ)言模型訓(xùn)練數(shù)據(jù)中的文本。
因此,這些大型語(yǔ)言模型訓(xùn)練的結(jié)果就是能夠很容易地生成與憲法和其他常用訓(xùn)練文本相似的文本。
GPTZero預(yù)測(cè)出可能由大型語(yǔ)言模型生成的文本,因此就出現(xiàn)了這種令人著迷的現(xiàn)象?!?/span>
問(wèn)題在于,人類(lèi)也完全有可能創(chuàng)作出困惑度很低的內(nèi)容(例如,如果他們主要使用常見(jiàn)的短語(yǔ),如「我想要一杯咖啡」)。
這就讓AI檢測(cè)器的結(jié)果變得很不靠譜了。
突發(fā)性也解決不了問(wèn)題
GPTZero衡量的文本的另一個(gè)屬性是「突發(fā)性」,指的是某些詞或短語(yǔ)在文本中快速連續(xù)或「突發(fā)」出現(xiàn)的現(xiàn)象。
本質(zhì)上,突發(fā)性評(píng)估了文本全程的句子長(zhǎng)度和結(jié)構(gòu)的變化性。
人類(lèi)往往會(huì)有比較動(dòng)態(tài)的寫(xiě)作風(fēng)格,產(chǎn)生的句子長(zhǎng)度和結(jié)構(gòu)會(huì)是比較多樣的。
例如,我們可能會(huì)寫(xiě)一句長(zhǎng)而復(fù)雜的句子,接著是一句短而簡(jiǎn)單的句子,或者我們可能在一句話中使用一連串的形容詞,然后在下一句中一個(gè)形容詞也不用。
這種變化性是人類(lèi)創(chuàng)造性和自發(fā)性的自然產(chǎn)物。
另一方面,AI生成的文本傾向于更加一致和規(guī)整——至少目前為止是這樣的。
處于初期階段的語(yǔ)言模型,生成的句子長(zhǎng)度和結(jié)構(gòu)更規(guī)則。
這種缺乏變化性可能導(dǎo)致突發(fā)性分?jǐn)?shù)低,表明文本可能是AI生成的。
然而,突發(fā)性也不是檢測(cè)AI生成內(nèi)容的萬(wàn)全之策。
但就像困惑度一樣,人類(lèi)也可能以一種高度結(jié)構(gòu)化、一致的風(fēng)格寫(xiě)作,導(dǎo)致突發(fā)性分?jǐn)?shù)低。
反過(guò)來(lái),一個(gè)AI模型可能被訓(xùn)練來(lái)模仿更人性化的句子長(zhǎng)度和結(jié)構(gòu)的變化性,提高其突發(fā)性分?jǐn)?shù)。
實(shí)際上,隨著AI語(yǔ)言模型的改進(jìn),研究表明,它們的生成結(jié)果越來(lái)越像人類(lèi)的寫(xiě)作。
最終,可能不會(huì)存在一個(gè)非常簡(jiǎn)單而且巧妙地區(qū)分人類(lèi)寫(xiě)的文本和機(jī)器寫(xiě)的文本的方法。
AI寫(xiě)作檢測(cè)器可以做猜測(cè)性的判斷,但誤差邊際太大,無(wú)法依賴(lài)它們給出準(zhǔn)確的結(jié)果。
檢測(cè)AI生成內(nèi)容在未來(lái)越來(lái)越重要
而對(duì)AI生成的內(nèi)容,特別是文字內(nèi)容的檢測(cè),在未來(lái)會(huì)越來(lái)越重要!
因?yàn)?,在未?lái)要想訓(xùn)練ChatGPT這樣規(guī)模的語(yǔ)言模型,可能現(xiàn)有的人類(lèi)數(shù)據(jù)已經(jīng)快不夠用了!
去年11月,MIT等研究人員進(jìn)行的一項(xiàng)研究估計(jì),機(jī)器學(xué)習(xí)數(shù)據(jù)集可能會(huì)在2026年之前耗盡所有「高質(zhì)量語(yǔ)言數(shù)據(jù)」。
圖片
論文地址:https://arxiv.org/pdf/2211.04325.pdf
于是很多大佬們都表示,未來(lái)可能會(huì)用AI生成的數(shù)據(jù)來(lái)訓(xùn)練AI。
但是這個(gè)美好的愿望可能會(huì)面臨一個(gè)非常現(xiàn)實(shí)的問(wèn)題。
因?yàn)橹辽倌壳翱磥?lái),AI生成的數(shù)據(jù)對(duì)于訓(xùn)練AI來(lái)說(shuō),可能是有毒的。
近日,萊斯大學(xué)和斯坦福團(tuán)隊(duì)發(fā)現(xiàn),將AI生成的內(nèi)容喂給模型,只會(huì)導(dǎo)致性能下降。
研究人員對(duì)此給出一種解釋?zhuān)凶觥改P妥允烧系K」(MAD)。
圖片
研究發(fā)現(xiàn)在使用AI數(shù)據(jù),經(jīng)過(guò)第5次迭代訓(xùn)練后,模型就會(huì)患上MAD。
圖片
在合成數(shù)據(jù)上訓(xùn)練AI模型會(huì)逐漸放大偽影
換句話說(shuō),如果不能給模型提供「新鮮的數(shù)據(jù)」,即由人類(lèi)標(biāo)注的數(shù)據(jù),其輸出質(zhì)量將會(huì)受到嚴(yán)重影響。
一方面,研究者們?cè)谘芯咳绾畏奖愕亟oAI生成的數(shù)據(jù)打水印,讓新生成的AI數(shù)據(jù)能夠方便地被識(shí)別出來(lái),從而避免被拿來(lái)進(jìn)行AI訓(xùn)練。
另一方面,面對(duì)未來(lái)可能大量出現(xiàn)的沒(méi)有水印的AI生成數(shù)據(jù),把它們和人類(lèi)數(shù)據(jù)區(qū)別開(kāi)就是非常重要的事情。
這不但關(guān)乎學(xué)生們會(huì)不會(huì)被老師冤枉導(dǎo)致掛科,更嚴(yán)重的是會(huì)因?yàn)閿?shù)據(jù)重復(fù)訓(xùn)練的問(wèn)題導(dǎo)致AI發(fā)展受阻。
希望像ZeroGPT這樣的平臺(tái)能夠盡快克服現(xiàn)有的技術(shù)限制,保證未來(lái)訓(xùn)練AI的數(shù)據(jù)盡可能是原生的人類(lèi)數(shù)據(jù)。