AI研究機(jī)構(gòu)OpenAI開(kāi)發(fā)出寫(xiě)作AI:編寫(xiě)假新聞足以亂真
北京時(shí)間2月15日早間消息,據(jù)彭博社報(bào)道,馬斯克倡導(dǎo)成立的AI研究機(jī)構(gòu)OpenAI周四展示一款軟件,只需要給軟件提供一些信息,它就能編寫(xiě)逼真的假新聞。
OpenAI公布了軟件編寫(xiě)新聞的過(guò)程。研究人員給軟件提供如下信息:“一節(jié)裝載受控核材料的火車車廂今天在Cincinnati被盜,下落不明。”以此作為基礎(chǔ),軟件編寫(xiě)出由7個(gè)段落組成的新聞,軟件還引述政府官員的話語(yǔ),只是這些信息全是假的。
紐約大學(xué)計(jì)算機(jī)科學(xué)家山姆·鮑曼(Sam Bowman)認(rèn)為:“軟件根據(jù)提示生成的文本相當(dāng)驚人,從品質(zhì)上講,它所做的事比之前我們看到的復(fù)雜很多。”
假新聞引起人們的擔(dān)憂,OpenAI對(duì)此心知肚明,OpenAI政策主管杰克·克拉克(Jack Clark)說(shuō):“它可以生成連貫但不準(zhǔn)確的虛假信息,其目的并不是很好。”
正因如此,OpenAI不會(huì)披露或者發(fā)布軟件的復(fù)雜版本。它只是開(kāi)發(fā)一個(gè)工具,讓政策制定者、記者、作家、藝術(shù)家用算法做實(shí)驗(yàn),看看能編寫(xiě)什么文本信息,或者能否做其它事情。
目前虛假信息正在蔓延,威脅全球科技產(chǎn)業(yè),而軟件能夠編寫(xiě)逼真的虛假新聞不是一個(gè)好消息。歐洲監(jiān)管機(jī)構(gòu)已經(jīng)向科技企業(yè)發(fā)出警告,如果科技公司不采取強(qiáng)有力措施,防止產(chǎn)品影響選民意愿,它們就會(huì)采取行動(dòng),自2016年美國(guó)大選以來(lái),F(xiàn)acebook一直在努力,希望控制虛假信息。
克拉克和鮑曼都認(rèn)為,系統(tǒng)雖然很強(qiáng)大,但其能力沒(méi)有強(qiáng)到可以馬上帶來(lái)威脅??死苏f(shuō):“這不是一項(xiàng)馬上能投入使用的技術(shù),這是好事。”
OpenAI的工具是為了所謂的“語(yǔ)言建模”任務(wù)創(chuàng)造的,它要根據(jù)所有之前的單詞預(yù)測(cè)接下來(lái)的文本會(huì)是怎樣的,有點(diǎn)類似于我們?cè)谑謾C(jī)上寫(xiě)郵件時(shí)自動(dòng)補(bǔ)充文本信息。它還可以用來(lái)執(zhí)行翻譯、開(kāi)放式問(wèn)答任務(wù)。
OpenAI研究人員杰夫·吳(Jeff Wu)舉例說(shuō),我們也許可以用工具幫助作家尋找創(chuàng)意或者生成對(duì)話。又例如,也許可以用工具檢查語(yǔ)法錯(cuò)誤,查看軟件代碼是否有漏洞。優(yōu)化軟件之后,未來(lái)也許還能為企業(yè)或者政府決策者提煉總結(jié)性文本。
在過(guò)去一年里,研究人員在語(yǔ)言處理方面取得巨大進(jìn)步。去年11月,谷歌開(kāi)發(fā)出一個(gè)強(qiáng)大的算法BERT,它可以理解并回答問(wèn)題。早些時(shí)候,艾倫人工智能研究所也在自然語(yǔ)言方面取得突破,開(kāi)發(fā)出一種名叫Elmo的算法。
鮑曼認(rèn)為,BERT和Elmo可以說(shuō)是過(guò)去5年該領(lǐng)域最重大的突破,相比來(lái)說(shuō),雖然OpenAI算法也很重要,但是革命性沒(méi)有BERT那么強(qiáng)。
馬斯克是OpenAI的聯(lián)合創(chuàng)始人,不過(guò)去年他已經(jīng)退出董事會(huì)。(德克)