ChatGPT的火爆背后,人工智能發(fā)展未來路向何方?
本文轉(zhuǎn)載自微信公眾號「活在信息時(shí)代」,作者活在信息時(shí)代。轉(zhuǎn)載本文請聯(lián)系活在信息時(shí)代公眾號。
這幾天,人工智能領(lǐng)域最火的當(dāng)紅炸子雞,無異于OpenAI開發(fā)的可以進(jìn)行對話聊天的機(jī)器人ChatGPT了。
ChatGPT是一個(gè)大型預(yù)訓(xùn)練語言模型,它可以在對話中生成類似于人類的文本響應(yīng)。其基于算法基于當(dāng)下最為流行的Transformer架構(gòu),這是一種使用自注意力機(jī)制處理輸入數(shù)據(jù)的深度神經(jīng)網(wǎng)絡(luò)。廣泛用于各類自然語言處理任務(wù)。ChatGPT基于大量文本對話數(shù)據(jù)集進(jìn)行訓(xùn)練,并使用自注意力機(jī)制來學(xué)習(xí)類人對話的模式和結(jié)構(gòu)。這使得他的回答,與真人的回答非常接近。甚至有人認(rèn)為ChatGPT可以完全替代搜索引擎了。
在知乎作者DeFi的科普文《科普:什么是ChatGPT?》中,對ChatGPT進(jìn)行了介紹。如圖所示:
但是在文末的最后,作者給了大家一個(gè)彩蛋,表示這篇文章本身即是ChatGPT自己寫的。例如上圖中的“ChatGPT介紹”一節(jié),即是作者在向ChatGPT提問:什么是ChatGPT?之后得到的回答,類似的,“算法”一節(jié),則是作者在提問了“ChatGPT背后的算法是什么?”之后得到的回答。
從文章中,我們可以看出,ChatGPT在這種場景下的回答,幾乎難以分辨是否是機(jī)器人在回答。這也難怪很多人對它的表現(xiàn)表示出驚嘆了。
然而另外的一批人則對于ChatGPT的表現(xiàn)并不滿意。例如說著名的程序員社區(qū)Stackoverflow在12月4日的時(shí)候就發(fā)布了一條臨時(shí)規(guī)定:禁止使用ChatGPT生成的內(nèi)容來回答Stackoverflow上面的問題。原因在于,這些生成的內(nèi)容正確率非常的低,而這些似是而非的內(nèi)容,對于整個(gè)網(wǎng)站以及尋求正確答案的用戶來說是有害的。這里的主要問題是,由于使用ChatGPT的門檻非常低,因此近日來很多人都在使用ChatGPT來回答別人提出的問題,而由于他們本身缺少專業(yè)知識,沒有驗(yàn)證ChatGPT生成的回答是否正確的能力,因此產(chǎn)生了很多毫無價(jià)值,甚至?xí)鹫`導(dǎo)的回答。
而另外的一些人則嘗試了一些小學(xué)生的問題,而ChatGPT回答的不盡人意。例如:
而這些簡單問題回答的不盡人意的背后,則是我們對于人工智能領(lǐng)域發(fā)展的深度思考。
在深度學(xué)習(xí)領(lǐng)域,研究者們常說一句話:如果你拷問數(shù)據(jù)到一定程度,它會(huì)坦白一切。
這是一種自嘲,目前的人工智能領(lǐng)域,主要還是依靠大量的訓(xùn)練數(shù)據(jù)來訓(xùn)練模型,一個(gè)模型的成功與否與其訓(xùn)練的數(shù)據(jù)量息息相關(guān)。那么這勢必會(huì)引出一個(gè)問題:如果有一天,一個(gè)超級模型使用了世界上最大的數(shù)據(jù)集進(jìn)行訓(xùn)練之后,還是不能得到足夠優(yōu)秀的結(jié)果怎么辦?畢竟對于普通人來說,并不需要學(xué)習(xí)世界上的所有知識就可以具有自己的學(xué)習(xí)和判斷能力。
而更進(jìn)一步的講,全部的真實(shí)數(shù)據(jù)訓(xùn)練的數(shù)據(jù)就一定會(huì)比一部分真實(shí)數(shù)據(jù)訓(xùn)練出來的模型更好嗎?考慮到有些真實(shí)數(shù)據(jù)本來就是對于同一個(gè)問題的答案完全相反的。就好像同一個(gè)問題下面,總會(huì)有不同的人進(jìn)行爭論一樣。而這些訓(xùn)練集勢必會(huì)對于神經(jīng)網(wǎng)絡(luò)的訓(xùn)練結(jié)果產(chǎn)生影響。
或許,人工智能的真正突破,還要等待基礎(chǔ)科學(xué)的突破。就好像麥克斯韋方程將人們帶入了無線信號傳輸時(shí)代一樣。在我們朝夕相處的空間中,或許還隱藏著更深的秘密,等待人們?nèi)グl(fā)現(xiàn)。