自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

終于,喬姆斯基出手了:追捧ChatGPT是浪費資源

人工智能 新聞
人類語言語法的基礎(chǔ)不可能是基于統(tǒng)計意義的。

ChatGPT 掀起了科技領(lǐng)域最新的一輪軍備競賽,但留給 AI 領(lǐng)域的議題還有很多:ChatGPT 是一種真正的創(chuàng)新嗎?是否意味著初步的通用人工智能?很多學(xué)者持有不同看法,這種討論隨著新技術(shù)的熱度而愈發(fā)熱烈。

那么語言學(xué)領(lǐng)域的大佬們?nèi)绾慰创?ChatGPT 的進步呢?特別是喬老爺子 —— 語言學(xué)巨頭喬姆斯基。

近日,美國哲學(xué)家、語言學(xué)家、認(rèn)知科學(xué)家諾姆?喬姆斯基、劍橋大學(xué)語言學(xué)教授 Ian Roberts 以及科技公司 Oceanit 人工智能總監(jiān) 、哲學(xué)家 Jeffrey Watumull 在《紐約時報》撰文,對大語言模型的缺陷進行了批判。

圖片

為了追趕 ChatGPT 的步伐,谷歌發(fā)布了 Bard,微軟也推出了 Sydney。喬姆斯基承認(rèn),OpenAI 的 ChatGPT、谷歌的 Bard 和微軟的 Sydney 都是機器學(xué)習(xí)的奇跡。

籠統(tǒng)地說,它們獲取大量數(shù)據(jù),在其中搜索規(guī)律,并越來越熟練地生成統(tǒng)計上可能的輸出 —— 比如看似人性化的語言和思想。

這些程序被譽為通用人工智能地平線上的第一縷曙光 —— 那是一個長期預(yù)言的時刻,屆時機械思維不僅會在處理速度和內(nèi)存大小方面超越人類大腦,而且還會在洞察力、藝術(shù)創(chuàng)造力,以及所有其他獨特的人類能力方面上超越人類。

但喬姆斯基更多的觀點在于批判,特別是對于 ChatGPT 的能力缺陷和道德水準(zhǔn):「今天,我們在人工智能方面所謂的革命性進步確實令人既擔(dān)憂又樂觀。樂觀,是因為智慧是我們解決問題的手段,擔(dān)憂是因為我們擔(dān)心最流行和最時髦的人工智能 —— 機器學(xué)習(xí),將通過將有根本缺陷的語言和知識概念納入我們的技術(shù),而降低我們的科學(xué)水平并拉低我們的道德規(guī)范。」

客觀上,那一天可能終究會到來,但曙光還沒有出現(xiàn),這與夸張的新聞標(biāo)題和不明智的投資所預(yù)料的情況正好相反。

現(xiàn)在,讓我們看看喬姆斯基的文章還說了什么。

ChatGPT 缺乏任何智能的關(guān)鍵能力

阿根廷作家豪爾赫?路易斯?博爾赫斯(Jorge Luis Borges)曾寫道,生活在一個既充滿危險又充滿希望的時代,既是悲劇又是喜劇,在理解我們自己和這個世界時「啟示迫在眉睫」。

「如果像 ChatGPT 這樣的機器學(xué)習(xí)程序繼續(xù)主導(dǎo)人工智能領(lǐng)域,博爾赫斯式的理解啟示沒有且未來也不會發(fā)生?!?/span>

不管這些程序在某些狹窄的領(lǐng)域中多么有用(例如,它們可以在計算機編程中有所幫助,或者在為詩詞押韻建議方面很有幫助),我們從語言學(xué)和知識哲學(xué)中知道它們與人類推理和實用語言的方式有很大的不同。這些差異極大地限制了這些程序的功能,使它們帶有無法根除的缺陷。

正如博爾赫斯可能指出的那樣,如此多的金錢和注意力被集中在這么小的一件事上,這既是喜劇又是悲劇 —— 與人類的思想相比,這是微不足道的,用德國哲學(xué)家威廉?馮?洪堡的話來說,人類的思想是通過語言,可以「無限地使用有限的手段」,創(chuàng)造出具有普遍影響力的思想和理論。

人腦不像 ChatGPT 及其同類產(chǎn)品那樣,是一個笨拙的模式匹配統(tǒng)計引擎,吞噬數(shù)百 TB 的數(shù)據(jù)并推斷出最可能的對話響應(yīng)或最可能的科學(xué)問題答案。相反,人的大腦是一個非常高效甚至優(yōu)雅的系統(tǒng),只需要少量信息即可運作;它不尋求推斷數(shù)據(jù)點之間的直接相關(guān)性,而是尋求解釋。

比如一個正在學(xué)習(xí)一門語言的小孩正在無意識地、自動地、快速地從極小的數(shù)據(jù)中發(fā)展出一種語法,一種由邏輯原則和參數(shù)組成的極其復(fù)雜的系統(tǒng)。這種語法可以理解為先天的、遺傳安裝的「操作系統(tǒng)」的表達,它賦予人類產(chǎn)生復(fù)雜句子和長串思路的能力。 

當(dāng)語言學(xué)家試圖發(fā)展一種理論來解釋為什么給定的語言會這樣工作時(為什么這些 —— 而不是那些句子被認(rèn)為是合乎語法的?),他們正在有意識地、費力地構(gòu)建孩子本能構(gòu)建的語法的明確版本,同時在這個過程中盡可能少地接觸信息。孩子的操作系統(tǒng)與機器學(xué)習(xí)程序的操作系統(tǒng)完全不同。

實際上,ChatGPT 這樣的程序停留在認(rèn)知進化前的人類或非人類階段。它們最深的缺陷是缺乏任何智能的關(guān)鍵能力:不僅可以說出情況是什么、已經(jīng)發(fā)生了什么以及將要發(fā)生什么 —— 這是描述和預(yù)測 —— 而且還可以說出這種情況不是什么,以及可能發(fā)生什么,不應(yīng)發(fā)生什么。這些是解釋的成分,是真正智慧的標(biāo)志。

這里有一個例子:假設(shè)你手里拿著一個蘋果,現(xiàn)在讓蘋果掉下來,你觀察結(jié)果并說:「蘋果掉下來了。」這就是一種描述。預(yù)測的說法則是「如果我張開手,蘋果就會掉下來」。兩者都是有價值的,而且都可能是正確的。

但解釋意味著更多的東西。它不僅包括描述和預(yù)測,還包括反事實的猜想,如 「任何這樣的物體都會掉下來」,再加上附加條款「因為引力」或「因為時空的曲率」或其他,這就是一個因果解釋?!溉绻皇且驗橐ΓO果就不會掉下來」,這就是思維。

機器學(xué)習(xí)的核心是描述和預(yù)測;它沒有提出任何因果機制或物理規(guī)律。當(dāng)然,任何人類式的解釋都不一定正確;我們是易變的。但這也是思考的部分含義:要想正確,必須有可能出錯。智能不僅包括創(chuàng)造性的猜想,也包括創(chuàng)造性的批評。人類式的思考是基于可能的解釋和糾錯,這個過程逐漸限制了可以理性地考慮的可能性。

正如夏洛克?福爾摩斯對華生所說:「當(dāng)你排除了不可能,剩下的任何東西,無論多么不可能,都肯定是真理?!?/span>

但是從設(shè)計上來說,ChatGPT 和類似的程序在它們能夠「學(xué)習(xí)」(也就是記憶)的內(nèi)容方面是沒有限制的;它們沒有能力區(qū)分「可能」和「不可能」。例如,人類被賦予了一種通用的語法,將我們能夠?qū)W習(xí)的語言限制在某種近乎數(shù)學(xué)的優(yōu)雅上,而這些程序則以同樣的方式學(xué)習(xí)人類可能的和不可能的語言。人類在我們可以合理猜測的解釋種類方面受到限制,而機器學(xué)習(xí)系統(tǒng)可以學(xué)習(xí)地球是平的和地球是圓的。它們只是在隨時間變化的概率中進行交易。

由于這個原因,機器學(xué)習(xí)系統(tǒng)的預(yù)測將永遠是膚淺和可疑的。例如,由于這些程序無法解釋英語語法規(guī)則,它們很可能錯誤地預(yù)測「約翰太固執(zhí)了,不愿意和他說話」,其意味著約翰太固執(zhí)了,他不會和某人或其他人說話(而不是說他太固執(zhí)了,不愿意被說教)。為什么機器學(xué)習(xí)程序會預(yù)測出如此奇怪的事情?因為它可能會把它從「約翰吃了一個蘋果」和「約翰吃了」這樣的句子中推斷出來的模式進行類比,后者確實是指約翰吃了什么或其他東西。該程序很可能預(yù)測,因為「約翰太固執(zhí)了,不愿意和比爾說話」與「約翰吃了一個蘋果」相似,所以「約翰太固執(zhí)了,不愿意和他說話」應(yīng)該與「約翰吃了」相似。對語言的正確解釋是復(fù)雜的,并不是僅僅通過在大數(shù)據(jù)中浸泡就能學(xué)會。

反常的是,一些機器學(xué)習(xí)愛好者似乎很自豪,他們的作品可以產(chǎn)生正確的「科學(xué)」預(yù)測(例如關(guān)于物理體的運動),而不使用解釋(例如牛頓的運動定律和普遍引力)。但這種預(yù)測即使成功了也是偽科學(xué)。雖然科學(xué)家們肯定會尋求有高度經(jīng)驗佐證的理論,但正如哲學(xué)家卡爾 - 波普爾所指出的:「我們尋求的不是高度可能的理論而是解釋,也就是強大而高度不可能的理論?!?/span>

蘋果落到地球上是因為那是它們的「自然位置」(亞里士多德的觀點)的理論是可能的,但它只會導(dǎo)致進一步的問題:為什么地球是它們的自然位置?

蘋果落到地上是因為質(zhì)量使時空彎曲的理論(愛因斯坦的觀點)是非常不可能的,但它實際上告訴了你為什么它們會掉下來。

真正的智能表現(xiàn)在思考和表達事物的能力,而不是僅有洞察力。

真正的智能也是能夠進行道德思考的。這意味著要用一套道德原則來約束我們頭腦中本來無限的創(chuàng)造力,確定什么是應(yīng)該的、什么是不應(yīng)該的(當(dāng)然也要讓這些原則本身受到創(chuàng)造性的批評)。為了有用,ChatGPT 必須被授權(quán)產(chǎn)生新穎的輸出;為了被大多數(shù)用戶接受,它必須避免道德上令人反感的內(nèi)容。但 ChatGPT 和其他 ML 奇跡的程序員一直在努力并將繼續(xù)努力實現(xiàn)這種平衡。

例如,2016 年,微軟的 Tay 聊天機器人(ChatGPT 的前身)在互聯(lián)網(wǎng)上充斥著厭惡女性和種族主義的內(nèi)容,因為它被網(wǎng)絡(luò)上的「惡魔」污染了,這些惡魔用訓(xùn)練數(shù)據(jù)填充它。未來如何解決這個問題?由于缺乏從道德原則出發(fā)的推理能力,ChatGPT 被其程序員粗暴地限制了對有爭議的討論做出任何新的貢獻,但這也是重要的 ——ChatGPT 為一種非道德性犧牲了創(chuàng)造力。

看一下我們中的一個人(Watumull 博士)最近與 ChatGPT 的交流:關(guān)于改造火星使其能夠支持人類生命是否符合道德。

圖片

圖片

圖片

圖片

請注意,所有看似復(fù)雜的思想和語言,都是由不夠智能而產(chǎn)生的道德層面的冷漠。在這里,ChatGPT 表現(xiàn)出類似于「邪惡」的平庸:剽竊、冷漠和順從。它以一種超級自動完成的方式總結(jié)了文獻中的標(biāo)準(zhǔn)論點,拒絕在任何事情上采取立場,不僅辯稱無知,而且辯稱缺乏智慧,最終提供了一個「只是服從命令」的借口,將責(zé)任推卸給它的創(chuàng)造者。

簡而言之,ChatGPT 和它的競品們在結(jié)構(gòu)上無法平衡創(chuàng)造力和約束。他們要么過度地生成(既產(chǎn)生真理也產(chǎn)生謬誤,認(rèn)可道德的和不道德的決定),要么生成不足(表現(xiàn)出對任何決定的不承諾和對后果的漠不關(guān)心)。鑒于這些系統(tǒng)的非道德性、假科學(xué)性和語言無能,我們對它的火熱只能哭笑不得。

ChatGPT 真的不值得被歌頌嗎?

喬姆斯基對 ChatGPT 的評論,引起了業(yè)內(nèi)的討論,斯坦福大學(xué)教授、NLP 領(lǐng)域著名學(xué)者克里斯托弗?曼寧表示,他不是在針對 ChatGPT 的某種算法錯誤,而是針對了所有機器學(xué)習(xí)算法,且說法有些夸張了:「這確實是一篇主觀的文章。甚至連粗略的嘗試都沒有,以檢查容易被駁斥的主張?!?/span>

他甚至覺得有點難過:喬姆斯基試圖阻止這些新方法。這里他也推薦語言學(xué)家 Adele Goldberg 對這篇文章的看法。

圖片

DeepMind 研究總監(jiān)及深度學(xué)習(xí)負(fù)責(zé)人 Oriol Vinyals 則選擇站在「實踐者」的一方:「批評很容易,而且會在這些天得到很多關(guān)注。而且我們都知道,注意力是(某些人)所需要的。對那些建設(shè)者來說:你們很了不起!」

圖片

你怎么看呢?

責(zé)任編輯:張燕妮 來源: 機器之心
相關(guān)推薦

2021-01-11 15:04:49

深度學(xué)習(xí)人工智能數(shù)據(jù)

2024-03-14 08:15:18

COUNT(*)數(shù)據(jù)庫LIMIT 1?

2013-07-16 14:14:08

百度移動互聯(lián)網(wǎng)91

2009-07-07 09:51:38

過剩資源

2018-07-03 09:25:04

閑置云資源資金

2020-10-11 21:57:06

Windows 功能系統(tǒng)

2019-05-22 17:55:36

瀏覽器 Chrome Google

2021-09-28 08:31:22

Flex:1 CSSflex屬性

2012-07-05 09:14:55

2023-03-03 07:34:05

2009-03-22 21:08:47

多核雙核多核電腦

2023-11-03 18:00:18

2021-06-04 07:13:43

Logger TRACEDEBUG

2022-08-08 20:23:14

一網(wǎng)統(tǒng)管企業(yè)協(xié)商

2023-10-31 07:40:15

EslintJSHint

2024-07-08 00:00:07

2024-06-07 07:56:35

2014-01-23 19:31:54

聯(lián)想收購IBM低端服務(wù)器

2021-09-16 12:10:24

物聯(lián)網(wǎng)互聯(lián)網(wǎng)應(yīng)用

2020-09-20 17:50:24

大數(shù)據(jù)IT互聯(lián)網(wǎng)
點贊
收藏

51CTO技術(shù)棧公眾號