自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

為什么AI教父Hinton會恐懼自己親手創(chuàng)造的人工智能?

人工智能 新聞
為什么AI教父Geoffrey Hinton在自己退休之時(shí),警告人類,自己為人類開啟的AI之門,會通向人類無法控制的未來

Geoffrey Hinton一生都在教計(jì)算機(jī)學(xué)習(xí)?,F(xiàn)在他擔(dān)心人造大腦會控制人類的未來。

紐約客記者面對面深度采訪了Hinton,從他人生經(jīng)歷展開,向大眾解釋了為什么,人工智能之父,會在自己的晚年,要疾呼:AI如果不加以控制將可能毀滅人類。

圖片

「人工智能如果能獲得更多控制權(quán),會有利于他實(shí)現(xiàn)幾乎一切目標(biāo)」Hinton 談到人工智能的未來時(shí)說道,「研究問題是:如何防止它們想要控制一切?現(xiàn)在沒有人知道答案。」

在你的大腦中,神經(jīng)元排列成大大小小的網(wǎng)絡(luò)。隨著你的每一個(gè)動作、每一個(gè)想法,這些網(wǎng)絡(luò)都在發(fā)生變化:神經(jīng)元被納入或排除,它們之間的聯(lián)系在不斷加強(qiáng)或者減弱。

圖片

這個(gè)過程無時(shí)無刻不在進(jìn)行——就在你讀這些文字的時(shí)候,它也在發(fā)生——其規(guī)模之大超乎想象。

人類有大約800億個(gè)神經(jīng)元,共享1萬億個(gè)連接。人類的頭骨中包含了一個(gè)星系的星球,它們一直在變化。

Geoffrey Hinton,這位常被稱為「人工智能教父」的計(jì)算機(jī)科學(xué)家,遞給我一根手杖。

他說:「你需要一根這個(gè)。然后,他沿著一條穿過樹林的小路向岸邊走去。小路蜿蜒穿過一片綠樹成蔭的空地,經(jīng)過一對棚屋,然后沿著石階下到一個(gè)小碼頭?!高@里很滑,」Hinton在我們開始下坡時(shí)提醒道。

新知識會以微調(diào)的形式融入你的現(xiàn)有網(wǎng)絡(luò)。有時(shí)它們只是暫時(shí)的:如果你在聚會上遇到一個(gè)陌生人,他的名字可能只會在你記憶的網(wǎng)絡(luò)中留下短暫的印象。

但它們也可能持續(xù)一生,比如說,如果這個(gè)陌生人成為了你的配偶。

因?yàn)樾轮R與舊知識相融合,你所知道的知識會影響你所學(xué)到的。

如果派對上有人告訴你他的阿姆斯特丹之行,第二天,在博物館里,你的網(wǎng)絡(luò)可能會讓你容易記住Vermeer(荷蘭著名畫家)。這樣,微小的變化就有可能帶來深刻的轉(zhuǎn)變。

Hinton說:「我們在這里舉行了篝火晚會?!刮覀冋驹谝粔K突出安大略喬治亞灣的巖石臺階上,喬治亞灣一直向西延伸到休倫湖。水面上島嶼星羅棋布。

2013 年,六十五歲的Hinton將一家三人初創(chuàng)公司以四千四百萬美元的價(jià)格賣給谷歌,然后買下了這座島嶼。

在此之前,他在多倫多大學(xué)(University of Toronto)擔(dān)任了三十年的計(jì)算機(jī)科學(xué)教授,是神經(jīng)網(wǎng)絡(luò)這個(gè)并不被外界看好的子領(lǐng)域的領(lǐng)軍人物。

「成績非常一般,因此大多數(shù)研究人員覺得這個(gè)技術(shù)方向基本上是在浪費(fèi)時(shí)間」

Hinton回憶說:「我們的神經(jīng)網(wǎng)絡(luò)的能力還不如一個(gè)小孩?!?/span>

十九世紀(jì)八十年代,當(dāng)他看到《終結(jié)者》時(shí),電影中毀滅世界的人工智能 「天網(wǎng) 」是一個(gè)神經(jīng)網(wǎng)絡(luò)并沒有出乎他的意料。他很高興看到這項(xiàng)技術(shù)被導(dǎo)演如此看好。

從著火的小凹陷處,石頭上因高溫而產(chǎn)生的裂縫向外輻射。Hinton身材高大、苗條,是個(gè)英國人。他用棍子戳了戳那個(gè)地方。

作為一個(gè)典型的科學(xué)家,他總是對物理世界中發(fā)生的事情發(fā)表評論:動物的生活、海灣中的水流、島嶼的地質(zhì)。

「我在木頭下面放了一個(gè)鋼筋網(wǎng),這樣空氣就能進(jìn)來,溫度高到金屬都變軟了,」他用一種奇怪的語氣說?!高@才是真正的火,值得驕傲!」

數(shù)十年來,Hinton不斷想辦法,以巧妙的方式構(gòu)建更大的神經(jīng)網(wǎng)絡(luò)。

他設(shè)計(jì)出新的方法來訓(xùn)練神經(jīng)網(wǎng)絡(luò),不斷提升性能。

他招募研究生,讓他們相信神經(jīng)網(wǎng)絡(luò)并不是一個(gè)沒有前途的方向。他認(rèn)為自己參與的項(xiàng)目可能會在一個(gè)世紀(jì)后——在他死后取得成果。

與此同時(shí),他中年就兩次喪偶,獨(dú)自撫養(yǎng)兩個(gè)年幼的孩子。在一個(gè)特別困難的時(shí)期,家庭生活和研究的壓力壓得他喘不過氣來,他認(rèn)為自己已經(jīng)盡了全力。

他說:「我在 46 歲的時(shí)候就死心了。」他沒有預(yù)料到,大約十年前,神經(jīng)網(wǎng)絡(luò)技術(shù)會突然飛速進(jìn)步。

計(jì)算機(jī)的速度越來越快,神經(jīng)網(wǎng)絡(luò)利用互聯(lián)網(wǎng)上的數(shù)據(jù),開始轉(zhuǎn)錄語音、玩游戲、翻譯語言,甚至駕駛汽車。

就在Hinton的公司被收購的同時(shí),人工智能開始蓬勃發(fā)展,OpenAI的ChatGPT 和谷歌的Bard等系統(tǒng)應(yīng)運(yùn)而生,許多人認(rèn)為它們正在以不可預(yù)知的方式改變世界。

Hinton沿著海岸出發(fā)了,我跟在后面,腳下的碎石在晃動。他說:「現(xiàn)在看這個(gè)。他站在一塊人頭大小的巨石前,擋住了我們的去路?!?/span>

「這樣你就能過去了,你把棍子扔過去」—— 他把自己的棍子扔到巨石的另一邊——「然后這里和這里有支點(diǎn),這里還有一個(gè)手扶點(diǎn)」。我看著他輕車熟路地爬過去,然后,我自己也試探性地邁出了同樣的步伐。

Hinton與神經(jīng)網(wǎng)絡(luò)結(jié)緣

每當(dāng)我們學(xué)習(xí)時(shí),我們的神經(jīng)元網(wǎng)絡(luò)就會發(fā)生變化,但究竟是如何變化的呢?

像Hinton這樣的研究人員與計(jì)算機(jī)合作,試圖發(fā)現(xiàn)神經(jīng)網(wǎng)絡(luò)的 「學(xué)習(xí)算法」,這是一個(gè)通過改變?nèi)斯ど窠?jīng)元之間連接的統(tǒng)計(jì) 「權(quán)重 」來吸收新知識的程序。

1949年,心理學(xué)家Donald Hebb就人們?nèi)绾螌W(xué)習(xí)提出了一個(gè)簡單的規(guī)則,通常被概括為 「同時(shí)激活的神經(jīng)元將會連接在一起」。

大腦中的一組神經(jīng)元一旦同步激活,就更有可能再次激活。這有助于解釋為什么人類第二次做某事會感覺容易得多。

但很快人們就發(fā)現(xiàn),計(jì)算機(jī)化的神經(jīng)網(wǎng)絡(luò)需要另一種方法來解決復(fù)雜的問題。

十九世紀(jì)六七十年代,作為一名年輕的研究人員,Hinton在筆記本上繪制了神經(jīng)元網(wǎng)絡(luò),并想象著新知識到達(dá)它們的邊界。

由幾百個(gè)人工神經(jīng)元組成的網(wǎng)絡(luò)如何存儲一個(gè)概念?如果這個(gè)概念有缺陷,它又該如何修正呢?

我們走過海岸,來到Hinton的小屋,這是島上唯一的一間小屋。

小屋用玻璃封閉,高蹺矗立在寬闊黝黑的巖石階梯之上。有一次,我們來到這里,一條巨大的水蛇把頭伸了過來。這是一段美好的回憶。

他的父親是一位著名的昆蟲學(xué)家,他的父親向他灌輸了對冷血?jiǎng)游锏南矏邸?/span>

小時(shí)候,他和父親在車庫里養(yǎng)了很多毒蛇、烏龜、青蛙、蟾蜍和蜥蜴。如今,當(dāng)Hinton在島上時(shí)--他經(jīng)常在溫暖的月份去島上--他有時(shí)會找到蛇并把它們帶到家里,這樣他就可以在一個(gè)飼養(yǎng)箱里觀察它們。

他一生都在自下而上地思考問題,因此善于觀察非人類的思維。

今年早些時(shí)候,Hinton離開了谷歌。他擔(dān)心人工智能可能對人類造成危害,并開始在接受采訪時(shí)談?wù)撨@項(xiàng)技術(shù)可能對人類構(gòu)成的 「生存威脅」。

他越是使用ChatGPT——一個(gè)在大量人類寫作語料庫中訓(xùn)練出來的人工智能系統(tǒng)——就越是感到不安。

有一天,??怂剐侣劦娜藢懶沤o他,要求就人工智能問題進(jìn)行采訪。Hinton喜歡用電子郵件發(fā)送尖刻的單句回復(fù)——在收到一封來自加拿大情報(bào)機(jī)構(gòu)的長信后,他回復(fù)道:「斯諾登是我的英雄」。

最后,他回復(fù)道:「Fox News is an oxy moron.」。然后,他靈機(jī)一動,問 ChatGPT 能否解釋他的笑話。

系統(tǒng)告訴他,他的句子暗示??怂剐侣勈羌傩侣?,當(dāng)他提示「moron 」前有個(gè)空格時(shí),系統(tǒng)解釋說福克斯新聞會讓人上癮,就像藥物「OxyContin」一樣。

Hinton大吃一驚。這種理解水平似乎代表了人工智能的一個(gè)新時(shí)代。

我們有很多理由擔(dān)心人工智能的不斷發(fā)展。例如,擔(dān)心人類工作被計(jì)算機(jī)取代就是一個(gè)很正常的事情。

圖片

但是,Hinton與包括OpenAI首席執(zhí)行官Sam Altman在內(nèi)的許多著名技術(shù)專家一起警告外界,人工智能系統(tǒng)可能會開始獨(dú)立思考,甚至試圖取代或消滅人類文明。

人工智能最杰出的研究人員之一竟然說出了如此令人震驚的觀點(diǎn)。

人類智能,到底能孕育出什么

他站在自家廚房里對我說:「很多人說,LLM就是一個(gè)很高級的自動完成功能」。

他一生中大部分時(shí)間都在忍受背痛的折磨,最終嚴(yán)重到他完全沒辦法坐著。自2005年以來,他從來沒有坐著超過1個(gè)小時(shí)。

「現(xiàn)在,讓我們來分析一下。假設(shè)你想成為預(yù)測下一個(gè)單詞的高手。如果你想成為真正的高手,就必須理解別人在說什么?!?/span>

「這是唯一的辦法。因此,通過訓(xùn)練讓某個(gè)東西真正擅長預(yù)測下一個(gè)單詞,實(shí)際上就是強(qiáng)迫它去理解。是的,這是確實(shí)只是「自動補(bǔ)全」--但你并沒有想清楚擁有一個(gè)真正好的「自動補(bǔ)全」意味著什么」。

Hinton認(rèn)為,大型語言模型,例如OpenAI聊天機(jī)器人背后的GPT技術(shù),是可以理解單詞和想法的含義的。

那些認(rèn)為我們高估了人工智能能力的懷疑論者指出,人類思維與神經(jīng)網(wǎng)絡(luò)之間存在著巨大的差異。

首先,神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)方式與我們不同:我們是有組織地獲取知識,通過經(jīng)歷和把握這些經(jīng)歷與現(xiàn)實(shí)和自身的關(guān)系。

而神經(jīng)網(wǎng)絡(luò)則是抽象地學(xué)習(xí),通過處理有關(guān)它們并不真正居住的世界的龐大信息庫。

但Hinton認(rèn)為,人工智能系統(tǒng)所展示的智能超越了其人工起源。

他告訴我:「當(dāng)你吃東西時(shí),你把食物吃進(jìn)去,然后把它分解成微小的各個(gè)部分。所以你可以說,我身體里的各個(gè)部分都是由其他動物的各個(gè)部分組成的。但這是不可能的。」

他認(rèn)為,通過分析人類的書寫,像GPT這樣的大型語言模型可以了解世界是如何運(yùn)作的,從而產(chǎn)生一個(gè)能夠思考的系統(tǒng)。

而書寫只是這個(gè)系統(tǒng)所能做的一部分。他接著說:「這就好比毛毛蟲如何變成蝴蝶。毛毛蟲變成蛹,然后從蛹里破繭成蝶」。

他開始在廚房外的一個(gè)小柜子里翻找起來?!赴」?!」他說。他興致勃勃地把一個(gè)東西放在柜臺上——一只死蜻蜓。

它保存得非常完好。他解釋說:「這是我在碼頭發(fā)現(xiàn)的。它剛在石頭上孵化出來,正在晾干翅膀,所以我把它捉住了??纯聪旅??!?/span>

Hinton捕捉到的這只蜻蜓剛從幼蟲形態(tài)中蛻變出來。這只幼蟲長相迥異,有自己的眼睛和腿。它的背部有一個(gè)洞,蜻蜓就是從這個(gè)洞里爬出來的。

「蜻蜓的幼蟲是生活在水下的怪物,」Hinton說?!妇拖耠娪啊懂愋巍分幸粯?,蜻蜓從怪物的背部爬出。幼蟲在這個(gè)階段變成了液體,然后蜻蜓從液體中誕生了?!?/span>

在他的比喻中,幼蟲代表了用于訓(xùn)練現(xiàn)代神經(jīng)網(wǎng)絡(luò)的數(shù)據(jù),蜻蜓則代表了由此產(chǎn)生的人工智能。

深度學(xué)習(xí)——Hinton開創(chuàng)的技術(shù)——導(dǎo)致了這種蛻變。

我彎下腰,想看得更清楚一些。Hinton站得筆直,他幾乎總是這樣,小心翼翼地保持著姿勢。

「非常漂亮,」他輕聲說?!改忝靼琢税?。一開始是一個(gè)東西,現(xiàn)在卻變成了另一個(gè)完全不一樣的東西?!?/span>

幾周前,當(dāng)Hinton邀請我參觀他的小島時(shí),我曾想象過可能出現(xiàn)的情況。也許他是一個(gè)想要獨(dú)處的內(nèi)向者,或者是一個(gè)有著上帝情結(jié)和未來主義情結(jié)的科技霸主。

在我抵達(dá)的前幾天,他通過電子郵件發(fā)送了一張他拍攝的照片,照片上一條響尾蛇盤踞在島上的草叢中。我不知道自己是感到高興還是害怕。

事實(shí)上,就私人島嶼而言,Hinton的島嶼并不算大,總共只有兩英畝。

Hinton本人與硅谷的技術(shù)大亨截然相反?,F(xiàn)年七十五歲的他有著Joshua Reynolds畫作中的英倫面孔,白發(fā)襯托著寬闊的前額。他的藍(lán)眼睛通常很穩(wěn)重,只留下嘴巴來表達(dá)情感。

他是一個(gè)善于侃侃而談的人,喜歡談?wù)撟约骸?/span>

但是他告訴作者,他并不是一個(gè)自負(fù)的人,他的生活一直籠罩在悲痛之中。

「我也許應(yīng)該告訴你我的妻子們的事情,」我們第一次交談時(shí)他說?!肝矣羞^三次婚姻。一次友好結(jié)束,另外兩次悲劇收場」。

他與早年結(jié)婚的第一任妻子Joanne仍然保持著友好關(guān)系,但他的第二任和第三任妻子Rosalind和Jackie都分別于1994年和2018年死于癌癥。

在過去的四年里,Hinton一直和退休社會學(xué)家Rosemary Gartner在一起。

她溫柔地告訴我:「我覺得Hinton是那種總是需要伴侶的人。他是一個(gè)浪漫的理性主義者,對科學(xué)和情感有著平衡的感性認(rèn)識。

他把蜻蜓放好,然后走到一張小書桌前,那里擺放著一臺筆記本電腦,旁邊是一堆數(shù)獨(dú)謎題和一本筆記本。。他問道:「我們來畫畫我的家譜吧?」他用兩根手指輸入了 「Geoffrey Hinton家譜」,然后按了回車鍵。

Hinton的家譜

2013 年,谷歌收購了Hinton的初創(chuàng)公司,部分原因是該團(tuán)隊(duì)發(fā)現(xiàn)了如何利用神經(jīng)網(wǎng)絡(luò)大幅提高圖像識別能力。現(xiàn)在,屏幕上出現(xiàn)了無窮無盡的家譜。

Hinton出身于一個(gè)特殊的英國科學(xué)世家:政治上激進(jìn),富有創(chuàng)造力。

在他的家譜中,他的叔祖父Sebastian Hinton是叢林健身器的發(fā)明者,他的堂姐Joan Hinton是參與曼哈頓計(jì)劃的物理學(xué)家。

在他上一輩,還有Lucy Everest,她是第一位當(dāng)選為英國皇家化學(xué)研究所成員的女性。

Charles Howard Hinton,是一位數(shù)學(xué)家,創(chuàng)造了魔方的概念,魔方是通往四維空間的大門(電影《星際穿越》中出現(xiàn)了一個(gè)魔方)。

James Hinton,他是一位開創(chuàng)性的耳外科醫(yī)生。19 世紀(jì)中葉,希頓的曾曾祖父、英國數(shù)學(xué)家George Boole發(fā)明了二進(jìn)制推理系統(tǒng),即現(xiàn)在的布爾代數(shù),它是所有計(jì)算的基礎(chǔ)。

Boole的妻子Mary Everest是一位數(shù)學(xué)家和作家,也是George Everes的侄女。

「Hinton生來就是搞科學(xué)的料,」Hinton以前的學(xué)生和合作者、現(xiàn)在 Meta 公司負(fù)責(zé)人工智能的Yann LeCun告訴我。

然而,Hinton的家庭比這更奇怪。他的父親Howard Everest Hinton于19世紀(jì)10年代墨西哥革命期間在墨西哥長大,在他父親管理的銀礦上工作。

「他是個(gè)狠人」Hinton這樣評價(jià)他的父親。

圖片

家族傳說說,12歲時(shí),Howard Everest Hinton曾威脅要射殺他的拳擊教練,因?yàn)樗慕叹毺珖?yán)厲了,教練把他的話當(dāng)真了,就逃離了小鎮(zhèn)。

Howard的母語是西班牙語,在伯克利上大學(xué)時(shí),他的口音曾被人嘲笑?!杆鸵蝗和瑯邮艿狡缫暤姆坡少e人混在一起,成為了伯克利的激進(jìn)分子。

在學(xué)校,Hinton喜歡自然科學(xué)。但是,出于意識形態(tài)的原因,他的父親禁止他學(xué)習(xí)生物學(xué)。

在布里斯托爾大學(xué)任教的Howard是昆蟲學(xué)家中的印第安納-瓊斯:他把世界各地的珍稀生物裝在行李中偷運(yùn)回英國,并編輯了一份該領(lǐng)域的重要期刊。

Hinton的中間名也是Everest,所以他感受到了巨大的壓力,必須做出自己的成績。

他記得父親曾對他說:「如果你比我努力一倍,當(dāng)你比我大一倍時(shí),你可能會有我一半優(yōu)秀?!?/span>

在劍橋大學(xué),Hinton嘗試了不同的領(lǐng)域,但他沮喪地發(fā)現(xiàn)自己從來都不是班上最聰明的學(xué)生。

他曾短暫地離開大學(xué),「閱讀令人沮喪的小說」,并在倫敦打零工,然后又回來嘗試建筑學(xué),但只做了一天。

最后,他涉獵了物理、化學(xué)、生理學(xué)和哲學(xué),尋找重點(diǎn),最終選擇了實(shí)驗(yàn)心理學(xué)學(xué)位。

他在道德哲學(xué)家Bernard Williams的辦公室里 「出沒」,發(fā)現(xiàn)他對計(jì)算機(jī)和心靈很感興趣。

有一天,Williams指出,我們不同的思想一定反映了我們大腦中不同的物理設(shè)定。這與計(jì)算機(jī)中的情況完全不同,在計(jì)算機(jī)中,軟件獨(dú)立于硬件。

Hinton被這一觀察所震撼;他記得在高中時(shí),一位朋友曾告訴他,記憶可能是以 「全息 」的方式存儲在大腦中的——也就是說,記憶是分散的,但可以通過任何一個(gè)部分訪問整體。

他所遇到的是 「連接主義」—— 一種結(jié)合神經(jīng)科學(xué)、數(shù)學(xué)、哲學(xué)和編程的方法,旨在探索神經(jīng)元如何共同 「思考」。

「聯(lián)結(jié)主義」的一個(gè)目標(biāo)是在計(jì)算機(jī)中創(chuàng)建一個(gè)類似大腦的系統(tǒng)。

這方面已經(jīng)取得了一些進(jìn)展:1950 年代,心理學(xué)家、聯(lián)結(jié)主義先驅(qū)Frank Rosenblatt制造了一臺機(jī)器,名為 「感知器(Perceptron)」,它使用簡單的計(jì)算機(jī)硬件模擬了一個(gè)由數(shù)百個(gè)神經(jīng)元組成的網(wǎng)絡(luò)。

當(dāng)連接到光線傳感器時(shí),該儀器可以通過跟蹤不同光線模式激活了哪些人工神經(jīng)元來識別字母和形狀。

在小屋里,Hinton站著來回踱步,在廚房柜臺后面來回走動,并在一樓轉(zhuǎn)了一圈。

他做了一些吐司,給我們每人拿了一個(gè)蘋果,然后用階梯凳為自己支起了一張小桌子。

家庭的壓力讓他無法滿足暫時(shí)的需求?!肝乙恢焙芟矚g木工活,」我們吃飯時(shí),他俏皮地回憶道?!冈趯W(xué)校,我晚上自己會去做木工。我經(jīng)常在想,如果我是一名建筑師,是否會更快樂,因?yàn)槲也槐貜?qiáng)迫自己去做。

而對于科學(xué),我總是不得不強(qiáng)迫自己。因?yàn)榧彝サ脑?,我必須成功,我必須找到一條路。這其中有快樂,但更多的是焦慮?,F(xiàn)在我成功了,這讓我感到無比欣慰?!?/span>

Hinton的筆記本電腦叮當(dāng)作響。自從他離開谷歌后,他的收件箱里就不斷收到關(guān)于人工智能的評論請求。他走過去看了看郵件,然后又迷失在家族樹的森林里,所有這些樹似乎都有這樣或那樣的問題。

他說:「看看這個(gè)?!?/span>

我走過去看了看屏幕。這是一棵 「學(xué)術(shù)家譜」,亨廷頓在最上面,下面排列著他的學(xué)生和他們的學(xué)生。

這棵樹太大了,他必須橫向滾動才能看到他的影響范圍?!概叮炷?,」Hinton說?!杆鋵?shí)不是我的學(xué)生。"」他進(jìn)一步滾動?!杆湃A橫溢,卻不善于當(dāng)顧問,因?yàn)樗约嚎偰茏龅酶??!?/span>

Hinton是一位精心培育人才的人,他似乎很享受被學(xué)生超越的感覺:在評估求職者時(shí),他經(jīng)常問他們的顧問:「他們比你強(qiáng)嗎?」

回憶起1977年去世的父親,Hinton說:「他非常好勝。我經(jīng)常在想,如果他能在我身邊看到我取得成功,他會不會很高興。因?yàn)楝F(xiàn)在我比他更成功?!?/span>

根據(jù)谷歌學(xué)術(shù)的數(shù)據(jù),Hinton現(xiàn)在是心理學(xué)家中被引用次數(shù)第二多的研究者,也是計(jì)算機(jī)和認(rèn)知科學(xué)家中被引用次數(shù)最多的研究者。

如果說他在劍橋大學(xué)的起步是緩慢而古怪的,那么部分原因是他在一個(gè)新興領(lǐng)域探索。

他合上筆記本電腦,說道:「神經(jīng)網(wǎng)絡(luò)——當(dāng)時(shí)在好大學(xué)里做這個(gè)的人很少。在麻省理工學(xué)院做不了,在伯克利做不了,斯坦福也不行?!?/span>

所以Hinton作為一個(gè)新興技術(shù)的開創(chuàng)者也給他帶來了優(yōu)勢。多年來,許多最優(yōu)秀的人才都來找他。

「天氣不錯(cuò),」希頓第二天早上說 「我們應(yīng)該去砍棵樹?!?他穿著一件正裝襯衫,看起來不太像伐木工人。

不過,他還是搓了搓手。在島上,他總是在砍樹,以創(chuàng)造更有序、更美麗的場景。

幾乎每個(gè)房間都有需要改的地方,在我參觀的時(shí)候,Hinton已經(jīng)在這些地方上上附上了小紙條,來提醒新的工人,而且經(jīng)常就直接寫在建筑材料上。

在一樓的浴室里,靠墻的一塊底板上寫著:「浴室應(yīng)使用這種底板(僅限淋浴前的楓木裝飾)」。在客房的壁櫥里,遮蔽膠帶沿著架子延伸: 「不要給架子打底,給架子支撐打底」。

給事物貼標(biāo)簽對人的思維很有幫助,可以幫助他們把握現(xiàn)實(shí)。

但人工智能這么做意味著什么呢?當(dāng)Hinton在愛丁堡大學(xué)獲得人工智能博士學(xué)位時(shí),他想到了如何在計(jì)算機(jī)中模擬大腦中的 「認(rèn)知」。當(dāng)時(shí),也就是 1970 年代,絕大多數(shù)人工智能研究人員都是 「符號主義者」。

在他們看來,對番茄醬的認(rèn)識可能涉及許多概念,如 「食物」、「醬汁」、「調(diào)味品」、「甜味」、「鮮味」、「紅色」、「西紅柿」、「美國人」、「炸薯?xiàng)l」、「蛋黃醬 」和 「芥末」;這些概念合在一起,就形成了一個(gè)腳手架,「番茄醬 」這樣一個(gè)新概念就可能被掛在上面。

一個(gè)資金雄厚的大型人工智能項(xiàng)目名為 「Cyc」,其核心是建立一個(gè)龐大的知識庫,科學(xué)家們可以使用一種特殊的語言將概念、事實(shí)、規(guī)則以及不可避免的例外情況輸入其中。(鳥會飛,但企鵝、翅膀受損的鳥或......)。

但是,Hinton對這種方法表示懷疑。這種方法似乎過于僵化,過于專注于哲學(xué)家和語言學(xué)家所擁有的推理能力。

他知道,在自然界中,許多動物在沒有獲得可以用語言表達(dá)的概念的情況下也能做出聰明的行為。它們只是通過經(jīng)驗(yàn)學(xué)會了如何變得聰明。

學(xué)習(xí),而不是知識,才是智慧的動力。

人類的復(fù)雜思維似乎往往是通過符號和文字進(jìn)行的。但是,Hinton和他的合作者James L. McClelland以及David Rumelhart認(rèn)為,很多行為都發(fā)生在次概念層面。

他們寫道,請注意,「如果你了解了關(guān)于某個(gè)物體的新事實(shí),你對其他類似物體的預(yù)期往往會發(fā)生變化」:例如,如果你被告知黑猩猩喜歡洋蔥,你可能會猜測大猩猩也喜歡洋蔥。

如何感受到神經(jīng)網(wǎng)絡(luò)的魅力

1986年,Hinton、Rumelhart和Williams在《自然》雜志上發(fā)表了一篇三頁的論文,展示了這樣一個(gè)系統(tǒng)如何在神經(jīng)網(wǎng)絡(luò)中工作。

圖片

他們指出,像玻爾茲曼機(jī)一樣,反向傳播并不是「大腦學(xué)習(xí)的合理模型」。與計(jì)算機(jī)不同,大腦無法倒帶以審核其過去的表現(xiàn)。但反向傳播仍然實(shí)現(xiàn)了類似大腦的神經(jīng)特化。

在真正的大腦中,神經(jīng)元有時(shí)被排列成旨在解決特定問題的結(jié)構(gòu)。例如,在視覺系統(tǒng)中,不同的神經(jīng)元「列」識別我們所看到的邊緣。

因此,負(fù)責(zé)破譯筆跡的網(wǎng)絡(luò)的某些層可能會緊緊地集中在識別線條、曲線或邊緣上。最終,整個(gè)系統(tǒng)可以發(fā)展出「適當(dāng)?shù)膬?nèi)部表示」。

在十九世紀(jì)五十年代和六十年代,感知器和聯(lián)結(jié)主義曾短暫興起,又漸漸衰落。反向傳播作為其中的一部分,也獲得了廣泛的關(guān)注。

但是,受限于當(dāng)時(shí)的硬件能力,構(gòu)建反向傳播網(wǎng)絡(luò)的實(shí)際工作進(jìn)展緩慢。「進(jìn)步的速度基本上是,計(jì)算機(jī)能在一夜之間學(xué)到多少東西?」Hinton回憶道。

從概念上講,神經(jīng)網(wǎng)絡(luò)是神秘的。不可能以傳統(tǒng)方式編程。你不能進(jìn)去編輯人工神經(jīng)元之間連接的權(quán)重。而且,很難理解這些權(quán)重意味著什么,因?yàn)樗麄円呀?jīng)通過訓(xùn)練適應(yīng)和改變了自己。

學(xué)習(xí)過程有很多種方式可能會出錯(cuò)。例如,在「過度擬合」中,網(wǎng)絡(luò)有效地記住了訓(xùn)練數(shù)據(jù),而不是從中學(xué)習(xí)泛化。避免各種陷阱并不總是那么簡單。

新的神經(jīng)網(wǎng)絡(luò)架構(gòu)被開發(fā)出來:「循環(huán)」和「卷積」網(wǎng)絡(luò)允許系統(tǒng)通過以不同的方式構(gòu)建自己的工作來取得進(jìn)展。但就好像研究人員發(fā)現(xiàn)了一種他們不知道如何使用的外星技術(shù)。

「我一直相信這不是胡說八道,這不是信仰——對我來說只是完全顯而易見的事實(shí)」,Hinton說。大腦使用神經(jīng)元來學(xué)習(xí),因此,通過神經(jīng)網(wǎng)絡(luò)進(jìn)行復(fù)雜的學(xué)習(xí)必須成為可能。

當(dāng)網(wǎng)絡(luò)通過反向傳播進(jìn)行訓(xùn)練時(shí),需要告訴他們什么時(shí)候錯(cuò)了,錯(cuò)了多少,這需要大量準(zhǔn)確標(biāo)記的數(shù)據(jù)。這將使網(wǎng)絡(luò)能夠看到手寫的「7」和「1」之間的區(qū)別,或者金毛獵犬和紅色二傳手之間的區(qū)別。

但是很難找到足夠大的標(biāo)記良好的數(shù)據(jù)集,而且構(gòu)建數(shù)據(jù)集是一項(xiàng)艱巨的任務(wù)。LeCun和他的合作者開發(fā)了一個(gè)巨大的手寫數(shù)字?jǐn)?shù)據(jù)庫,后來他們用它來訓(xùn)練一個(gè)網(wǎng)絡(luò),可以讀取美國郵政服務(wù)提供的樣本郵政編碼。

斯坦福大學(xué)的李飛飛教授率先開展了一項(xiàng)名為ImageNet的巨大研究。創(chuàng)建它需要收集超過 1400 萬張圖像,并手動將它們分類為兩萬個(gè)類別。

隨著神經(jīng)網(wǎng)絡(luò)變得越來越大,Hinton設(shè)計(jì)了一種將知識從大型網(wǎng)絡(luò)獲取到可以在手機(jī)等設(shè)備上運(yùn)行的較小網(wǎng)絡(luò)的方法——蒸餾。

在蒸餾學(xué)習(xí)中,一個(gè)神經(jīng)網(wǎng)絡(luò)不僅為另一個(gè)神經(jīng)網(wǎng)絡(luò)提供正確的答案,還為另一個(gè)神經(jīng)網(wǎng)絡(luò)提供一系列可能的答案及其概率。這是一種更豐富的知識。

Hinton并不愛反向傳播網(wǎng)絡(luò),因?yàn)檫@一切都是確定性的。不過,隨著計(jì)算機(jī)性能的進(jìn)步,反向傳播的力量變得不可否認(rèn)。

Hinton在腦海中做了一個(gè)計(jì)算。假設(shè)在1985年,他開始在一臺快速研究計(jì)算機(jī)上運(yùn)行一個(gè)程序,并一直運(yùn)行到現(xiàn)在。如果他今天開始在目前人工智能使用的最快系統(tǒng)上運(yùn)行相同的程序,那么只需不到一秒鐘的時(shí)間就可以趕上。

在2000年左右,隨著配備強(qiáng)大計(jì)算機(jī)的多層神經(jīng)網(wǎng)絡(luò)開始在更大的數(shù)據(jù)集上進(jìn)行訓(xùn)練,Hinton、Bengio 和 LeCun 開始談?wù)摗干疃葘W(xué)習(xí)」的潛力。

這項(xiàng)工作在2012年跨過了一個(gè)門檻,當(dāng)時(shí)Hinton,Alex Krizhevsky和Ilya Sutskever推出了AlexNet,這是一個(gè)八層神經(jīng)網(wǎng)絡(luò),最終能夠以人類水平的精度識別ImageNet中的對象。

2017年6月,Hinton、Bengio和LeCun獲得了圖靈獎(jiǎng),相當(dāng)于計(jì)算機(jī)科學(xué)領(lǐng)域的諾貝爾獎(jiǎng)。

Hinton相信,在某種意義上,神經(jīng)網(wǎng)絡(luò)能夠產(chǎn)生感覺。他認(rèn)為感覺是關(guān)于什么會導(dǎo)致行動的反事實(shí)陳述。

Hinton告訴我,他在1973年看到了一個(gè)「沮喪的人工智能」。一臺計(jì)算機(jī)連接到兩個(gè)電視攝像機(jī)和一個(gè)簡單的機(jī)械臂上,該系統(tǒng)的任務(wù)是將一些積木組裝成玩具車的形式。

Hinton說,「這很難,尤其是在1973年,如果這些積木都是分開的,視覺系統(tǒng)可以識別它們,但如果你把它們放在一小堆里,就無法識別。」

計(jì)算機(jī)無法處理這個(gè)問題,所以砰的一聲,把它們攤在桌子上。如果一個(gè)人這樣做了,你會說他很沮喪。這就像是想要你無法擁有的東西。

Hinton說,「每個(gè)人對人工智能的第一反應(yīng)是,我們必須阻止這種情況。就像每個(gè)人對癌癥的第一反應(yīng)是,我們該如何切除它?但重要的是要認(rèn)識到,當(dāng)剪掉它只是一個(gè)幻想時(shí)?!?/span>

他嘆了口氣,「我們不能否認(rèn),我們需要思考,我們?nèi)绾巫屗鼘θ祟悂碚f不像它可能的那樣可怕?」

人工智能會變得多么有用或危險(xiǎn)?沒有人確切知道,部分原因是神經(jīng)網(wǎng)絡(luò)太奇怪了。

在二十世紀(jì),許多研究人員想要制造模仿大腦的計(jì)算機(jī)。但是,盡管像OpenAI 的GPT模型這樣的神經(jīng)網(wǎng)絡(luò)是類腦的,因?yàn)樗鼈兩婕皵?shù)十億個(gè)人工神經(jīng)元,但它們實(shí)際上與生物大腦截然不同。

今天的人工智能是基于云端的,存儲在工廠一般的數(shù)據(jù)中心中。它們在某些方面能力很差,而在其他方面卻很智能,它們?yōu)閿?shù)百萬用戶推理,但只有在收到提示時(shí)才會回復(fù)。

他們可能已經(jīng)通過了圖靈測試——這是由計(jì)算先驅(qū)Alan Turing建立的長期標(biāo)準(zhǔn)。

該標(biāo)準(zhǔn)認(rèn)為,任何能夠在對話中令人信服地模仿人類的計(jì)算機(jī)都可以合理地說是思考。

在谷歌的最后幾年里,Hinton專注于使用更接近大腦的硬件來創(chuàng)造更傳統(tǒng)的類似思維的人工智能。在當(dāng)今的人工智能中,人工神經(jīng)元之間連接的權(quán)重以數(shù)字方式存儲,就好像大腦在記錄自己一樣。

然而,在實(shí)際的模擬大腦中,權(quán)重被內(nèi)置在神經(jīng)元之間的物理連接中。Hinton致力于使用專門的計(jì)算機(jī)芯片創(chuàng)建該系統(tǒng)的人工版本。

芯片將能夠通過改變它們的「電導(dǎo)」來學(xué)習(xí)。由于權(quán)重將集成到硬件中,因此不可能將它們從一臺機(jī)器復(fù)制到另一臺機(jī)器。每個(gè)人工智能都必須自己學(xué)習(xí)?!杆麄儽仨毴ド蠈W(xué)?!?/span>

因?yàn)槊總€(gè)人工智能芯片獲得的知識在被拆解時(shí)都會丟失,所以他稱這種方法為「凡人計(jì)算(Mortal Computation)」。

在這種情況下,我們會得到更重要的東西,那就是能源效率。此外,能源效率鼓勵(lì)個(gè)性:因?yàn)槿祟惖拇竽X可以靠燕麥片運(yùn)行,所以世界可以支持?jǐn)?shù)十億個(gè)大腦,所有大腦都不同,每個(gè)大腦都可以不斷學(xué)習(xí)。

作為一項(xiàng)科學(xué)事業(yè),「凡人計(jì)算」可能會讓我們更接近于復(fù)制自己的大腦。但Hinton認(rèn)為,數(shù)字智能可能更強(qiáng)大。在模擬智能中,如果大腦死亡,知識就會死亡。

相比之下,在數(shù)字智能中,如果一臺特定的計(jì)算機(jī)死了,這些相同的連接強(qiáng)度可以在另一臺計(jì)算機(jī)上使用。即使所有的數(shù)字計(jì)算機(jī)都死了,如果你把連接強(qiáng)度存儲在某個(gè)地方,你就可以制造并運(yùn)行另一臺數(shù)字智能。

一萬個(gè)神經(jīng)網(wǎng)絡(luò)可以同時(shí)學(xué)習(xí)一萬個(gè)不同的東西,然后分享他們所學(xué)到的東西。這種不朽和可復(fù)制性的結(jié)合表明,我們應(yīng)該關(guān)注數(shù)字智能取代生物智能的問題。

Hinton懷疑,對人工智能潛力的懷疑雖然令人欣慰,但往往是出于對人類例外論的不合理信念。他對當(dāng)前人工智能聊天機(jī)器人「產(chǎn)生幻覺」這個(gè)說法提出了質(zhì)疑。

「這就是人類記憶的樣子。在我們看來,編造和說實(shí)話之間沒有界限。說實(shí)話只是正確地編造。從這個(gè)角度來看,ChatGPT的編造能力是一個(gè)缺陷,但也是其類人智能的標(biāo)志?!?/span>

Hinton經(jīng)常被問到他是否后悔自己的工作。他沒有。

他說,當(dāng)他開始研究時(shí),沒有人認(rèn)為這項(xiàng)技術(shù)會成功,即使它開始成功,也沒有人想到它會這么快成功。正是因?yàn)樗J(rèn)為人工智能是真正的智能,所以他期望它將在許多領(lǐng)域做出貢獻(xiàn)。

然而,他擔(dān)心當(dāng)有權(quán)勢的人濫用它時(shí)會發(fā)生什么。蛻變還沒有完成。我們不知道人工智能會變成什么樣子。

對一些人來說,這是一個(gè)哥白尼式的故事,在這個(gè)故事中,我們對人類思維特殊性的直覺正在被思考的機(jī)器所取代。對其他人來說,這是普羅米修斯——偷了火,我們就有可能被燒死。

有些人認(rèn)為我們在自欺欺人,被我們自己的機(jī)器和希望從中獲利的公司所吸引。以一種奇怪的方式,它也可能是一個(gè)關(guān)于人類局限性的故事。

如果我們是神,我們可能會制造出一種不同的人工智能——一種我們可以管理的版本。

責(zé)任編輯:張燕妮 來源: 新智元
相關(guān)推薦

2023-10-10 14:46:13

AI人工智能

2021-08-19 17:14:31

人工智能科技算法

2023-05-07 11:36:14

2021-01-05 15:39:30

人工智能科學(xué)技術(shù)

2021-03-26 11:08:28

人工智能

2020-04-22 13:46:50

人工智能AI

2019-09-09 14:18:35

人工智能數(shù)據(jù)開發(fā)

2024-12-12 16:28:00

2023-09-04 14:09:13

2023-05-04 10:05:30

離職谷歌

2023-06-30 11:08:13

AI人工智能

2021-03-15 22:59:56

人工智能大數(shù)據(jù)技術(shù)

2022-11-04 16:23:30

AI人工智能

2018-08-06 18:36:21

2018-05-15 09:25:09

2021-01-27 11:56:45

AIops人工智能AI

2018-05-28 11:41:39

AR

2022-07-22 18:47:30

AIOmniverse

2022-05-05 11:17:55

人工智能AI

2024-01-16 10:14:25

點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號