自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

人工智能65年簡史:從麥卡錫到Hinton,人類追求的AI究竟是什么?

新聞 人工智能
人工智能的發(fā)展已有65年的歷史,曾經(jīng)歷過寒冬,也經(jīng)歷過輝煌。從符號主義的專家系統(tǒng)到現(xiàn)在所向披靡的神經(jīng)網(wǎng)絡,不少人擔心是否寒冬會再來,也有樂觀的人表示人工智能的春天也要來了。

人工智能的發(fā)展已有65年的歷史,曾經(jīng)歷過寒冬,也經(jīng)歷過輝煌。從符號主義的專家系統(tǒng)到現(xiàn)在所向披靡的神經(jīng)網(wǎng)絡,不少人擔心是否寒冬會再來,也有樂觀的人表示人工智能的春天也要來了?;氐饺斯ぶ悄馨l(fā)展的開端,也許會有答案。

1956年夏天,一群數(shù)學家和計算機科學家占領了達特茅斯學院數(shù)學系所在大樓的頂層。在大約八周的時間里,他們想象著一個新研究領域的可能性。

約翰-麥卡錫(John McCarthy)是當時是達特茅斯大學的一名年輕教授,他在為研討會寫提案時創(chuàng)造了「人工智能」一詞,他說研討會將探索這樣的假設:

「(人類)學習的每一個方面或智能的任何其他特征原則上都可以被精確描述,以至于可以用機器來模擬它?!?/p>

[[428353]]

在那次傳奇性的會議上,研究人員大致勾勒出了我們今天所知的人工智能。它催生了第一個研究者陣營:「符號主義者」(symbolists),基于符號主義的專家系統(tǒng)在20世紀80年代達到了頂峰。

會議之后的幾年里,還出現(xiàn)了「連接主義者」(connectionists),他們在人工神經(jīng)網(wǎng)絡上苦苦鉆研了幾十年,直到最近才開始再創(chuàng)輝煌。

這兩種方法長期以來被認為是相互排斥的,研究人員之間對資金的競爭造成了敵意,每一方都認為自己是在通往人工通用智能的道路上。

[[428354]]

但回顧自那次會議以來的幾十年,數(shù)次人工智能寒冬都讓研究人員的希望經(jīng)常破滅。在今天,即使人工智能正在徹底改變行業(yè)并可能要顛覆全球勞動力市場,許多專家仍然想知道今天的人工智能是否已經(jīng)達到極限。

正如 Charles Choi 在「人工智能失敗的七種方式」中所描繪的那樣,當今深度學習系統(tǒng)的弱點正變得越來越明顯,然而研究人員幾乎沒有危機感。他認為也許在不遠的將來可能會迎來另一個人工智能冬天, 但這也可能是受啟發(fā)的工程師最終將我們帶入機器思維的永恒之夏的時候。

開發(fā)符號人工智能的研究人員的目的是明確地向計算機教授世界知識。他們的宗旨認為知識可以由一組規(guī)則表示,計算機程序可以使用邏輯來操縱這些知識。符號主義者的先驅如紐厄爾和赫伯特西蒙認為,如果一個符號系統(tǒng)有足夠的結構化事實和前提,那么聚合的結果最終會產(chǎn)生通用的智能。

人工智能65年簡史:從麥卡錫到Hinton,人類追求的AI究竟是什么?

另一方面,連接主義者受到生物學的啟發(fā),致力于「人工神經(jīng)網(wǎng)絡」的研發(fā),這種網(wǎng)絡可以接收信息并自行理解。

一個開創(chuàng)性的例子是感知機,這是一種由康奈爾大學心理學家弗蘭克羅森布拉特在美國海軍資助下建造的實驗機器。它有 400 個光傳感器共同充當視網(wǎng)膜,向大約 1,000 個神經(jīng)元提供信息,這些神經(jīng)元能夠進行處理并產(chǎn)生單個輸出。1958 年,《紐約時報》的一篇文章援引羅森布拉特的話說,“機器將成為第一個像人腦一樣思考的設備”。

[[428355]]

肆無忌憚的樂觀鼓勵美國和英國的政府機構將資金投入研究。1967 年,麻省理工學院教授、人工智能之父馬文·明斯基甚至寫道:“在一代人之內(nèi)……創(chuàng)造‘人工智能’的問題將得到實質性解決。”

然而不久之后,政府資金開始枯竭,原因是人工智能研究除了炒作外沒有任何實質性的進展沒有辜負它自己的炒作。1970 年代見證了第一個人工智能冬天。

然而,真正的人工智能研究者沒有放棄。

到 1980 年代初,符號主義 AI 的研究人員帶來了鼎盛時期,他們因特定學科(如法律或醫(yī)學)知識的專家系統(tǒng)而獲得資助。投資者希望這些系統(tǒng)能很快找到商業(yè)應用。

[[428356]]

最著名的符號人工智能項目始于 1984 年,當時研究人員道格拉斯·萊納特 (Douglas Lenat) 開始著手一項名為 Cyc 的項目,該項目旨在將常識編碼到機器中。

直到今天,Lenat 和他的團隊還在繼續(xù)向 Cyc 的本體添加術語(事實和概念),并通過規(guī)則解釋它們之間的關系。到 2017 年,該團隊有 150 萬個條款和 2450 萬條規(guī)則。然而,Cyc 離實現(xiàn)通用智能還差得很遠。

20世紀80年代末,商業(yè)的寒風帶來了第二個人工智能冬天。專家系統(tǒng)市場的全面崩潰是因為它們需要專門的硬件,無法與越來越通用的臺式計算機競爭。到了20世紀90年代,研究符號人工智能或神經(jīng)網(wǎng)絡在學術上已不再流行,因為這兩種策略似乎都失敗了。

但是,取代專家系統(tǒng)的廉價計算機對連接主義者來說是一個福音,他們突然獲得了足夠的計算機能力來運行具有多層人工神經(jīng)元的神經(jīng)網(wǎng)絡。這類系統(tǒng)被稱為深度神經(jīng)網(wǎng)絡,它們實現(xiàn)的方法被稱為深度學習。

多倫多大學的Geoffrey Hinton 實現(xiàn)了一種叫做反向傳播的原理來讓神經(jīng)網(wǎng)絡從他們的錯誤中學習。

[[428357]]

Hinton 的一位博士后 Yann LeCun 于 1988 年進入 AT&T 貝爾實驗室,在那里他和一位名叫 Yoshua Bengio 的博士后使用神經(jīng)網(wǎng)絡進行光學字符識別;美國銀行很快就采用了這種技術來處理支票。

[[428358]]

Hinton、LeCun 和 Bengio 于 2019 年獲得圖靈獎。

[[428359]]

但是神經(jīng)網(wǎng)絡的擁護者仍然面臨一個大問題:他們的理論框架逐漸擁有越來越多的計算能力,但是世界上沒有足夠的數(shù)據(jù)來供他們訓練模型,至少對于大多數(shù)應用程序來說是這樣,人工智能的春天還沒有到來。

但在過去的二十年里,一切都變了。

尤其是隨著互聯(lián)網(wǎng)蓬勃發(fā)展,突然間,數(shù)據(jù)無處不在。

數(shù)碼相機和智能手機在互聯(lián)網(wǎng)上發(fā)布圖像,維基百科和 Reddit 等網(wǎng)站充滿了可免費訪問的數(shù)字文本,YouTube 有大量視頻。足夠的數(shù)據(jù)也是訓練神經(jīng)網(wǎng)絡的基礎。

另一個重大發(fā)展來自游戲行業(yè)。Nvidia 等公司開發(fā)了稱為圖形處理單元 (GPU) 的芯片,用于在視頻游戲中渲染圖像所需的繁重處理。游戲開發(fā)人員使用 GPU 進行復雜的著色和幾何變換。需要強大計算能力的計算機科學家意識到,他們可以使用 GPU 執(zhí)行其他任務,例如訓練神經(jīng)網(wǎng)絡。

Nvidia 也注意到了這一趨勢并創(chuàng)建了 CUDA,CUDA 可以讓研究人員能使用 GPU 進行通用數(shù)據(jù)處理。

2012年,Hinton 實驗室的一名學生名叫 Alex Krizhevsky,他使用 CUDA 編寫了一份神經(jīng)網(wǎng)絡的代碼,AlexNet 模型的效果驚艷了整個學術界。

人工智能65年簡史:從麥卡錫到Hinton,人類追求的AI究竟是什么?

Alex 開發(fā)這個模型的目的是 ImageNet 競賽,ImageNet提供數(shù)據(jù)讓 AI 研究人員構建計算機視覺系統(tǒng),該系統(tǒng)可以將超過 100 萬張圖像分為 1,000 個類別的對象。

雖然 Krizhevsky 的 AlexNet 并不是第一個用于圖像識別的神經(jīng)網(wǎng)絡,但它在 2012 年的比賽中的表現(xiàn)引起了全世界的關注。AlexNet 的錯誤率為 15%,而第二名的錯誤率高達 26%。神經(jīng)網(wǎng)絡的勝利歸功于 GPU 的能力和包含 650,000 個神經(jīng)元的深層結構。

在第二年的 ImageNet 比賽中,幾乎每個人都使用了神經(jīng)網(wǎng)絡。到 2017 年,許多參賽者的錯誤率已降至 5%,隨后組織者結束了比賽。

深度學習這次開始徹底起飛了。

[[428360]]

憑借 GPU 的計算能力和大量用于訓練深度學習系統(tǒng)的數(shù)字數(shù)據(jù),自動駕駛汽車可以在道路上行駛,語音助手可以識別用戶的語音,網(wǎng)絡瀏覽器可以在數(shù)十種語言之間進行翻譯。

人工智能還在一些以前被認為是機器無法戰(zhàn)勝的游戲中擊敗了人類冠軍,包括棋盤游戲圍棋和策略游戲星際爭霸 II。

目前人工智能的發(fā)展已經(jīng)惠及各行各業(yè),能夠為每個應用場景都提供了識別模式和做出復雜決策的新方法。

但是深度學習領域不斷擴大的勝利依賴于增加神經(jīng)網(wǎng)絡的層數(shù)并增加專門用于訓練它們的 GPU 時間。

人工智能研究公司 OpenAI 的一項分析表明,在 2012 年之前,訓練最大的人工智能系統(tǒng)所需的計算能力每兩年翻一番,之后每 3.4 個月翻一番。

正如 Neil C. Thompson 和他的同事在 Deep Learning's Diminishing Returns 中所寫的那樣,許多研究人員擔心人工智能的計算需求正處于不可持續(xù)的軌道上,并且可能破壞地球的能量循環(huán),研究人員需要打破構建這些系統(tǒng)的既定方法。

雖然看起來似乎神經(jīng)網(wǎng)絡陣營已經(jīng)徹底擊敗了符號主義者,但事實上,這場戰(zhàn)斗的結果并不是那么簡單。

例如 OpenAI 的機器人手因為操縱和求解魔方而成為頭條新聞,該機器人同時使用神經(jīng)網(wǎng)絡和符號人工智能。它是許多新的神經(jīng)符號(neuo-symbolic)系統(tǒng)之一,使用神經(jīng)網(wǎng)絡進行感知,使用符號人工智能進行推理,這是一種混合方法,可以提高效率和解釋性。

人工智能65年簡史:從麥卡錫到Hinton,人類追求的AI究竟是什么?

盡管深度學習系統(tǒng)往往是黑匣子,以不透明和神秘的方式進行推理,但神經(jīng)符號系統(tǒng)使用戶能夠深入了解并了解人工智能是如何得出結論的。美國陸軍特別警惕依賴黑匣子系統(tǒng),因此陸軍研究人員正在研究各種混合方法來驅動他們的機器人和自動駕駛汽車。

目前來說深度學習系統(tǒng)是為特定任務而構建的,不能將它們的能力從一項任務推廣到另一項任務。更重要的是,學習一項新任務通常需要人工智能清除它所知道的關于如何解決其先前任務的一切,這個難題稱為災難性遺忘。

在谷歌位于倫敦的人工智能實驗室 DeepMind,著名的機器人專家 Raia Hadsell 正在使用各種復雜的技術解決這個問題。其他研究人員正在研究新型元學習,希望創(chuàng)建 AI 系統(tǒng),學習如何學習,然后將該技能應用于任何領域或任務。

所有這些策略都可能有助于研究人員實現(xiàn)他們最高的目標:用人類觀察孩子發(fā)展的那種流體智能來構建人工智能。

[[428362]]

幼兒不需要大量數(shù)據(jù)就可以得出結論,他們做的只是觀察世界,創(chuàng)建一個關于它如何運作的心智模型,采取行動,并使用他們的行動結果來調整該心智模型。他們迭代直到他們理解。這個過程非常高效和有效,甚至遠遠超出了當今最先進的人工智能的能力。

盡管目前研究 AI 的投入資金達到了歷史最高水平,但幾乎沒有證據(jù)表明我們的未來會失敗。世界各地的公司都在采用人工智能系統(tǒng),因為他們看到他們的底線立即得到改善,而且他們永遠不會回頭。

研究人員是否會找到適應深度學習的方法以使其更加靈活和強大,或者設計出這65年探索中還沒有發(fā)現(xiàn)的新方法,讓機器變得更像人類。

 

責任編輯:張燕妮 來源: 新智元
相關推薦

2020-09-15 16:31:08

人工智能AI

2011-02-16 16:13:40

Debian

2019-04-28 18:00:56

人工智能AI機器學習

2021-08-17 09:29:32

人工智能設計AI

2020-12-10 15:13:34

人工智能

2015-09-29 09:47:14

2018-09-10 13:47:21

數(shù)據(jù)科學統(tǒng)計學決策

2019-05-27 15:30:44

Node.jsJavaScript前端

2022-06-13 09:51:35

UWB超寬帶無線載波通信技術

2012-05-28 22:49:50

PureView

2011-08-04 13:24:28

IT運維

2015-08-26 09:54:19

物聯(lián)網(wǎng)

2014-07-28 08:28:38

Windows

2014-08-07 10:32:02

Windows微軟

2009-07-30 14:43:30

認識BSM

2021-08-09 05:19:08

Provider 前端前端代碼

2020-07-08 08:09:08

邊緣計算邊緣云云平臺

2016-10-09 20:26:36

人工智能AI

2017-01-23 10:43:35

2021-03-08 21:44:33

以太坊區(qū)塊鏈比特幣
點贊
收藏

51CTO技術棧公眾號