自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

Elon Musk的“人工智能惡魔論”在中傷這個(gè)行業(yè)!

移動(dòng)開(kāi)發(fā)
Elon Musk不久前曾公開(kāi)表示人工智能就如同“召喚惡魔”,用科幻電影來(lái)說(shuō)明人工智能的危害。但在本文作者看來(lái)卻是非常不負(fù)責(zé)任的誤導(dǎo)大眾,而且還在傳遞一種沒(méi)來(lái)由的恐懼,這將對(duì)目前人工智能領(lǐng)域的具體工作產(chǎn)生嚴(yán)重傷害。作者對(duì)Musk的言論進(jìn)行了強(qiáng)有力反駁,并對(duì)人工智能的風(fēng)險(xiǎn)評(píng)估和發(fā)展提供了非常完善的論證。

[[122220]]

翻譯/赤龍飛、楊涵舒、Viola、微胖、趙賽坡、趙云峰

 

 

Elon Musk不久前曾公開(kāi)表示人工智能就如同“召喚惡魔”,用科幻電影來(lái)說(shuō)明人工智能的危害。但在本文作者看來(lái)卻是非常不負(fù)責(zé)任的誤導(dǎo)大眾,而且還在傳遞一種沒(méi)來(lái)由的恐懼,這將對(duì)目前人工智能領(lǐng)域的具體工作產(chǎn)生嚴(yán)重傷害。作者對(duì)Musk的言論進(jìn)行了強(qiáng)有力反駁,并對(duì)人工智能的風(fēng)險(xiǎn)評(píng)估和發(fā)展提供了非常完善的論證。

 

 

Elon Musk縮短了未來(lái)和當(dāng)下的距離。他的SpaceX成功的完成了太空探索任務(wù),特斯拉也在電動(dòng)車行業(yè)發(fā)揮了關(guān)鍵作用。因此,當(dāng)Musk談?wù)撐磥?lái)時(shí),人們總會(huì)側(cè)耳傾聽(tīng)。這就是他最近對(duì)人工智能的言論引起如此多關(guān)注的原因。

 

在巧舌如簧的對(duì)人工智能研究的走向大潑臟水方面,Musk的行為不斷升級(jí)加碼。就在最近,他將當(dāng)下的人工智能研究描述成“召喚惡魔”,并且惡搞的將影片《2001太空漫游》中的超級(jí)電腦HAL9000戲稱為小狗,拿它和未來(lái)的機(jī)器人做比較。前段時(shí)間,他解釋之所以參與人工智能公司DeepMind,是因?yàn)樗释麜r(shí)刻關(guān)注可能出現(xiàn)的“終結(jié)者”情形的進(jìn)展。這樣的談?wù)摽傮w來(lái)說(shuō)弊大于利,特別是對(duì)于那些Musk的鐵桿粉絲來(lái)說(shuō)。

 

從根本上講,Musk的言論被大肆炒作和宣傳,當(dāng)這樣的負(fù)面宣傳涉及到具體的研究工作時(shí),會(huì)產(chǎn)生非常消極和有害的后果。就像去年Gary Marcus在《New Yorker》雜志的一篇專題報(bào)道中所說(shuō),在過(guò)去的幾十年中,公眾關(guān)注熱點(diǎn)的反復(fù)無(wú)常、投機(jī)行為蔓延、以及研究先驅(qū)們的接連放棄一直困擾著人工智能的研究。這一現(xiàn)象被稱作“人工智能寒冬”——研究者在燒掉投資之后卻無(wú)法兌現(xiàn)他們之前在媒體上公開(kāi)發(fā)表的承諾,這一過(guò)程在人工智能的歷史上重復(fù)出現(xiàn)。

 

正如1993年Daniel Crevier(加拿大企業(yè)家、人工智能和圖像處理專家)在一本對(duì)人工智能歷史研究的書(shū)里所描述的那樣,或許人工智能研究中最聲名狼籍的宣傳(也就是宣揚(yáng)人工智能將戰(zhàn)勝人類)發(fā)生在20世紀(jì)70年代,當(dāng)時(shí),DARPA(美國(guó)國(guó)防部先進(jìn)研究項(xiàng)目局)資助了很多類似項(xiàng)目,但最終效果卻都未達(dá)到預(yù)期。

 

Facebook 人工智能實(shí)驗(yàn)室的負(fù)責(zé)人Yann LeCun去年在Google+上總結(jié)道:“一些不實(shí)宣傳對(duì)于人工智能是非常危險(xiǎn)的。在過(guò)去的50年里,人工智能就先后因?yàn)椴粚?shí)宣傳而沉淪了四次。關(guān)于人工智能的炒作必須停止。”如果不能如Musk所愿,我們五年內(nèi)造不出一臺(tái)功能齊全的自動(dòng)駕駛汽車,會(huì)對(duì)這個(gè)領(lǐng)域產(chǎn)生何種影響?因此,還是忘記所謂的終結(jié)者吧,我們應(yīng)該重新考量如何談?wù)撊斯ぶ悄堋?/p>

 

Musk對(duì)于人工智能的尖刻評(píng)論只會(huì)誤導(dǎo)那些比他更不熟悉人工智能的人。事實(shí)上,我們現(xiàn)在最聰明的人工智能產(chǎn)品也僅僅是與一個(gè)剛會(huì)走路的孩子智力相當(dāng),而這還僅限于處理一些需要外部幫助的任務(wù)(如信息召回)。大多數(shù)機(jī)器學(xué)家仍然在努力使機(jī)器人們能夠撿起一個(gè)球,跑步時(shí)不會(huì)摔倒,這看起來(lái)離“天網(wǎng)”的最終結(jié)局還有十萬(wàn)八千里。

 

的確,歐盟的Human Brain Project和美國(guó)的BRAIN Initiative花費(fèi)巨資,希望能夠找到人類大腦的“數(shù)字地圖”,但他們?nèi)沃氐肋h(yuǎn),大多數(shù)支撐研究結(jié)果的技術(shù)還處在研發(fā)階段,比如,能夠更好掃描大腦的納米生物傳感器。當(dāng)然,這不是說(shuō)這些研究完全沒(méi)有意義,這項(xiàng)工作當(dāng)然有意義,而且這些研究并沒(méi)有向公眾宣揚(yáng)所謂的恐懼。

 

“當(dāng)我們聽(tīng)到這些關(guān)于人工智能的令人驚悚的事情時(shí),就感覺(jué)像是那種源于外星人和科幻小說(shuō)的恐懼。外星人出現(xiàn)了,帶著比我們高三倍的智商。”紐約倫斯勒理工學(xué)院人工智能實(shí)驗(yàn)室主任Selmer Bringsjord告訴我,“那些政府支持下的人工智能研究員也開(kāi)始產(chǎn)生這種電影情節(jié)里的恐懼情緒。這與自己現(xiàn)在所做的研究無(wú)關(guān),而是一種更深層次的、非理性的恐懼。”

 

以Musk和霍金為代表的這些人最害怕的是人工智能所帶來(lái)的“存在風(fēng)險(xiǎn)(existential risk)。” 存在風(fēng)險(xiǎn)是指那些威脅到整個(gè)人類發(fā)展、或者是將我們徹底毀滅的風(fēng)險(xiǎn),該名詞于2001年由牛津大學(xué)人類未來(lái)學(xué)院(FHI,Oxford)院長(zhǎng)Nick Bostrom首次提出并從此流行開(kāi)來(lái)。Musk是Bostrom最近所著一本書(shū)《Superintelligence》的粉絲。

 

來(lái)自牛津大學(xué)人類未來(lái)學(xué)院的科學(xué)家Daniel Dewey表示,“存在風(fēng)險(xiǎn)”可能是戰(zhàn)爭(zhēng)、財(cái)富不均蔓延、自然災(zāi)害、以及惡意的人工智能。有一個(gè)明顯的事實(shí)Musk沒(méi)有搞清楚,至少是沒(méi)表達(dá)出來(lái)——與其他風(fēng)險(xiǎn)不同,在評(píng)估人工智能所帶來(lái)的風(fēng)險(xiǎn)時(shí)需要單獨(dú)對(duì)待,因?yàn)槟壳皩?duì)該風(fēng)險(xiǎn)的討論在很大程度上是一種帶有推測(cè)性的、哲學(xué)上的見(jiàn)仁見(jiàn)智,沒(méi)有統(tǒng)一的路徑可循,而這些推斷正確與否只有在遙遠(yuǎn)的未來(lái)才能得到驗(yàn)證。即便如此,只有當(dāng)機(jī)器突然具備了出乎我們意料的智能之后,人類未來(lái)學(xué)院研究者眼中的“智能爆炸”才會(huì)出現(xiàn)。

 

我認(rèn)為,我們要足夠重視我們目前對(duì)人工智能風(fēng)險(xiǎn)狀況的未知程度。” Dewey說(shuō)到,“我們現(xiàn)在對(duì)人工智能的評(píng)估大多是一種可能性討論,而不是嚴(yán)謹(jǐn)?shù)挠?jì)算——例如,我們雖然可以談?wù)撝悄鼙ㄓ锌赡艹霈F(xiàn),但無(wú)法百分之百確認(rèn)這種可能性,也無(wú)法預(yù)測(cè)這會(huì)在何時(shí)發(fā)生。

 

像霍金一樣(譯者注:霍金曾表示人工智能或?qū)⑼{到人類生存),Musk認(rèn)為相關(guān)的監(jiān)督管理委員會(huì)應(yīng)該開(kāi)始監(jiān)督人工智能的發(fā)展,以免我們做出一些“非常愚蠢的事情”,比如說(shuō)造出一個(gè)能干掉我們的機(jī)器人。但我們對(duì)此表示嚴(yán)重懷疑,一個(gè)負(fù)責(zé)頒布公共政策的人工智能委員會(huì)此時(shí)能做出些什么?誠(chéng)然,就像華盛頓大學(xué)法學(xué)院教授Ryan Calo提議的那樣,針對(duì)已經(jīng)具備一定智能的機(jī)器人制定一套規(guī)則是有好處的,例如我們已經(jīng)擁有的自動(dòng)駕駛汽車、無(wú)人機(jī)殺手和戰(zhàn)爭(zhēng)機(jī)器人等等。但對(duì)于那些依然遙不可及的強(qiáng)人工智能,就完全另當(dāng)別論了。

 

“危險(xiǎn)會(huì)很嚴(yán)重,在某些具體的情景下,人工智能可能會(huì)做出錯(cuò)誤決定。舉例來(lái)說(shuō),一臺(tái)自動(dòng)駕駛汽車只會(huì)考慮更加現(xiàn)實(shí)和直接的風(fēng)險(xiǎn),就像最近廣為人知的倫理困境(譯者注:例如桑德?tīng)栐凇豆分刑岬降陌咐援?dāng)撞車成為最符合現(xiàn)實(shí)主義和最可靠的選擇時(shí),機(jī)器會(huì)毫不猶豫的這樣去做。"

 

"我認(rèn)為人工智能是一個(gè)數(shù)學(xué)和工程學(xué)問(wèn)題,而非公共政策問(wèn)題。”Bringsjord坦言,"如果我們建立一個(gè)委員會(huì),我們應(yīng)重點(diǎn)關(guān)注人工智能的工程層面。”

 

根據(jù)Bringsjord的觀點(diǎn),在出臺(tái)公共政策之前,應(yīng)該先從優(yōu)秀的工程設(shè)計(jì)入手來(lái)對(duì)人工智能潛在的社會(huì)弊病進(jìn)行規(guī)范。這不僅僅是因?yàn)槿斯ぶ悄軇倓偵下?,更是因?yàn)閲?yán)謹(jǐn)?shù)脑O(shè)計(jì)過(guò)程能夠緩解計(jì)算機(jī)程序中出現(xiàn)的弊端。

 

解決這個(gè)問(wèn)題的方法之一就是恢復(fù)對(duì)正式軟件認(rèn)證的研究,他說(shuō),正式認(rèn)證可以精確的檢測(cè)出程序的缺陷和潛在錯(cuò)誤,將功能失常的風(fēng)險(xiǎn)降到幾乎為零。過(guò)去隨著資助減少,這方面的研究活動(dòng)曾一度消失,但DARPA已經(jīng)開(kāi)始通過(guò)開(kāi)源和眾包的形式來(lái)重新開(kāi)啟這項(xiàng)研究(譯者注:即DARPA的CSFV,開(kāi)源正式認(rèn)證)。

 

“相比這類監(jiān)管委員會(huì),我們更愿意為那些有能力進(jìn)行必要的工程設(shè)計(jì)的人買(mǎi)單,”Bringsjord對(duì)我說(shuō),“就像新奧爾良洪水,眾所周知,工程師曾事無(wú)巨細(xì)的向我們解釋了如何保護(hù)新奧爾良免于洪水侵害——但別人卻認(rèn)為這項(xiàng)計(jì)劃耗資太過(guò)巨大。因此,從本質(zhì)上來(lái)說(shuō),輕率的吝嗇行為才是真正威脅,而非人工智能。

 

但是,先進(jìn)人工智能與生俱來(lái)的潛在危險(xiǎn)似乎才是Musk們所重點(diǎn)關(guān)注的。技術(shù)有招致毀滅的風(fēng)險(xiǎn),這種黑色預(yù)言不但捏造了人工智能在可預(yù)見(jiàn)的將來(lái)真正能做的事情,而且還使現(xiàn)在對(duì)人工智能的討論陷入混亂。

 

比如,科技發(fā)展所帶來(lái)的失業(yè)。資本控制下的人工智能和便攜機(jī)器人研發(fā)正徹底改變世界,取代無(wú)數(shù)勞動(dòng)者,完全體現(xiàn)不出任何的未來(lái)進(jìn)步。隨著無(wú)人機(jī)技術(shù)的不斷進(jìn)步和應(yīng)用范圍的擴(kuò)大,軍用機(jī)器人雖然沒(méi)有強(qiáng)人工智能的支持,但也能夠自行完成殺人任務(wù),這已經(jīng)成為極具爭(zhēng)議的話題,但那些呼吁停止這類研發(fā)的組織卻被直接忽視。

 

事實(shí)上,我們不需要這樣的技術(shù)突破——人工智能變得和人一樣聰明,因?yàn)槲覀兊氖澜鐚⒉豢杀苊獾谋粰C(jī)器和軟件改變,不論好壞。這不是說(shuō),我們不該考慮先進(jìn)人工智能的未來(lái)應(yīng)用,而是應(yīng)該更加負(fù)責(zé)一點(diǎn),尤其是面對(duì)公眾時(shí)。

 

Musk的評(píng)論適時(shí)給媒體的炒作加了一把火,也加劇了這種未經(jīng)證實(shí)的恐懼,而這種恐懼僅僅是來(lái)源于對(duì)一種還處于嬰兒階段的技術(shù)的過(guò)分夸大,不管它每天的進(jìn)步是多么令人印象深刻。自動(dòng)駕駛汽車、智能安檢員、機(jī)器人同事......這些可能性雖讓人恐懼,但也很美妙。這就是我們的未來(lái),而人工智能決不會(huì)讓它陷入瘋狂。

 

 

本文原載Vice,作者Jordan Pearson,由機(jī)器之心翻譯。


添加個(gè)人微信號(hào)"jiqizhixin2014"為好友可更加方便的查看歷史文章和申請(qǐng)加入機(jī)器之心交流群,申請(qǐng)時(shí)請(qǐng)?zhí)峤粋€(gè)人簡(jiǎn)介和符合機(jī)器之心主題的個(gè)人感悟。

 

 

機(jī)器之心希望在令人眼花繚亂的科技中思考和尋找人類的共同未來(lái)。

責(zé)任編輯:林師授 來(lái)源: 微信公眾號(hào)‘機(jī)器之心’almosthuman2014
相關(guān)推薦

2023-11-06 21:07:23

人工智能聊天機(jī)器人Grok

2022-08-30 22:25:09

Web 3Web 2Metaverse

2022-06-01 09:00:00

馬斯克技術(shù)預(yù)言

2022-08-09 13:48:30

人工智能時(shí)尚行業(yè)聊天機(jī)器人

2024-02-04 19:45:43

人工智能電信

2022-08-25 14:06:33

人工智能游戲

2013-05-30 17:44:50

Elon Musk超級(jí)高鐵D11

2021-07-29 09:55:40

人工智能AI深度學(xué)習(xí)

2017-07-26 16:26:47

數(shù)據(jù)中心人工智能技術(shù)

2020-05-08 09:48:44

人工智能全球行業(yè)AI

2024-04-18 16:07:54

人工智能

2019-12-09 11:49:58

人工智能技術(shù)機(jī)器學(xué)習(xí)

2025-01-22 13:47:26

2020-03-02 19:28:03

人工智能AI

2023-12-19 13:13:16

人工智能

2020-06-12 10:57:08

人工智能機(jī)器學(xué)習(xí)RPA

2022-06-26 23:20:47

人工智能設(shè)計(jì)行業(yè)AR/VR

2020-09-01 15:09:12

人工智能能源AI

2022-03-25 14:35:56

人工智能區(qū)塊鏈加密貨幣

2021-09-24 08:00:00

人工智能ITAV
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)