自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

75歲圖靈獎(jiǎng)得主Hinton離職谷歌!痛悔畢生工作,無(wú)法阻止人類AI大戰(zhàn)

人工智能 新聞
入職谷歌10年后,人工智能教父Hinton選擇離職。對(duì)于造就了如今AI技術(shù)繁榮的神經(jīng)網(wǎng)絡(luò),Hinton表示:這是我畢生的后悔。

一覺(jué)醒來(lái),整個(gè)科技圈驚掉了下巴?。?!

深度學(xué)習(xí)泰斗、神經(jīng)網(wǎng)絡(luò)之父Geoffrey Hinton突然宣布離職谷歌。

圖片

為了能夠自由談?wù)撊斯ぶ悄茱L(fēng)險(xiǎn),而不考慮這對(duì)谷歌的影響。

紐約時(shí)報(bào)的報(bào)道中,Hinton直接警示世人:注意,前方有危險(xiǎn),前方有危險(xiǎn),前方有危險(xiǎn)!

而正是對(duì)人工智能風(fēng)險(xiǎn)深深地?fù)?dān)憂,讓這位深度學(xué)習(xí)巨佬直言:「我對(duì)自己的畢生工作,感到非常后悔。

如今,距離Hinton入職谷歌,剛好十年。

圖片

對(duì)于Hinton此舉,有人甚至勸說(shuō),應(yīng)該將關(guān)注人工智能安全常態(tài)化,而不必辭去工作。

圖片

這更應(yīng)該是你留下來(lái)的理由。因?yàn)槭澜缡遣粫?huì)停止的,像你這樣的偉大人物應(yīng)該堅(jiān)持下去,并將人工智能發(fā)展的更好。

圖片

你應(yīng)該勸說(shuō)你的學(xué)生Yann LeCun和Ilya Sutskever。

值得一提的是,ChatGPT背后真正的英雄正是OpenAI的聯(lián)合創(chuàng)始人兼首席科學(xué)家Ilya。

圖片

AI「關(guān)鍵時(shí)刻」,人類控制不住了

被稱為「人工智能教父」的Geoffrey Hinton,一直都是該領(lǐng)域最受尊敬的先驅(qū)之一。

圖片

今年3月末,萬(wàn)名大佬簽字發(fā)出聯(lián)名信,呼吁暫停訓(xùn)練比GPT-4更強(qiáng)大的AI六個(gè)月。

圖靈三巨頭中,Bengio高調(diào)簽名、LeCun旗幟鮮明地反對(duì),唯有Hinton一言不發(fā),耐人尋味地保持沉默。

而Hinton提出離職的時(shí)間,正是在此之后的4月份。

圖片

從他的推特上可以看出,無(wú)論是最近GPT-4等超強(qiáng)AI引發(fā)的巨大爭(zhēng)議,還是谷歌高層的劇烈動(dòng)蕩,Hinton都始終保持緘默,不發(fā)一言。

許多人關(guān)注著這位人工智能教父的態(tài)度。

在CBS的一次采訪中,Hinton表示「我們幾乎已經(jīng)讓學(xué)會(huì)計(jì)算機(jī)如何自我改進(jìn)了,這很危險(xiǎn),我們必須認(rèn)真考慮,如何控制它。」

圖片

從人工智能的開(kāi)創(chuàng)者到末日預(yù)言者,Hinton的轉(zhuǎn)變,也標(biāo)志著科技行業(yè)正處于幾十年來(lái)最重要的一個(gè)拐點(diǎn)。

先驅(qū)的沉痛反思,讓我們終于不能假裝沒(méi)有看見(jiàn)AI可能給人類社會(huì)引發(fā)的深刻改變和巨大危機(jī)了。

蓋茨等許多大佬認(rèn)為,ChatGPT可能與上世紀(jì)90年代初網(wǎng)絡(luò)瀏覽器一樣重要,并可能在藥物研究、教育等領(lǐng)域帶來(lái)突破。

與此同時(shí),令許多業(yè)內(nèi)人士不安的是,他們擔(dān)心自己所做的研究,正在向外釋放某種危險(xiǎn)。

因?yàn)樯墒饺斯ぶ悄芸赡芤呀?jīng)成為產(chǎn)生錯(cuò)誤信息的工具。并在未來(lái)的某個(gè)時(shí)候,可能會(huì)對(duì)人類構(gòu)成威脅。

圖片

在Hinton看來(lái),如何防止壞人利用它做壞事,我們還未能找到方法。

在3月底呼吁暫停超強(qiáng)AI六個(gè)月的信發(fā)出幾天后,人工智能促進(jìn)協(xié)會(huì)的19位領(lǐng)導(dǎo)人也發(fā)布了信,警告AI的風(fēng)險(xiǎn)。

其中就包括微軟的首席科學(xué)官Eric Horvitz,而微軟已在一系列產(chǎn)品中(包括Bing搜索引擎中)部署了OpenAI的GPT技術(shù)。

在喧囂的反對(duì)浪潮中,人工智能教父Hinton卻并未在這兩封信上簽名。

他說(shuō),自己在辭去工作之前,并不想公開(kāi)批評(píng)谷歌,或其他公司。

忍到上個(gè)月,Hinton終于下定決心,通知谷歌自己即將辭職。

選擇離職谷歌后,Hinton終于可以暢所欲言地談?wù)揂I的風(fēng)險(xiǎn)了。

我對(duì)我的畢生工作,感到十分后悔。

我只能這樣安慰自己:即使沒(méi)有我,也會(huì)有別人。

圖片

上周四,他與谷歌母公司Alphabet的CEO劈柴(Sundar Pichai)通了電話,但他表示不便透露此次談話的細(xì)節(jié)。

作為一家大公司,谷歌對(duì)于AI的態(tài)度一向保守,甚至保守到,眼睜睜看著自己在聊天AI機(jī)器人之戰(zhàn)中被甩在后面。

早在2015年,谷歌的圖像識(shí)別AI曾將黑人標(biāo)記為「大猩猩」,招致的批評(píng)讓谷歌成為驚弓之鳥(niǎo)。

在OpenAI推出Dall-E 2、名震全球之前,谷歌就有類似模型,但并沒(méi)有發(fā)布,因?yàn)楣雀枵J(rèn)為需要對(duì)AI生成的內(nèi)容負(fù)責(zé)。

而早在2021年,谷歌就已有了類似ChatGPT的LaMDA聊天機(jī)器人,但谷歌始終未發(fā)布。直到2022年11月底,OpenAI憑ChatGPT占盡風(fēng)頭。

如今,谷歌首席科學(xué)家Jeff Dean在一份聲明中表示:「我們?nèi)匀恢铝τ趯?duì)人工智能采取負(fù)責(zé)任的態(tài)度,我們正在不斷學(xué)習(xí)了解新出現(xiàn)的風(fēng)險(xiǎn),同時(shí)也在大膽創(chuàng)新?!?/span>

開(kāi)啟了歷史,也見(jiàn)證了歷史

1972年,Hinton在愛(ài)丁堡大學(xué)開(kāi)始了他的研究生生涯。

在那里,他首次開(kāi)始研究神經(jīng)網(wǎng)絡(luò)——一種通過(guò)分析數(shù)據(jù)來(lái)學(xué)習(xí)技能的數(shù)學(xué)系統(tǒng)。

當(dāng)時(shí),很少有研究人員相信這個(gè)觀點(diǎn)。但這成了他畢生的心血。

圖片

2012年,Hinton和他兩名學(xué)生Ilya Sutskever和Alex Krishevsky建立了一個(gè)神經(jīng)網(wǎng)絡(luò),可以分析數(shù)千張照片,并自學(xué)識(shí)別花、狗和汽車等常見(jiàn)物體。

神經(jīng)網(wǎng)絡(luò)成為他與兩名學(xué)生共同創(chuàng)建的公司DNNresearch背后的突破性概念,該公司最終在2013年被谷以4400萬(wàn)美元收購(gòu)。

2018年,Geoffrey Hinton、Yann LeCun和Yoshua Bengio一起因?qū)ι窠?jīng)網(wǎng)絡(luò)的研究獲得了2018年的圖靈獎(jiǎng),而神經(jīng)網(wǎng)絡(luò)正是ChatGPT、Bard等聊天機(jī)器人背后的奠基性技術(shù)。

圖片

而Hinton的學(xué)生Ilya Sutskever,也在后來(lái)成為OpenAI首席科學(xué)家。

圖片

大約在同一時(shí)間,谷歌、 OpenAI和其他科技公司開(kāi)始構(gòu)建從大量數(shù)字文本中學(xué)習(xí)的神經(jīng)網(wǎng)絡(luò)。

那時(shí)的Hinton認(rèn)為,這是機(jī)器理解和產(chǎn)生語(yǔ)言的一種強(qiáng)大方式。當(dāng)然不得不承認(rèn),比起人類處理語(yǔ)言的方式?jīng)],神經(jīng)網(wǎng)絡(luò)還是力不能及。

2022年,隨著谷歌和OpenAI 利用大量數(shù)據(jù)構(gòu)建超強(qiáng)AI。

Hinton的觀點(diǎn)發(fā)生了重大轉(zhuǎn)變。他仍然認(rèn)為這些系統(tǒng)在某些方面不如人類的大腦,但它們?cè)谄渌矫嬲诔饺祟惖闹橇Α?/span>

GPT-4發(fā)布當(dāng)天,Hinton曾表示,

毛蟲吸取了營(yíng)養(yǎng)之后,就會(huì)化繭為蝶。而人類提取了數(shù)十億個(gè)理解的金塊,GPT-4,就是人類的蝴蝶。

圖片

Hinton稱贊的背后,讓許多人看到超強(qiáng)人工智能系統(tǒng)的智力已經(jīng)非同尋常。

對(duì)此,Hinton談到人工智能技術(shù)時(shí)表示,隨著科技公司改進(jìn)人工智能系統(tǒng),它們變得越來(lái)越危險(xiǎn)。

看看五年前和現(xiàn)在的情況,如果還要繼續(xù)傳播這項(xiàng)技術(shù),后果就太可怕了!

在谷歌十年生涯中,Hinton一直看好谷歌在人工智能技術(shù)上謹(jǐn)慎的態(tài)度。

他表示,直到去年,谷歌一直扮演著這項(xiàng)技術(shù)的「合適管家」角色,謹(jǐn)小慎微地不去發(fā)布可能造成危險(xiǎn)的AI。

這恰恰解釋了,為啥谷歌在這波人工智能浪潮中落后的原因。

但是現(xiàn)在,微軟為其必應(yīng)搜索引擎接入GPT-4的能力,已經(jīng)讓谷歌焦急地不得不做點(diǎn)什么。

Hinton稱,科技巨頭們正在進(jìn)行一場(chǎng)可能無(wú)法阻止的競(jìng)爭(zhēng)。

圖片

他眼下?lián)牡氖?,互?lián)網(wǎng)上將充斥著虛假的照片、視頻和文本,人們也無(wú)法去辨別什么是真實(shí)的,什么是虛假的內(nèi)容。

他甚至還擔(dān)心,人工智能技術(shù)遲早會(huì)顛覆就業(yè)市場(chǎng)。

如今,像ChatGPT這樣的聊天機(jī)器人往往能很好地輔助人類工作,甚至取代律師助理、私人助理、翻譯、以及其他處理死記硬背任務(wù)的人。

未來(lái),他表示自己很擔(dān)憂,GPT-4迭代會(huì)對(duì)人類構(gòu)成威脅,強(qiáng)AI從大量數(shù)據(jù)中能夠?qū)W到意想不到的行為。

人工智能系統(tǒng)不僅可以生成代碼,而且自己運(yùn)行代碼。前段時(shí)間爆火的Auto-GPT就是一個(gè)非常典型的例子。

圖片

他擔(dān)心有一天真正的自主武器ーー那些殺人機(jī)器人ーー會(huì)成為現(xiàn)實(shí)。

上世紀(jì)80年代,Hinton曾是卡內(nèi)基梅隆大學(xué)的計(jì)算機(jī)科學(xué)教授,但因?yàn)椴辉附邮芪褰谴髽堑馁Y助,他選擇了離開(kāi)CMU,前往加拿大。當(dāng)時(shí),Hinton強(qiáng)烈反對(duì)在戰(zhàn)場(chǎng)上使用AI,他將其稱為「機(jī)器人士兵」。

圖片

在一些人看來(lái),類似的系統(tǒng)實(shí)際上比人類更聰明。Hinton表示自己曾經(jīng)認(rèn)為,這太離譜了,最起碼要30-50年,甚至更久才能實(shí)現(xiàn)。

而現(xiàn)在,我不再那么想了。

許多其他專家,包括Hinton的許多學(xué)生和同事,說(shuō)這種威脅還僅是一種假設(shè)。

他指出,谷歌和微軟,以及其他公司之間的競(jìng)爭(zhēng),將升級(jí)為一場(chǎng)全球性競(jìng)賽。如果沒(méi)有某種全球性的監(jiān)管,這場(chǎng)競(jìng)賽將不會(huì)停止!

圖片

但他表示,這也不是絕對(duì)的。與核武器不同,我們無(wú)法知道哪個(gè)公司或國(guó)家,是否在秘密研究這項(xiàng)技術(shù)。

網(wǎng)友熱議

有網(wǎng)友認(rèn)為,Hinton對(duì)于的AI的看法太悲觀了。

我見(jiàn)過(guò)的ChatGPT積極應(yīng)用案例遠(yuǎn)多于消極的,但現(xiàn)在的趨勢(shì)是把AI描繪成邪惡的煉金術(shù)。這些擔(dān)憂是合理的,我們會(huì)學(xué)習(xí),我們會(huì)糾正它,然后我們會(huì)繼續(xù)前進(jìn)。

圖片

甚至有網(wǎng)友將其比為天網(wǎng),但我們還不能將其關(guān)閉?!溉斯ぶ悄芫拖衽硕嗬哪Ш幸粯?,一旦打開(kāi)就無(wú)法關(guān)閉?!?/span>

圖片

還有人對(duì)谷歌「負(fù)責(zé)任」這一觀點(diǎn)提出異議:

-使用Breitbart訓(xùn)練AI模型;-讓負(fù)面信息在YouTube上大肆傳播(反過(guò)來(lái)又為推薦算法提供依據(jù));-散布有關(guān)安全和隱私的科學(xué)假信息;-開(kāi)除專家

圖片

谷歌大腦和DeepMind合并這一事,與此相關(guān)嗎?

圖片

還有網(wǎng)友發(fā)出疑問(wèn),連Hinton都離職了,下一個(gè)會(huì)是?

圖片

責(zé)任編輯:張燕妮 來(lái)源: 新智元
相關(guān)推薦

2024-12-31 12:26:57

人工智能OpenAIAI

2023-06-12 13:13:26

2023-10-10 14:00:00

AI模型

2023-12-27 13:46:00

2023-10-30 17:14:59

AI模型

2024-03-22 13:05:55

模型訓(xùn)練

2020-07-31 09:42:18

AI 數(shù)據(jù)人工智能

2023-04-04 14:24:25

深度學(xué)習(xí)技術(shù)

2023-05-25 14:05:48

圖靈論文

2021-07-21 16:56:33

人工智能機(jī)器學(xué)習(xí)技術(shù)

2025-04-15 03:43:00

2021-09-23 09:35:00

編程技能開(kāi)發(fā)

2022-10-17 15:04:40

量子計(jì)算

2024-10-14 13:45:00

AI模型

2020-12-24 13:08:33

計(jì)算機(jī)互聯(lián)網(wǎng) 技術(shù)

2021-09-02 16:10:21

人工智能機(jī)器學(xué)習(xí)技術(shù)

2023-04-25 13:46:42

AI開(kāi)源

2021-11-23 09:34:50

深度學(xué)習(xí)編程人工智能

2023-08-22 14:06:27

AI智能

2024-08-06 13:13:46

點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)