活久見!AI巨佬為“人類滅絕論”正面開撕,Hinton吳恩達LeCun下場,馬斯克強勢圍觀
活久見,AI巨佬們擼起袖子線上“對噴”,一“架”直接干上熱搜了。
Big name一個接一個出現(xiàn)不說:
吳恩達、Hinton、LeCun、哈薩比斯……甚至吵到穩(wěn)如Hinton,都開麥陰陽怪氣起來:
是是是,好人力量大,我們應該把核武器也給開源了。
搞得如此面紅耳赤,為的還是“大模型會不會毀滅人類”這個熱點話題。
反方一派,矛頭直指科技巨頭搞壟斷。吳恩達就言辭犀利地指出:
某些人傳播(AI滅絕人類的)恐懼,只是為了搞錢。
正方這邊也不甘示弱,最新消息是,被指“搞錢派”代表人物的DeepMind CEO哈薩比斯正面回懟:
這不是恐嚇。AGI的風險如果不從現(xiàn)在就開始討論,后果可能會很嚴重。
我不認為我們會想在危險爆發(fā)之前才開始做防范。
總之,場面很火爆,網(wǎng)友很興奮。連馬斯克都忍不住第一時間前排圍觀。
還有不少網(wǎng)友激動地搓手手:
這種場面還是第一次見,支持大家吵起來,真理越辯越明。
大佬們吵成這樣,又究竟吵出了些啥?板凳已經(jīng)擺好,一起來看。
現(xiàn)場還原:三大回合battle
這一場大戰(zhàn)的直接“著火點”是吳恩達昨晚的公開發(fā)言:
你們知道嗎?我對AI的最大擔憂其實是,AI風險被過度鼓吹,導致開源和創(chuàng)新被嚴苛規(guī)定所壓制。
說罷,吳恩達還附上一篇長文進行詳細論述。
他表示,近幾個月來,他都在關(guān)注AI可能導致人類滅絕風險的觀點。
然而仔細評估其論點,都覺得它們“模糊且不具體”。
我無法證明AI不會導致人類滅絕。我也不懷疑一部分持該觀點的人是真心為人類擔憂。
但,他認為,一部分人非常賣力地傳播這樣的擔憂其實只是為了“錢”,比如:
- 個人可以從中博取關(guān)注,到處去演講收取出場費或其他費用;
- 非營利組織則能以對抗這種風險為由籌集資金;
言外之意,這有點“科技陰謀”的意思。
在文中,吳恩達還呼吁,大家應該多多宣揚對AI的積極看法,不要傳播未經(jīng)證實的擔憂導致強監(jiān)管的出現(xiàn),阻礙技術(shù)進步。
很快,這條帖子就引起了Hinton的注意。
作為堅定的“AI有風險派”,他第一個不同意吳恩達。直接開帖“回懟”:
你說這是科技陰謀?那我離開谷歌干什么??
一場巨佬們的對噴就此展開。
Round 1:Hinton vs 吳恩達
看到Hinton的“質(zhì)問”之后,吳恩達完全沒有就此打住,在評論區(qū)“回敬”:
先是解釋稱“我沒說這是一個陰謀”。
接著反問:你知道這種過度擔憂已經(jīng)造成真正的傷害了嗎?
一是已經(jīng)有一些年輕學生不愿進入該行業(yè),因為他們說不想為滅絕人類作出貢獻;二是宣傳得越兇,全球范圍內(nèi)的監(jiān)管就越嚴格,這是在破壞開源并扼殺創(chuàng)新。
不過最后,吳恩達緩和了一把氣氛:
我知道你的擔憂是真誠的,但總的來說,這種擔憂還是弊大于利。
Round 2:LeCun vs Hinton
是的,LeCun也迅速加入了戰(zhàn)局,并且面對老友完全沒有口下留情:
正是你和Yoshua的言論,才讓那些想通過禁止開源來保護自己的AI研究和業(yè)務的人“得逞”。后果很嚴重。
事實上,力挺吳恩達屬于“事出有因”,早在此之前,LeCun就已看Yoshua等人“不爽”了:
你們啊,天天鼓吹這些言論,就是在給那些游說禁止開放人工智能研究技術(shù)的人提供彈藥。
如果你們真的成功了,一場“少數(shù)公司控制人工智能”的災難恐怕就要臨頭了。
他還直接點名了這些“少數(shù)公司”:
OpenAI、DeepMind、Anthropic——這些公司的CEO被指正在搞“大規(guī)模企業(yè)游說”,試圖加強對AI行業(yè)的監(jiān)管。
這個帖子獲得了大量點贊支持。
而更早一點,LeCun也轉(zhuǎn)發(fā)了關(guān)于“大家應該做的,不是在這限制通用/基礎大模型技術(shù)的研究,而是該去規(guī)范其應用”的帖子。
并有些生氣地表示:
我都說多少年了。
Round 3:Hinton“1打2”
這還沒完。在這倆回合之后,Hinton又以1打2挑起了新問題。我們姑且叫它Round 3。
你說AI不該被嚴格監(jiān)管,那你知道它未來30年來導致人類滅絕的概率是多少嗎?
如果吳恩達你是真正的貝葉斯主義者,你應該能夠給出一個數(shù)字。我目前的估計是0.1。我懷疑LeCun也就不到0.01。
對此,LeCun直接亮出答案:
零點幾不知道,反正比大多數(shù)其他會導致人類滅絕的風險要低得多。
為什么?因為不像某種無法阻止的自然現(xiàn)象,我們?nèi)祟愒谶@方面有代理權(quán)。
并且說不定,AI實際上還能拯救人類免于滅絕呢。
Hinton對此并未回復。
對了,開頭提到的Hinton的反唇相譏,也是針對LeCun的發(fā)言。
LeCun跟吳恩達一樣,也關(guān)注到了開源力量的問題:
如果SkyNet是開源的,那么《終結(jié)者》的故事還會發(fā)生嗎?
而對于Hinton拿出核武器來和AI做類比,LeCun和fast.ai創(chuàng)始人Jeremy Howard都不能茍同:
我不明白這兩者之間有什么相關(guān)性。
不過另一邊,DeepMind CEO哈薩比斯隔空支持了Hinton。
他在接受CNBC的最新采訪中直接表示非常不同意LeCun的大部分觀點。
我們非常支持開放AI平臺,因為我們也相信“人多力量大”。但現(xiàn)在我們需要處理AI已經(jīng)產(chǎn)生的有害操作,不然就會被不安好心的人濫用。
更長期的風險我們也考慮了,我們必須確保AI可控,不能等危險來臨前才開始。
可以說,這場大戰(zhàn)雙方是各執(zhí)一詞,誰也說服不了誰。
值得一提的是,在中途中,馬斯克也來圍觀了一把,他沒有明確站隊,而是表示:
真正的戰(zhàn)斗是在滅絕論者和人文主義者之間。
一旦你注意到了這場戰(zhàn)斗,就沒法對此視而不見。
還很亢奮的LeCun再次在帖子下聲明自己的立場,還問老馬站哪邊。
咳咳,有網(wǎng)友替答:馬斯克是超人類主義者。(手動狗頭)
行業(yè)大佬聚焦AI風險
這場“激戰(zhàn)”在馬斯克的X上可以說是吸引了全行業(yè)的圍觀。
不過實際上,爭論集中爆發(fā)之前,“AI風險”就已經(jīng)成為了行業(yè)大佬們關(guān)注的焦點話題之一。
就在前幾天,深度學習三巨頭之二Bengio和Hinton,已聯(lián)合姚期智、張亞勤等人工智能大拿,發(fā)表了一封公開信《在快速進步的時代管理人工智能風險(Managing AI RIsks in an Era of Rapid Progress)》。
文中談到:
2019年,GPT-2還沒法兒數(shù)到10。僅僅4年后,深度學習系統(tǒng)已經(jīng)可以自己編寫軟件、生成逼真場景、提供智能建議,結(jié)合語言和圖像處理來充當機器人的“大腦”了。
人工智能的進步非常迅速,令人驚訝,并且可能會繼續(xù)令人驚訝。
當前的深度學習系統(tǒng)仍然缺乏重要的能力,我們不知道開發(fā)它們需要多長時間。然而,各家公司都在競相創(chuàng)造在大多數(shù)認知工作中媲美甚至超越人類能力的通用人工智能系統(tǒng)。
簽名作者們認為,人類必須認真對待AGI在這10年或下一個10年內(nèi)在許多關(guān)鍵領域超越人類能力的可能。
公開信建議,監(jiān)管機構(gòu)應該對AI發(fā)展全面洞察,尤其警惕那些在價值數(shù)十億美元的超級計算機上訓練出來的大模型。
One More Thing
不過,吵架歸吵架,前不久,LeCun剛在推特上分享了他和Hinton、Bengio的合影,配文是:
即使在大事件上存在觀點分歧,人們?nèi)匀豢梢宰龊门笥选?/p>
那么,你支持哪方觀點呢?