自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

圖靈獎得主Hinton:我已經(jīng)老了,如何控制比人類更聰明的AI交給你們了

人工智能
AI究竟會在哪些場景下,給人類帶來重大危害、甚至導致人類滅絕,這是雙方需要達成的共識。

還記得大牛們就“AI是否可能滅絕人類”,分成了兩大陣營嗎?

由于并不理解為啥“AI會造成風險”,吳恩達最近開啟了一個對話系列,去找兩名圖靈獎得主聊聊:

AI究竟存在哪些風險?

圖片

有意思的是,在相繼和Yoshua Bengio以及Geoffrey Hinton進行深度對話后,他和他們“達成了不少共識”!

他們一致認為,雙方應該共同討論AI具體會產(chǎn)生什么風險,以及它究竟“理解了什么”。Hinton還特意cue了“反方代表”圖靈獎得主Yann LeCun:

學術(shù)界在這個問題上分歧太大了,包括我們非常尊重的學者如Yann,就認為大模型并不理解它自己在說什么。

馬斯克對這次談話也很感興趣:

圖片

除此之外,Hinton最近還在智源大會上再一次“布道”AI風險,表示比人更聰明的超級智能很快就會出現(xiàn):

我們不習慣思考比我們聰明得多的東西,以及如何與它們互動。

我現(xiàn)在看不出如何防止超級智能“失控”,而我已經(jīng)老了。我希望,更多年輕的研究人員能掌握控制超級智能的方法。

一起來看看這些對話的核心觀點,以及不同AI大牛針對這件事的看法。

吳恩達對話圖靈獎得主:AI安全應達成共識

首先是與Bengio的對話。吳恩達和他達成了一個關(guān)鍵共識,即:

科學家們應該試著找出“AI風險存在的具體場景”。

也就是說,AI究竟會在哪些場景下,給人類帶來重大危害、甚至導致人類滅絕,這是雙方需要達成的共識。

Bengio認為,AI前景充滿著“迷霧和不確定性”,因此找出一些AI具體帶來危害的場景是有必要的。

圖片

然后是與Hinton的對話,雙方達成了兩個關(guān)鍵共識。

一方面,所有科學家必須針對“AI風險”議題好好聊聊,以便于制定良好的政策;

另一方面,AI確實在理解世界??茖W家們需要列出其中的關(guān)鍵技術(shù)問題,這有助于在AI安全議題上達成共識。

圖片

在這個過程中,Hinton提到了需要達成共識的關(guān)鍵點,即“GPT-4和Bard這類對話大模型是否真的理解它們自己在說什么”:

有些人認為它們理解,有些人認為它們只是隨機鸚鵡。
我想我們都相信它們理解(自己在說什么),但一些我們非常尊重的學者如Yann,則認為它們并不理解。

當然,被“喊話”的LeCun也及時趕來,很認真地發(fā)表了自己的觀點:

圖片

我們都同意“大家需要就一些問題達成共識”這件事。我也同意Hinton的觀點,即LLM有一定的理解能力,說它們“只是統(tǒng)計數(shù)據(jù)”是誤導性的。
1、但它們對世界的理解非常膚淺,很大程度上是因為它們僅僅用純文本訓練。從視覺中學習世界如何運作的AI系統(tǒng),將對現(xiàn)實有更深入的理解,相比之下自回歸LLM的推理和規(guī)劃能力非常有限。
2、如果沒有下述條件,我不太相信會出現(xiàn)接近人類(甚至是貓)水平的AI:
(1)從視頻等感官輸入中學習的世界模型
(2)一個可以推理和規(guī)劃(而不僅僅是自回歸)的架構(gòu)
3、如果我們有了懂得規(guī)劃的架構(gòu),它們將是目標驅(qū)動的,即能基于優(yōu)化推理時間(而不僅僅是訓練時間)目標來規(guī)劃工作。這些目標可以是讓AI系統(tǒng)“聽話”且安全的護欄,甚至最終打造出比人類更好的世界模型。
然后,問題就變成了設(shè)計(或訓練)保證安全和效率的良好目標函數(shù)。
4、這是一個困難的工程問題,但沒有一些人所說的那么難。

雖然這一段回應仍舊只字未提“AI風險”,不過LeCun很實在地給出了提升AI安全性的建議(打造AI“護欄”),并設(shè)想了比人類更厲害的AI“長啥樣”(多感官輸入+可推理規(guī)劃)。

某種程度上來說,也算是雙方在AI存在安全問題這個觀點上達成了一些共識。

Hinton:超級智能比想象中更近

當然,不止是和吳恩達的對話。

最近離職谷歌的Hinton,在不少場合都談到了AI風險這一話題,其中也包括最近參加的智源大會。

在大會上,他以《通往智能的兩條路線》為主題,討論了“知識蒸餾”和“權(quán)重共享”兩種智能路線,以及如何讓AI變得更智能,以及自己對于超級智能出現(xiàn)的看法。

簡單來說,Hinton不僅認為(比人更智能的)超級智能會出現(xiàn),而且出現(xiàn)的時間比人們想象中更快。

不僅如此,他認為這些超級智能會失控,但目前他還想不到什么好的方法阻止它們:

超級智能可以通過操縱人來輕易獲得更多權(quán)力。我們不習慣思考比我們聰明得多的東西,以及如何與它們互動。但它會變得善于欺騙人,因為它能通過某些小說作品中學習欺騙他人的案例。

一旦它變得善于欺騙人,就能掌握讓人們做任何事的方法……我覺得這很可怕,但我看不出如何防止這種情況發(fā)生,因為我老了。

我希望,像你們這樣的年輕有才華的研究人員,會搞懂我們?nèi)绾螕碛羞@些超級智能,并讓我們生活得更好。

放映出“THE END”幻燈片時,Hinton意味深長地強調(diào)了一下:

這是我的最后一張PPT,也是這場演講的結(jié)束。

圖片

參考鏈接:
[1]https://twitter.com/AndrewYNg/status/1667920020587020290
[2]https://twitter.com/AndrewYNg/status/1666582174257254402
[3]https://2023.baai.ac.cn/

責任編輯:武曉燕 來源: 量子位
相關(guān)推薦

2023-05-04 10:05:30

離職谷歌

2023-04-04 14:24:25

深度學習技術(shù)

2023-10-30 17:14:59

AI模型

2022-02-18 09:53:17

AI芯片設(shè)計

2023-05-08 15:22:00

AI研究

2023-12-27 13:46:00

2024-12-31 12:26:57

人工智能OpenAIAI

2020-07-31 09:42:18

AI 數(shù)據(jù)人工智能

2020-12-23 15:26:48

AI 數(shù)據(jù)人工智能

2021-06-04 15:39:03

深度學習編程人工智能

2023-05-25 14:05:48

圖靈論文

2022-09-02 10:15:38

AI計算

2021-07-21 16:56:33

人工智能機器學習技術(shù)

2021-09-02 16:10:21

人工智能機器學習技術(shù)

2023-08-22 14:06:27

AI智能

2022-09-19 16:12:17

紅綠燈智能

2025-03-24 09:40:00

2023-06-12 15:58:24

智能演講

2025-04-15 03:43:00

2021-09-23 09:35:00

編程技能開發(fā)
點贊
收藏

51CTO技術(shù)棧公眾號