自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

AI也有健忘癥?英國41歲教授專訪:解決災(zāi)難性遺忘

人工智能
近日,來自羅切斯特大學(xué)的41歲計算機(jī)科學(xué)家Christopher Kanan在專訪中表示,自己正在構(gòu)建可以讓AI隨著時間的推移而不斷學(xué)習(xí)的算法——就像我們?nèi)祟愐粯印?/div>

?如何實現(xiàn)持續(xù)學(xué)習(xí),讓AI不斷片?

近日,來自羅切斯特大學(xué)的41歲計算機(jī)科學(xué)家Christopher Kanan在專訪中表示,自己正在構(gòu)建可以讓AI隨著時間的推移而不斷學(xué)習(xí)的算法——就像我們?nèi)祟愐粯印?/p>

圖片

災(zāi)難性遺忘

眾所周知,AI在經(jīng)過訓(xùn)練之后可以很好地完成「考試范圍內(nèi)」的任務(wù),但是這些算法卻不能像人類那樣不斷用新信息更新知識庫。

為了學(xué)習(xí)哪怕是一個新的東西,算法也必須從頭開始訓(xùn)練,而代價就是忘記它之前已經(jīng)學(xué)習(xí)過的幾乎所有內(nèi)容。如此帶來的問題就是——「災(zāi)難性遺忘」(Catastrophic Forgetting)。就像你遇到一個新朋友,你唯一能知道她名字的方法就是重啟你的大腦。

之所以會出現(xiàn)這種情況,要歸咎于神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)新事物的方式。這些算法的學(xué)習(xí)需要改變神經(jīng)元之間的連接強(qiáng)度,然而這同時也代表了過去的知識,因此過多地改變連接就會導(dǎo)致遺忘。

生物神經(jīng)網(wǎng)絡(luò)已經(jīng)進(jìn)化了數(shù)億年的策略,以確保重要信息保持穩(wěn)定。但是今天的人工神經(jīng)網(wǎng)絡(luò)很難在新舊知識之間取得良好的平衡。當(dāng)網(wǎng)絡(luò)看到新數(shù)據(jù)時,它們的連接很容易被覆蓋,這可能導(dǎo)致突然而嚴(yán)重的無法識別過去的信息。

1. 您在哲學(xué)方面的學(xué)習(xí)對你思考研究的方式產(chǎn)生了哪些影響呢?

哲學(xué)教會你的是,「如何提出合理的論點」和「如何分析他人的論點?」

我的實驗室受到這個問題的啟發(fā):如果我們不能做 X,我們怎么能做 Y?

我們會隨著時間的推移而學(xué)習(xí),但神經(jīng)網(wǎng)絡(luò)不會,他的知識量是固定的。那么如果人類未來要想制造通用人工智能,這是必須解決的基本問題。

圖片

Kanan的研究筆記

2. 學(xué)術(shù)界目前對災(zāi)難性遺忘的解決進(jìn)展如何?

目前最成功的方法叫做重放(Replay),這樣可以存儲過去的知識,然后在訓(xùn)練過程中用新的數(shù)據(jù)集重放,這樣原始信息就不會丟失。

這個方法的靈感來自我們大腦中的記憶鞏固過程(Memory Consolidation),睡眠過程中一天的學(xué)習(xí)的內(nèi)容被重新編碼,并隨著神經(jīng)元激活而被重放。

圖片

換句話說,新的學(xué)習(xí)并不能完全根除算法過去的知識。

有三種方法可以實現(xiàn)這一點。

  • 最常見的方法是「真實回放」,研究人員存儲原始輸入的子集——例如,用于對象識別任務(wù)的原始圖像——然后將這些存儲的過去圖像與學(xué)習(xí)的新圖像混合。
  • 第二種方法是重放圖像的壓縮表示。
  • 第三種不太常見的方法是「生成回放」。

在這里,人工神經(jīng)網(wǎng)絡(luò)實際上生成了過去經(jīng)驗的合成版本,然后將該合成示例與新示例混合。我的實驗室專注于后兩種方法。

3. 如果我們能夠徹底解決災(zāi)難性遺忘,這是否意味著人工智能可以隨著時間的推移不斷學(xué)習(xí)新事物?

不完全是。我認(rèn)為持續(xù)學(xué)習(xí)領(lǐng)域的開放性問題并不是災(zāi)難性遺忘。

我真正感興趣的是:

過去的學(xué)習(xí)如何讓未來的學(xué)習(xí)更有效率?未來的學(xué)習(xí)如何糾正過去的學(xué)習(xí)?這些是很少人衡量的東西,我認(rèn)為這樣做是推動該領(lǐng)域向前發(fā)展的關(guān)鍵部分,因為實際上,這不僅僅是忘記一些東西,而是關(guān)于如何成為一個更好的學(xué)習(xí)者。

Christopher Kanan表示:

與現(xiàn)代神經(jīng)網(wǎng)絡(luò)相比,我們的頭腦中發(fā)生的事情肯定要多得多。我們需要建立正確的實驗和算法設(shè)置來衡量過去的學(xué)習(xí)是否有助于未來的學(xué)習(xí)。而目前最大的問題是我們沒有很好的數(shù)據(jù)集來研究持續(xù)學(xué)習(xí),我們基本上是在使用傳統(tǒng)機(jī)器學(xué)習(xí)中使用的現(xiàn)有數(shù)據(jù)集并將其重新開發(fā)。

一般來說,機(jī)器學(xué)習(xí)的常規(guī)操作是我們有一個訓(xùn)練集和一個測試集——我們在訓(xùn)練集上訓(xùn)練,在測試集上進(jìn)行測試。

但持續(xù)學(xué)習(xí)打破了這些規(guī)則,它讓訓(xùn)練集會隨著訓(xùn)練者的學(xué)習(xí)而發(fā)展,因此我們需要一個非常好的持續(xù)學(xué)習(xí)環(huán)境。

4. 理想的持續(xù)學(xué)習(xí)環(huán)境應(yīng)該是什么樣的?

告訴你它不是什么比告訴你是什么更容易。

我可以告訴你它可能具有的屬性。所以現(xiàn)在,讓我們假設(shè)人工智能算法不是模擬中的具身智能。然后至少,理想情況下,我們正在從視頻中學(xué)習(xí),或者類似的東西,比如多模態(tài)視頻流,并希望做的不僅僅是靜態(tài)圖像的分類。

有很多關(guān)于這方面的開放性問題。幾年前我參加了一個持續(xù)學(xué)習(xí)研討會,一些像我這樣的人說,「我們必須停止使用一個叫做MNIST的數(shù)據(jù)集,它太簡單了。」然后有人說,「好吧,那我們就對星際爭霸進(jìn)行增量學(xué)習(xí)?!?/p>

出于各種原因,我現(xiàn)在也在這樣做,但我認(rèn)為還不足以真正地解決這個問題。畢竟,生活比學(xué)習(xí)玩星際爭霸要豐富得多。

5. 您的實驗室如何嘗試設(shè)計可隨時間推移不斷學(xué)習(xí)的算法?

我和我以前的學(xué)生Tyler Hayes一起開創(chuàng)了一項有關(guān)類比推理的持續(xù)學(xué)習(xí)研究,這篇文章也同時發(fā)表在CVPR 2021上。

圖片

論文鏈接:https://openaccess.thecvf.com/content/CVPR2021W/CLVision/html/Hayes_Selective_Replay_Enhances_Learning_in_Online_Continual_Analogical_Reasoning_CVPRW_2021_paper.html

我們認(rèn)為這將是研究遷移學(xué)習(xí)(Transfer Learning)理念的好領(lǐng)域,因為我們現(xiàn)在需要使用更復(fù)雜的技能來解決更復(fù)雜的問題。

具體來說,我們對后向遷移(Backward Transfer)的數(shù)據(jù)進(jìn)行了測量,即過去學(xué)習(xí)的東西在未來對你有多大幫助,反之亦然。

我們發(fā)現(xiàn)了很好的遷移證據(jù),比對象識別這樣的簡單任務(wù)重要得多。

6. 你認(rèn)為人工智能真的會像人類一樣學(xué)習(xí)嗎?

我想他們會的。許多極具天賦的人在這個領(lǐng)域朝著這個目標(biāo)邁進(jìn)。

但我們需要的是創(chuàng)造力。機(jī)器學(xué)習(xí)社區(qū)的很多研究都是在前人研究的基礎(chǔ)上做一些小改進(jìn),真正變革性的研究不多。

但是這一天一定會到來的,只是時間早晚問題。

Christopher Kanan

Christopher Kanan是羅切斯特大學(xué)計算機(jī)科學(xué)的終身副教授。主要的工作方向是深度學(xué)習(xí)的基礎(chǔ)研究,包括持續(xù)學(xué)習(xí),人工智能的偏見,醫(yī)學(xué)計算機(jī)視覺,以及語言引導(dǎo)的場景理解。

圖片

Kanan曾從事在線持續(xù)學(xué)習(xí)、視覺問題回答、計算病理學(xué)、語義分割、物體識別、物體檢測、主動視覺、物體跟蹤等工作。除了機(jī)器學(xué)習(xí),他在眼球追蹤、靈長類動物視覺和理論神經(jīng)科學(xué)方面也有深厚的背景。

在此之前,他是羅切斯特理工學(xué)院(RIT)卡爾森影像科學(xué)中心的一名終身副教授。在職期間,他和同事共同創(chuàng)建了人類意識人工智能中心(CHAI),并擔(dān)任了四年的副主任。此外,Kanan還曾是康奈爾科技大學(xué)的客座副教授,為每年約100名研究生教授了4年的深度學(xué)習(xí)課程。

圖片

Christopher Kanan在俄克拉荷馬州農(nóng)村的一個小鎮(zhèn)上長大。

1996年的時候,他就開始探索人工智能了,還在讀高中的Kanan自制了很多「bot」來玩在線多人計算機(jī)游戲。

2002年,Kanan考入俄克拉荷馬州立大學(xué)(OSU)主修哲學(xué)和計算機(jī)科學(xué)雙學(xué)位,并于2004年獲得學(xué)士學(xué)位。

2006年,在南加州大學(xué)(USC)獲得了計算機(jī)科學(xué)獲得碩士學(xué)位,主要研究人工智能和神經(jīng)科學(xué),并與計算神經(jīng)科學(xué)和神經(jīng)網(wǎng)絡(luò)的先驅(qū)Michael Arbib一起工作。2013年,在加州大學(xué)圣地亞哥分校(UCSD)獲得計算機(jī)科學(xué)博士學(xué)位。畢業(yè)后,Kanan又到加州理工學(xué)院從事博士后研究。

圖片

參考資料:https://www.quantamagazine.org/the-computer-scientist-trying-to-teach-ai-to-learn-like-we-do-20220802/?

責(zé)任編輯:未麗燕 來源: 新智元
相關(guān)推薦

2024-12-17 12:08:21

IAA多模態(tài)LLM

2023-05-03 20:59:51

ChatGPTRMT模型

2014-12-04 10:05:18

2025-04-29 07:00:00

2023-09-28 08:23:18

AI模型

2021-04-04 22:39:50

Ubiquiti數(shù)據(jù)泄漏黑客

2024-03-01 13:31:21

2015-06-01 15:25:06

Oracle數(shù)據(jù)庫災(zāi)難恢復(fù)

2016-11-14 13:56:14

2022-11-03 13:47:26

云遷移云計算轉(zhuǎn)型

2015-06-05 10:13:09

2018-06-12 00:33:20

AI機(jī)器學(xué)習(xí)人工智能

2023-11-06 16:04:40

人工智能網(wǎng)絡(luò)安全

2018-10-24 09:54:37

GitHub宕機(jī)程序員

2013-04-16 10:21:23

Windows 8Vista

2023-03-28 08:00:00

2022-06-15 14:59:11

AIMIT

2014-08-01 10:26:08

2019-10-11 14:36:47

大數(shù)據(jù)網(wǎng)絡(luò)安全軟件

2020-08-18 07:00:00

云計算混合云數(shù)據(jù)
點贊
收藏

51CTO技術(shù)棧公眾號