自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

何愷明做科研也emo!最新QA完整版在此

人工智能 新聞
片段視頻可謂是發(fā)一個火??一個,網(wǎng)友們也上演了一出大型追劇現(xiàn)場,看得那叫一個津津有味。

AI大牛何愷明的一句話火了,他說:

科研中95%的時間是令人沮喪的。

什么???就連何愷明都覺得科研很煎熬?

沒錯,此話正是他最近在香港中文大學(xué)參加一個講座過程中所述:

圖片

△小紅書@阿巴阿巴(已授權(quán))

而這只是何愷明這次講座內(nèi)容中的一小部分,隨著網(wǎng)友們陸陸續(xù)續(xù)把其它片段po到小紅書上,關(guān)于他此次所談及的話題也逐漸清晰了起來——

有關(guān)科研,有關(guān)大模型,還有關(guān)AI for Science。

總而言之,片段視頻可謂是發(fā)一個火??一個,網(wǎng)友們也上演了一出大型追劇現(xiàn)場,看得那叫一個津津有味。

圖片

現(xiàn)在,量子位給家人們找來了完整版視頻!??

我們在不改變原意的基礎(chǔ)上,就大家最為感興趣的問答環(huán)節(jié)進行了梳理。

何愷明完整版問題解答

圖片

大模型的未來:數(shù)據(jù)效益是個問題

Q:您剛剛(演講)展示的圖片,呈現(xiàn)了深度網(wǎng)絡(luò)加深時,性能先上升后下降的趨勢。

圖片

起初人們可能誤認為是過擬合導(dǎo)致的,就增加數(shù)據(jù)量,問題確實得到了改善。但又發(fā)現(xiàn)當(dāng)神經(jīng)網(wǎng)絡(luò)真的非常深入時,性能還是會再次下降。而你的研究揭示了這其實與某種優(yōu)化并不是最佳解決方案有關(guān),基本上涉及三大要素:數(shù)據(jù)量、網(wǎng)絡(luò)深度、模型復(fù)雜度及其優(yōu)化方式。

考慮到現(xiàn)如今的大模型數(shù)據(jù)量比以前要大得多,那么您認為可能存在哪些局限性?或者接下來應(yīng)該如何應(yīng)對數(shù)據(jù)模型復(fù)雜性和優(yōu)化帶來的挑戰(zhàn)?

何愷明:通常,我們認為增加網(wǎng)絡(luò)的深度和寬度是提高神經(jīng)網(wǎng)絡(luò)模型性能的方法。而在機器學(xué)習(xí)中,擬合與泛化之間存在權(quán)衡,也就是說要實現(xiàn)適當(dāng)?shù)臄M合并減少過擬合。

目前要想減少過擬合、提高泛化,最有效的方法就是增加數(shù)據(jù)量。

雖然大量數(shù)據(jù)的擬合和記憶仍是一個挑戰(zhàn),但大模型其實有足夠的能力做到這一點,事實也證明增加數(shù)據(jù)量是減少過擬合的最佳解決方案。

然而展望未來,數(shù)據(jù)帶來的效益是否會降低是個問題。

比如說,語言數(shù)據(jù)不是憑空產(chǎn)生的,而是由人類創(chuàng)造出來的。你在寫一些新的文本時,是帶有想分享信息、創(chuàng)作新知識等某種目的的。所以文本數(shù)據(jù)中的信息可能比許多其它形式的數(shù)據(jù)中的信息都要更豐富。

而一張新的照片可能并不會增加太多新的信息。盡管它看起來可能包含更多的信息,但實際上你每天用手機拍攝的內(nèi)容也許只是你的食物或是自拍。

所以不同類型的數(shù)據(jù)所含信息量不同,繼續(xù)增加數(shù)據(jù)的回報可能會有所減少。我認為這將是未來的一個開放性的問題。

Q:您提到如今深度學(xué)習(xí)像是殘差學(xué)習(xí)已廣泛應(yīng)用于多個領(lǐng)域,例如AlphaGo和AlphaFold等。

圖片

回顧一二十年前,研究人員會專注于研究每一個具體的小問題,手動設(shè)計各種算法。但現(xiàn)如今,大部分問題都是由更通用的模型來學(xué)習(xí)解決的。

那么您認為未來的發(fā)展趨勢是會出現(xiàn)一個能夠處理大多數(shù)任務(wù)的大型預(yù)訓(xùn)練模型,而我們只需對其進行微調(diào)來適應(yīng)特定的任務(wù)?還是說仍然有一些問題需要手動設(shè)計或用更具體的領(lǐng)域知識來解決?

何愷明:我認為這兩個方向?qū)桨l(fā)展。

在自然語言處理中,預(yù)訓(xùn)練模型基本上是默認方法。但在計算機視覺領(lǐng)域,情況稍有不同,因為人們還沒有提出一個好的想法來開發(fā)所謂的視覺基礎(chǔ)模型。

這或許是因為視覺任務(wù)更為多樣化,而且更重要的是,語言是人類智慧的產(chǎn)物,而像素則來自于自然,這是語言和圖像之間的本質(zhì)區(qū)別。

展望未來,我們希望神經(jīng)網(wǎng)絡(luò)能夠處理更多的問題,比如科學(xué)問題、蛋白質(zhì)、分子、材料,甚至是在數(shù)學(xué)、化學(xué)和物理中推導(dǎo)方程。

我們希望有通用基礎(chǔ)模型來解決大部分問題,但同時也期望有專家模型在特定領(lǐng)域推動技術(shù)進步。

Q:您認為AI距離能夠進行抽象數(shù)學(xué)研究還有多遠?如果我們繼續(xù)沿著現(xiàn)在的方向前進,我們最終會到達那個目標嗎?或者您認為兩者之間存在一個根本的鴻溝嗎?

何愷明:坦白說我并不是這個方向的專家,但是可能有兩種方法可以實現(xiàn)。一種是只是訓(xùn)練一個大模型,然后希望這個模型能夠自行解決問題,但我不認為這是一個有前景的方向。

另一個方向是,如果你為大模型配備了一些代碼等能力,比如ChatGPT代碼解釋器。也就是說允許語言模型編寫代碼,這些代碼可以進行一些計算或是符號操作,然后那種計算可以給模型提供反饋。這樣的話,模型可以決定下一步要做什么。我認為這是一個更有前景的方法。

我們也可以考慮這樣一個情境,如果我們回到牛頓時代,我們有那個時代的所有文本和數(shù)據(jù),并且在那個時代訓(xùn)練了一個大語言模型,有一天這個模型是否可以告訴我們牛頓定律?

如果我們能做到這一點,那么如果我們只給它今天的數(shù)據(jù),它會告訴我們一些還不知道的定律嗎?我認為這是非常高水平的人工智能。這是一個終極目標。

Q:您如何看待AI在藝術(shù)和人文學(xué)科中的未來應(yīng)用?

何愷明:我不是這方面的專家??雌饋硭囆g(shù)和人文真的是人類大腦中非常特殊的領(lǐng)域。我認為問題應(yīng)該是,人類大腦與AI之間的根本區(qū)別是什么。

如果有一天我們可以物理地復(fù)制我們的大腦,但我們稱其為機器,那么那個大腦所做的事情可以稱之為藝術(shù)或人文嗎?還是我們應(yīng)該繼續(xù)稱其為人工輸出呢?我認為這是一個哲學(xué)問題,更像是一個科幻問題。

未來三年研究重點:視覺自監(jiān)督學(xué)習(xí)

Q:您未來三年的研究重點是什么?

何愷明:基本上,我會做所有事情。如今自然語言處理取得了很大成功,因為人們可以在語言數(shù)據(jù)上進行自監(jiān)督學(xué)習(xí),但計算機視覺尚未完全解決這一問題。

所以,我一直努力讓計算機視覺復(fù)制這種成功,也就是說我想讓視覺自監(jiān)督學(xué)習(xí)也取得成功。

那么,成功的定義是什么呢?我希望看到與語言模型相同的規(guī)模效應(yīng):只是增加模型的大小、數(shù)據(jù)量,就能看到視覺模型具有更強大的能力。

不幸的是,這種情況尚未實現(xiàn)。如今,語言模型非常成功,視覺加上語言也非常成功。但對于計算機視覺來說,這還沒有實現(xiàn)。所以,這將是我接下來三年,甚至可能是我整個職業(yè)生涯的研究重點。

Q:您提到想要探索圖像領(lǐng)域的自監(jiān)督。在自然語言處理中,句子詞匯中已經(jīng)包含了一些語義知識,但在圖像中像素只是像RGB這樣,實際上不包含任何語義知識,它們來自自然。

所以我想知道,是否有只來自于圖像本身的監(jiān)督?我也想知道如何定義這種自監(jiān)督?

何愷明:我認為這是語言與視覺之間的根本區(qū)別,這也是我們想要解決但迄今尚未能解決的主要問題。我認為表示學(xué)習(xí)中最困難的部分是如何在語言問題中進行抽象和壓縮,這部分工作人類已經(jīng)完成了。

圖像這方面,來自傳感器的輸入比語言更加自然,因此模型需要自己來完成壓縮和抽象的工作,這仍然是一個未解決的問題。

另一方面,我也認為僅從像素或圖像、視頻中進行自監(jiān)督學(xué)習(xí)是不夠的。比如動物可以看到這個世界,但動物也會從這個世界中獲得其它反饋。所以它們可以采取行動,可以為了生存尋找食物、逃離捕食。所以它們有很多其它形式的信號、監(jiān)督或從環(huán)境中獲得的獎勵,并不僅僅是視覺。

然后,我認為我們現(xiàn)在的視覺系統(tǒng)缺乏來自環(huán)境的反饋,這可能是視覺自監(jiān)督學(xué)習(xí)的下一個研究主題。

選擇課題的標準:好奇心和熱情

Q:如何找到一個好的研究課題,可以發(fā)表為CVPR的那種?

何愷明:我認為發(fā)表不應(yīng)該是最終的目標。發(fā)表應(yīng)該是研究成果的起點,但不是終點。你的論文生命周期從發(fā)表的那一刻開始,我希望你能有這樣的預(yù)期。

但我還是會回答如何選擇研究課題,并希望你能將其發(fā)表。

我認為選擇課題最重要的標準是你對問題的好奇心和熱情。

好奇心是人類推進科學(xué)進步、探索未知問題的根本原因。我不關(guān)心是否發(fā)表,我只關(guān)心為什么這個問題會這樣表現(xiàn),我只關(guān)心我如何解決這個問題。如果我發(fā)現(xiàn)了答案,那么可能就有了一篇論文;如果我沒能解決,那么也許只是有一篇小幅進展的論文,但那都不重要。

好奇心和熱情才應(yīng)該是我們研究生涯的重心。

Q:您在研究中是如何保持好奇心和熱情的?對我來說,如果我發(fā)現(xiàn)實驗中出現(xiàn)了錯誤,我必須重新進行所有實驗,那真的很崩潰。

何愷明:我認為研究本就充滿了挫折、失敗和沮喪。實際上,它包含了你能想到的所有負面詞匯,這就是事實。如果你沒有經(jīng)歷過這些,那意味著你并沒有進行最好的研究。

我的生活就是這樣,我有大約95%的時間都很失望,然后我會花5%的時間完成那篇論文,接著進入下一個循環(huán),不斷經(jīng)歷沮喪、挫敗和焦慮,直到下一項工作完成。享受那5%的時光,如此反復(fù)。

“AI將成為幾乎所有事情的基礎(chǔ)工具”

Q:我聽說您打算研究AI for Science,我對此非常感興趣。比如說,各學(xué)科領(lǐng)域的人都學(xué)習(xí)AI,然后用這些模型進行一些研究;計算機科學(xué)領(lǐng)域的人也與其他科學(xué)領(lǐng)域的人合作發(fā)表論文。您對此有什么看法呢?

何愷明:我相信AI會成為幾乎所有領(lǐng)域的基礎(chǔ)工具?;叵爰s四五十年前,那時幾乎沒有計算機科學(xué)系,你可能需要在專門的計算機科學(xué)機構(gòu)里學(xué)習(xí)一些有關(guān)計算機科學(xué)的知識。

但現(xiàn)在想想,基本上每一個學(xué)科都與某種計算、計算機程序、模擬、數(shù)據(jù)分析有關(guān)。因此,計算機科學(xué)現(xiàn)在實際上幾乎是每一個學(xué)科、每一個領(lǐng)域的工具。

所以,我預(yù)測在接下來的十年或是二十年內(nèi),AI將是下一代計算機科學(xué),AI將成為幾乎所有事情的基礎(chǔ)工具。也許你不需要擁有一個有關(guān)AI的學(xué)位,也不需要進入一個專門的AI機構(gòu)來學(xué)習(xí)有關(guān)AI的知識,但你會在你的科學(xué)問題中用AI發(fā)現(xiàn)新的模式、新的行為、新的現(xiàn)象。

我非常期待這一切的發(fā)生,這是我的目標,也是我對AI for Science的期望。

Q:您剛剛提到了這方面可能會產(chǎn)生的一些具體的應(yīng)用。但是對于某些領(lǐng)域來說,數(shù)據(jù)量可能較小,數(shù)據(jù)質(zhì)量可能也很低,這種情況您怎么看?

何愷明:數(shù)據(jù)量的大小都是相對的。比如圖像數(shù)據(jù)集,按照一二十年前的標準看現(xiàn)在的數(shù)據(jù)集可能是龐大的,但按今天的標準看它們相對較小。

我認為數(shù)據(jù)量的大小和相關(guān)的算法是相輔相成的,它們以一種螺旋式的方式相互促進。

也就是說,如果你有一定量的數(shù)據(jù),你就會為它們開發(fā)算法。而當(dāng)你發(fā)現(xiàn)你的算法可以從更多的數(shù)據(jù)中受益時,你可能會開始收集更多的數(shù)據(jù),然后再根據(jù)新數(shù)據(jù)改進你的算法,如此往復(fù)。

所以,我認為這既是數(shù)據(jù)問題,也是算法問題。

Q:我看到ResNet的關(guān)鍵在于最大化地保持信號,我對此很感興趣。我正在研究構(gòu)建光子神經(jīng)網(wǎng)絡(luò),發(fā)現(xiàn)它與模擬計算非常吻合,我們應(yīng)該最大限度地保持信號強度,我認為這是很有創(chuàng)意的,殘差學(xué)習(xí)在模擬計算中將具有巨大的潛力。您對此有什么看法?

何愷明:我不確定我是否正確地理解了你的問題。我的評論是這樣的,當(dāng)今的人工神經(jīng)網(wǎng)絡(luò)最初是受到生物神經(jīng)網(wǎng)絡(luò)的啟發(fā),但隨后這兩個方向開始發(fā)散。

人工神經(jīng)網(wǎng)絡(luò)是專門為某些應(yīng)用或數(shù)據(jù)集而設(shè)計的,有的可能不具有生物學(xué)起源,像殘差連接就是這樣的。

但有趣的是,實際上還有許多并行的研究是關(guān)于映射人腦或動物腦中的連接模式。相關(guān)研究有時被稱為“連接學(xué)”之類的術(shù)語。

人們在那些人類或動物的神經(jīng)網(wǎng)絡(luò)中發(fā)現(xiàn)了與當(dāng)今最先進的人工神經(jīng)網(wǎng)絡(luò)非常相似的模式。這些模式包括長距離跳過連接、循環(huán)連接和其他類型的反饋連接。

所以我認為人工智能與認知科學(xué)或腦科學(xué)可以相互受益。人腦中的發(fā)現(xiàn)可以啟發(fā)我們的AI設(shè)計。但另一方面,AI網(wǎng)絡(luò)中的成功實踐也可以啟發(fā)科學(xué)家更好地解釋我們的大腦。

用疑問解答AI模型可解釋性問題

Q:我的問題是關(guān)于AI模型的可解釋性。我發(fā)現(xiàn)一些AI模型表現(xiàn)得非常好,在某些指標上可以超越人類。然而,我們?nèi)绾谓忉孉I模型的整體行為呢?我們是否可以對AI模型進行準確的預(yù)測,以及我們的AI模型是否真的可以變得非常可靠?我想知道您如何看待這個問題。

何愷明:我想問你一個問題,當(dāng)你乘坐出租車時,為什么你會信任一個人類司機?這位司機一般對你來說是個陌生人,你并不了解他,你只知道他是個人類。

你會信任他是因為你覺得他的大腦是可以解釋的?還是因為你認為一個經(jīng)過良好培訓(xùn)、有豐富實踐經(jīng)驗的人類司機在實際操作中大概率會做得很好?

我并不需要你的答案,這是我的疑問。人們也問過同樣的問題。為什么我們信任飛機?是因為我們有足夠的物理定律或數(shù)學(xué)推導(dǎo)可以確保飛機在空中飛行,還是因為飛機已經(jīng)在空中被測試了數(shù)百萬次?

所以我相信,可解釋性是一個非常好的屬性,我真心鼓勵大家去追求它。但另一方面,我們需要認識到,我們系統(tǒng)的成功大部分也是基于實證來推動或驗證的。

One More Thing

何愷明博士畢業(yè)12年,再回港中文,校友們激動追星,會廳外面排滿了人。

有人表示提前一個小時去都搶不到位置:

前不久何愷明在美國MIT開展求職演講時,也是同樣的場面。身處現(xiàn)場的聽眾朋友傳消息道,有同學(xué)提前3個小時已經(jīng)蹲在門口排隊了。

演講開始前半個小時,門口的隊伍據(jù)說都打了好幾個彎……

圖片

果然,AI大牛何愷明走到哪兒火??到哪兒。

視頻鏈接:https://cutv.cpr.cuhk.edu.hk/detail/1572?t=dr-kaiming-he-2023-future-science-prize-laureates-lecture

責(zé)任編輯:張燕妮 來源: 量子位
相關(guān)推薦

2020-11-11 00:40:35

云計算混合云私有云

2023-07-31 11:20:18

AI研究

2022-04-01 15:10:28

機器視覺人工智能目標檢測

2010-04-26 01:07:07

雙線負載均衡

2020-11-01 17:01:00

Python字典開發(fā)

2022-09-06 14:57:27

物聯(lián)網(wǎng)物聯(lián)網(wǎng)安全

2010-09-14 14:07:56

2009-03-11 08:46:46

Chrome瀏覽器更新

2025-04-17 08:45:04

2011-07-01 10:23:41

Ubuntu Qt Creator

2015-07-10 09:47:43

CSSMacBook Air

2010-09-17 17:24:44

2017-07-20 10:35:51

2009-06-04 07:47:54

Struts 2權(quán)威指源碼

2019-01-23 08:48:50

跨域協(xié)議端口

2011-09-19 16:17:02

Java

2017-07-19 16:17:53

2021-11-15 09:51:58

模型人工智能論文

2010-09-28 12:56:33

2010-09-16 13:57:53

點贊
收藏

51CTO技術(shù)棧公眾號