自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

港大馬毅:大模型長期沒有理論就像盲人摸象;大佬齊聚激辯AI下一步

人工智能 新聞
2024國際基礎科學大會“基礎科學與人工智能論壇”上,聯(lián)想集團CTO、歐洲科學院外籍院士芮勇此言一出,全場都有些緊張了起來。

“我想問在座一個問題,無論是求真書院還是丘成桐少年班的同學,如果這個問題都不知道,那你就不應該在這個班!”

2024國際基礎科學大會“基礎科學與人工智能論壇”上,聯(lián)想集團CTO、歐洲科學院外籍院士芮勇此言一出,全場都有些緊張了起來。

但緊接著,他拋出的問題卻是:13.11和13.8哪個大?

好家伙,就問誰還不知道這個梗。

不過,這次不是嘲笑模型失智。來自學界業(yè)界的幾位AI大牛,分析了模型“幻覺”等等一連串問題,引出了他們對“人工智能的下一步該怎么走”的看法。

圖片

總結(jié)來說,包括以下幾個觀點:

  • 大模型發(fā)展下一步要走出“沒有抽象能力、沒有主觀價值、沒有情感知識”的搜索范式。
  • 商業(yè)應用落后于模型本身規(guī)模增長,缺乏一個超級產(chǎn)品,能真正把投入的價值體現(xiàn)出來。
  • 幻覺限制下,下一步可以思考如何再擴大模型的泛化性和互動性,多模態(tài)是一個選擇。
  • 使智能體知道自己的能力邊界,是一個很重要的問題。

……

香港大學數(shù)據(jù)學院院長、香港大學計算機系系主任馬毅在討論過程中甚至為現(xiàn)在主流在做的“人工智能”打上了問號:

人工智能技術發(fā)展積累了很多的經(jīng)驗,有些我們可以解釋,有些我們不能解釋,現(xiàn)在正好就是非常需要理論的時候。實際上過去這十幾年我們的scholarship可以說是沒有太多突破的,很大可能是被產(chǎn)業(yè)、被工程技術的快速發(fā)展影響了學術本身的節(jié)奏。

一起來看大佬們具體都說了啥。

何為智能本質(zhì)?

現(xiàn)場,香港大學數(shù)據(jù)學院院長、香港大學計算機系系主任馬毅,特別以“回歸理論基石,探尋智能本質(zhì)”為題發(fā)表了主旨演講。

其中的觀點與其在圓桌上討論的問題不謀而合。

馬毅教授演講主題是“回歸理論基石,探尋智能本質(zhì)”,其中回顧了AI歷史發(fā)展進程,并對目前AI發(fā)展提出了自己的看法。

圖片

他首先講了生命與智能的進化。

在他個人看來,生命就是智能的載體,生命能產(chǎn)生能進化,就是智能機制作用的結(jié)果。而且,世界并不是隨機的,是可預測的,生命在不斷的進化過程中,學到更多世界可預測的知識。

物競天擇適者生存,這就是智能的一種反饋,類似于現(xiàn)在強化學習的概念。

圖片

從植物到動物、爬行動物、鳥類,再到人類,生命一直在提高自己的智能,但有一個現(xiàn)象,好像智能越高的生命出生以后跟隨其爸爸媽媽的時間越長。為什么?

馬毅教授進一步解釋:因為基因不夠,一些能力要去學習。學習能力越強,需要學習的東西越多,這才是智能體的更高級形式。

如果以個體方式進行學習,還是不夠快不夠好,所以人發(fā)明了語言,人的智能變成一個群體智能形式。

產(chǎn)生了群體智能,發(fā)生了一個質(zhì)變。我們不光只是從經(jīng)驗觀測去學習這些可預測的現(xiàn)象,還出現(xiàn)了抽象邏輯思維,我們把它叫做人的智能,或者后來叫做人工的智能。

圖片

接下來,他講了機器智能的起源。

上世紀40年代起,人類開始嘗試讓機器模擬生物尤其是動物的智能。

人類開始從神經(jīng)元建模,探索“大腦感知是怎么回事兒”,之后大家發(fā)現(xiàn)模擬動物神經(jīng)系統(tǒng)這件事情應該從人工神經(jīng)網(wǎng)絡去搭建整體,研究變得越來越復雜。

圖片

這件事情并不是一帆風順,中間經(jīng)歷了兩個寒冬,大家發(fā)現(xiàn)了神經(jīng)網(wǎng)絡的一些局限性,有些人仍在堅持解決這些挑戰(zhàn)。

之后數(shù)據(jù)算力發(fā)展,訓練神經(jīng)網(wǎng)絡變成了可能,越來越深的網(wǎng)絡開始發(fā)展起來,性能越來越好。

圖片

但有個最大的問題:這些網(wǎng)絡都是經(jīng)驗設計的,它是個黑盒子,而且這個盒子越來越大,人們不知道里面在干什么。

黑盒有何不好?從技術角度,經(jīng)驗設計也可以,可以不斷試錯。但是其中代價很大,周期很長,結(jié)果很難控。此外:

只要這個世界上有大家解釋不了的但是很重要的現(xiàn)象,很多人被蒙在鼓里,就會制造恐慌,現(xiàn)在這個事情正在發(fā)生。

所以,如何把黑盒打開?馬毅教授提出要回到本來的問題:為什么要學習?生命為什么能進化?

他特別強調(diào),一定要談能通過計算實現(xiàn)的東西:

不要談任何抽象的東西,這是我給大家的建議,你一定要談怎么去計算,怎么去執(zhí)行這件事情。

圖片

所以要學什么?

馬毅教授認為,要學可預測的規(guī)律性的東西。

比如手里拿著一根筆,一松手,大家都知道會發(fā)生什么,而且動作快的話還能抓住。這在牛頓之前就是已知的。人和動物貌似都是對外部世界做了很好的建模。

圖片

而在數(shù)學上,可預測的信息都統(tǒng)一以數(shù)據(jù)在高維空間中的低維結(jié)構(gòu)體現(xiàn)出來

那么統(tǒng)一的計算機制是什么?馬毅教授給出了回答:同類相聚、異類相斥,本質(zhì)就這么簡單。

如何度量做的好不好?為什么要壓縮?

他舉了個例子,如下圖。比如說世界是隨機的,什么都不知道,所有的事情皆可發(fā)生,如果用藍色球代替,下一秒鐘所有藍色球都是可能發(fā)生的。

但如果要記住其中一件事情發(fā)生,就要對整個空間編碼,給它一個代碼,只有綠色球的區(qū)域才可能發(fā)生,藍色球的部分就會少很多。

當我們知道的會發(fā)生的區(qū)域越細后,我們對這個世界的未知就變得越來越少,40年代信息理論就是在建立這個事情。

要想更好找到這些綠色區(qū)域,就要在大腦里面把它組織的更好。所以我們的大腦是在對這種現(xiàn)象,對這個低維的結(jié)構(gòu)在做這種組織。

圖片

在計算上如何實現(xiàn)這個目標?

馬毅教授表示,所有深度網(wǎng)絡實際上都在做這件事情。像現(xiàn)在Transformer,對圖像進行分割,進行分類識別,就在做這個事情。

圖片

實際上神經(jīng)網(wǎng)絡每一層就是在壓縮數(shù)據(jù)。

在這當中數(shù)學起到非常重要的作用,你去嚴格度量要優(yōu)化什么東西,嚴格去講怎么去優(yōu)化,當你把這兩件事做完以后,你會發(fā)現(xiàn)你得到的算子跟現(xiàn)在經(jīng)驗找到的很多算子非常相似。

Transformer也好,ResNet也好, CNN也好,都是做這件事情以不同的實現(xiàn)方式。而且在統(tǒng)計、幾何上完全可以解釋它在干什么。

圖片

優(yōu)化本身最優(yōu)解未必是正確解,在壓縮過程中可能丟掉了重要信息,怎么證明現(xiàn)有的信息維度是好的呢?怎么證明不會產(chǎn)生幻覺?

回到學習的根本,我們?yōu)槭裁匆涀∵@些東西?是為了要在大腦里對物理世界做仿真,為了更好地在物理空間中進行預測。

之后馬毅提到了對齊這一概念:

所以對齊不是跟人對齊,對齊是這個模型自己跟自己學到的東西對齊。

圖片

從里到外兩邊學到一個autoencoding并不夠,自然界的動物是如何學習外部世界的物理模型的——

不斷通過自己的觀測,去預測外部世界,只要和觀測是一致的,就可以了。這就涉及到一個閉環(huán)的概念。

只要活著的生物,只要智能的生物,全是閉環(huán)性。

圖片

之后馬毅教授引出,我們離真正的智能還差很遠。

什么是智能?大家經(jīng)常把知識和智能混在一起,一個系統(tǒng)有知識就是有智能嗎?一個智能系統(tǒng),必須具備自我改進、增加自己知識的基礎。

最后馬毅教授進行了總結(jié)。

回顧歷史,40年代大家都想讓機器去模仿動物,但是50年代圖靈提出了一件事——機器能不能像人類一樣思考。1956年達特茅斯會議,一群人坐在一起,他們的目的就是一定要做人區(qū)別于動物特有的智能抽象能力、符號運算、邏輯推理、因果分析等。

這是1956年他們定義的人工智能要做的事情,后來這些人基本上都得圖靈獎。所以你以后要得圖靈獎,是選擇去從眾還是做一些獨特的東西……

回看我們過去10年到底在干什么?

目前的“人工智能”在做圖像識別、圖像生成、文本生成、壓縮去噪、強化學習,馬毅教授認為,從基礎上我們做的事情就是動物這一層的事情,包括預測下一個token、下一幀圖像。

不是說后來我們沒有人在做。但不是主流的大模型。

圖片

他進一步解釋,足夠多的錢砸進去,足夠的數(shù)據(jù)砸進去,模型很多的性能還是會繼續(xù)發(fā)展,但是長期沒有理論會出現(xiàn)問題,就像盲人摸象。

圖片

馬毅教授表示,分享其個人的這段歷程,希望能給年輕人一些啟發(fā)。

有了原理我們就可以大膽去設計,就不再等著下一代誰再發(fā)明一個好像不錯的網(wǎng)絡,咱們再一起用。那你的機會在哪里呢?

下面來看圓桌論壇中,其他AI大牛對“人工智能下一步該怎么走?”這個問題是如何回答的。

人工智能下一步該怎么走?

大模型要有“范式”的變化

英國皇家工程院院士、歐洲科學院院士、香港工程科學院院士、香港科技大學首席副校長郭毅可認為,我們現(xiàn)在處于一個非常有趣的時刻——

因為Scaling Law被廣泛接受,百模大戰(zhàn)逐漸形成了一個資源大戰(zhàn)??此片F(xiàn)在只需要做兩件事,有了Transformer模型以后,要解決的就是大算力大數(shù)據(jù)的問題。

然而,在他看來事實并非如此。當下AI發(fā)展還面臨很多問題,其一是有限算力和無窮需求的問題。

在這種情況下,應該怎樣做大模型?郭院士通過一些實踐,分享了自己的思考。

首先郭院士提到了在算力限制下,采用更經(jīng)濟的MOE混合專家模型也能達到很好的效果。

圖片

此外,怎樣把一個模型訓完之后,不斷用新的數(shù)據(jù)改善,讓它能夠把該記住的記住,該忘的忘了,而且在需要的時候還能夠記起已經(jīng)忘了的東西,也是一個很難的問題。

對于業(yè)界的一些“數(shù)據(jù)已經(jīng)是用完了”的說法,郭院士表示不認同,“實際上只是變成了模型被壓縮了,而壓縮好的數(shù)據(jù)可以再生成新的數(shù)據(jù)”,也就是用生成模型來生成數(shù)據(jù)。

接著,不是所有東西模型都要從頭學習,可以把知識嵌入到基礎模型里面。這方面也有很多工作要做。

除了算力,算法上還有一個問題:機器智能和人類智能本身的培養(yǎng)具有兩極性

郭院士認為,訓練大模型,更重要的問題不在前面,而是在后面。

如下圖所示,大模型的進化路徑是從自我學習>間接知識>價值觀>常識,而人類教育的培養(yǎng)路徑與之相反。

圖片

正因為如此,郭院士認為應該走出今天大模型“沒有抽象能力、沒有主觀價值、沒有情感知識”的搜索范式。

我們都知道人類的語言是偉大的,人類語言里面不僅是內(nèi)容,不僅是信息,更多的是人性,是信息的能量,那么這些東西怎樣歸類到模型中去?是我們未來研究的一個重要的方向。

圖片

總結(jié)來說,對于人工智能下一步該怎么走,郭院士認為有三個發(fā)展階段:

第一個階段以真實性為本;第二個階段以價值為本,機器要有能力闡述自己的觀點,要形成自己的一種主觀價值,并且這個觀點可以根據(jù)它的環(huán)境來改變;第三當它有了價值觀以后,才懂得什么是新奇,有了新奇才可能進行創(chuàng)造。

到了創(chuàng)造這個模式,所謂的幻覺不是問題,因為幻覺只有在范式模式下才是個問題。寫小說一定是幻覺,沒有幻覺,寫不出小說來,它只要保持一致性,不需要真實性,所以只要反映一種價值就可以了,所以從這個意義上來講,大模型的發(fā)展實際上要有范式的變化。

大模型發(fā)展缺一個“超級產(chǎn)品”

京東集團副總裁、華盛頓大學兼職教授、博士生導師何曉冬認為AI下一步面臨三個問題。

首先,他認為從某種意義上來說現(xiàn)在大模型發(fā)展進入了一個平臺期。

由于數(shù)據(jù)和算力限制,如果簡單基于規(guī)模來提升,有可能達到天花板,算力資源也會成為一個越來越重的負擔。如果按照最新的價格戰(zhàn)(標價),很可能大模型產(chǎn)生的經(jīng)濟效益連電費都覆蓋不了,那么自然是不可持續(xù)的。

其次,何教授認為整個商業(yè)應用有些落后于模型本身的規(guī)模增長,中長期來看,這終將會成為一個問題:

特別是我們看到這么大規(guī)模的時候,他不再簡單是一個科學問題,它也會成為一個工程問題,比如說參數(shù)到了萬億級,調(diào)用數(shù)據(jù)到10萬億token級別。那么必然需要提出一個問題:它帶來的社會價值。

由此,何教授認為目前缺乏一個超級應用和超級產(chǎn)品,能夠真正把投入的價值體現(xiàn)出來。

第三個問題是一個相對比較具體的問題,即大模型幻覺。

如果我們想在大模型之上建設一個AI產(chǎn)業(yè)大廈,就要對基礎大模型幻覺有極高的要求。如果基礎大模型錯誤率很高,那么很難想象這上面可以疊加更多商業(yè)應用。

嚴肅的產(chǎn)業(yè)應用是需要解決幻覺的。

何教授認為在幻覺限制下,下一步可以思考如何再擴大模型的泛化性和互動性,而多模態(tài)是一個必然的選擇。

圖片

大模型缺乏“能力邊界”認知

聯(lián)想集團CTO、歐洲科學院外籍院士芮勇從工業(yè)界視角,給出了他對AI下一步的看法。

他表示,從工業(yè)界來看,更重要的是模型如何落地。在落地方面,芮勇博士主要講了兩點:

  • 光有大模型是不夠,一定要發(fā)展智能體。
  • 光有云測大模型也是不夠,需要有一個混合框架。

圖片

具體來說,芮勇博士首先列舉了一些研究,并指出大模型目前局限性越來越明顯。比如開頭提到的“13.8和13.11哪個大”的問題,可以看出模型沒有真正理解問題。

在他看來,目前大模型其實只是把在高維語義空間里看到的海量碎片信息連接起來,光靠堆砌大算力大網(wǎng)絡來造生成式大模型是不夠的,而下一步應該朝著智能體的方向發(fā)展。

芮勇博士特別強調(diào)了大模型能力邊界問題。

今天的大模型其實并不知道它自己的能力邊界在哪。

為什么大模型會出現(xiàn)幻覺,為什么會一本正經(jīng)胡說八道?其實它不是想騙我們,而是不知道自己知道什么,也不知道自己不知道什么,這是一個很重要的問題,所以我覺得第一步要使智能體知道自己的能力邊界。

此外,芮勇博士表示AI落地光有智能也不夠,云上的公有大模型需要面向企業(yè)進行私有化。數(shù)據(jù)驅(qū)動加上知識驅(qū)動,形成混合的AI模型,而且小模型在很多情況下也非常有用,還有面向個人的模型,能夠知道個人的喜好。

它將不是完全基于云測的大模型,而是一個混合的端邊云相結(jié)合的大模型。

責任編輯:張燕妮 來源: 量子位
相關推薦

2016-04-06 09:46:41

5G通信技術

2017-01-03 08:26:11

大數(shù)據(jù)AIML

2021-09-15 16:13:13

人工智能AI深度學習

2013-08-12 14:42:20

UI設計UX設計設計

2018-05-18 10:18:20

云計算云廠商物聯(lián)網(wǎng)

2017-01-17 15:57:47

大數(shù)據(jù)特朗普數(shù)據(jù)湖泊

2021-09-07 10:06:00

人工智能機器學習技術

2018-09-13 12:51:52

云計算私有云公共云

2013-11-25 13:30:47

微信開發(fā)

2015-05-19 11:31:11

LTELTE網(wǎng)絡

2017-01-18 12:16:37

OpenFlowSDNONF

2019-05-21 05:09:23

物聯(lián)網(wǎng)數(shù)據(jù)IOT

2023-11-13 11:10:16

2024-10-15 15:42:50

2011-10-12 09:49:51

Kikin移動應用觸屏

2013-11-08 16:19:17

HTML5

2015-10-23 14:20:43

2018-09-20 21:13:41

5G網(wǎng)絡無線技術

2021-09-27 14:46:36

區(qū)塊鏈加密貨幣比特幣

2022-03-07 10:40:09

智能家居物聯(lián)網(wǎng)人工智能
點贊
收藏

51CTO技術棧公眾號