李飛飛吳恩達(dá)等2024年AI十大預(yù)測!GPU短缺,AI智能體一年內(nèi)大爆發(fā)
2023,可以說是人工智能的春天。
在過去的一年里,ChatGPT成為家喻戶曉的名字,
這一年中,AI和AI公司的各種變革,讓我們震驚,也成為我們茶余飯后的瓜果。
這一年中,生成式AI取得了重大進(jìn)展,使得人工智能初創(chuàng)公司吸引了大量資金。
人工智能領(lǐng)域的大佬們開始討論AGI的可能性,政策制定者開始認(rèn)真對待人工智能監(jiān)管。
但在人工智能和科技行業(yè)們的領(lǐng)袖眼中,AI浪潮可能才剛剛起步。之后的每一年,可能都是浪潮最洶涌澎湃的一年。
比爾蓋茨,李飛飛,吳恩達(dá)等人,都在最近對未來AI的發(fā)展趨勢談了自己的看法。
他們都不約而同地談到了期待更大的多模態(tài)模型、更令人興奮的新功能,以及圍繞我們?nèi)绾问褂煤捅O(jiān)管這項技術(shù)的更多對話。
比爾蓋茨:2個預(yù)測,1個經(jīng)驗,6個問題
比爾蓋茨在自己的官方博客上發(fā)表了一篇萬字長文,將他眼里的2023年描繪成了一個新時代的全新開端。
文章地址:https://www.gatesnotes.com/The-Year-Ahead-2024?WT.mc_id=20231218210000_TYA-2024_MED-ST_&WT.tsrc=MEDST#ALChapter2
這篇博客依然還是從他在蓋茨基金會的工作為切入,談到了世界范圍內(nèi)已經(jīng)出現(xiàn)或者將會出現(xiàn)哪些影響深遠(yuǎn)的變化。
針對AI技術(shù)的發(fā)展,他說:
如果我必須做出預(yù)測,那在像美國這樣的高收入國家,我猜我們距離普通大眾廣泛地使用人工智能還有18到24個月的時間。
在非洲國家,我預(yù)計在三年左右的時間里會看到類似的使用水平。這其中仍然存在差距,但它比我們在其他創(chuàng)新中看到的滯后時間要短得多。
比爾蓋茨認(rèn)為,AI作為目前地球范圍內(nèi)影響最深遠(yuǎn)地創(chuàng)新技術(shù),將會在3年內(nèi)徹底席卷全球。
蓋茨在博文中表示,2023年是他第一次在工作中出于「嚴(yán)肅的原因」使用人工智能。
與前幾年相比,世界對AI能夠自己完成哪些工作以及「充當(dāng)哪些工作的輔助工具」有了更好的認(rèn)識。
但對于大部分人來說,要讓AI在工作場景中充分發(fā)揮作用還有一定距離。
基于他自己獲得的數(shù)據(jù)和觀察體驗,他表示行業(yè)應(yīng)該吸取的一個最重要的教訓(xùn)是:產(chǎn)品必須適合使用它的人。
他舉了一個簡單的例子,巴基斯坦人通?;ハ喟l(fā)送語音留言,而不是發(fā)送短信或電子郵件。因此,創(chuàng)建一個依賴語音命令而不是輸入長查詢的應(yīng)用程序是有意義的。
從他本人最關(guān)心的角度,蓋茨提出了5個問題,希望工智能可以在相關(guān)領(lǐng)域發(fā)揮巨大作用:
-人工智能可以對抗抗生素耐藥性嗎?
-人工智能能否為每個學(xué)生創(chuàng)造出個性化的導(dǎo)師?
-人工智能可以幫助治療高危妊娠嗎?
-人工智能可以幫助人們評估感染艾滋的風(fēng)險嗎?
-人工智能能否讓每個醫(yī)務(wù)工作者更輕松地獲取醫(yī)療信息?
如果我們現(xiàn)在做出明智的投資,人工智能可以讓世界變得更加公平。它可以減少甚至消除富裕世界獲得創(chuàng)新與貧窮世界獲得創(chuàng)新之間的滯后時間。
吳恩達(dá):LLM可以理解世界,不會監(jiān)管AI不如不管
吳恩達(dá)最近在接受金融時報采訪時表示,人工智能末日論非?;闹嚕珹I監(jiān)管將會阻礙AI技術(shù)本身的發(fā)展。
在他看來,目前人工智能的相關(guān)監(jiān)管措施對防止某些問題產(chǎn)生幾乎沒有任何效果。這樣無效的監(jiān)管除了會阻礙技術(shù)的進(jìn)步,不會有任何正面的受益。
所以在他看來,與其做低質(zhì)量的監(jiān)管,不如不要監(jiān)管。
他舉了最近美國政府讓大科技公司自我承諾對AI生成內(nèi)容自行添加「水印」,來應(yīng)對虛假信息等問題為例。
在他看來,自從白宮自愿承諾以來,一些公司反而不再對文本內(nèi)容加水印。因此,他認(rèn)為自愿承諾方法作為一種監(jiān)管方法是失敗的。
而另一方面,如果監(jiān)管機構(gòu)將這種無效的監(jiān)管移植到諸如「監(jiān)管開源AI」等問題上,很有可能會完全扼殺開源的發(fā)展并且造成大型科技公司的壟斷。
那如果AI獲得的監(jiān)管水平是目前的樣子,那確實沒有監(jiān)管的意義。
吳恩達(dá)重申,實際上,他希望政府能夠親自動手并制定良好的監(jiān)管規(guī)定,而不是現(xiàn)在看到的糟糕的監(jiān)管提案。所以他并不主張放手不管。但在糟糕的監(jiān)管和沒有監(jiān)管之間,他寧愿沒有監(jiān)管。
吳恩達(dá)還在訪談中談到,現(xiàn)在LLM已經(jīng)了具備了世界模型的雛形。
「我所看到的科學(xué)證據(jù)來看,人工智能模型確實可以構(gòu)建世界模型。因此,如果人工智能有一個世界模型,那么我傾向于相信它確實理解世界。但這是我自己對理解一詞含義的理解。
如果你有一個世界模型,那么你就會了解世界如何運作,并可以預(yù)測它在不同場景下如何演變。有科學(xué)證據(jù)表明,LLM在接受大量數(shù)據(jù)訓(xùn)練后,確實可以建立一個世界模型?!?/span>
李飛飛攜手斯坦福HAI發(fā)布七大預(yù)測
知識工作者的挑戰(zhàn)
斯坦福數(shù)字經(jīng)濟(jì)實驗室主任Erik Brynjolfsson等人預(yù)計,人工智能公司將能夠提供真正影響生產(chǎn)力的產(chǎn)品。
而知識工作者將受到前所未有的影響,比如創(chuàng)意工作者、律師、金融學(xué)教授的工作將發(fā)生很大變化。
在過去的30年中,這些人基本沒有受到計算機革命的影響。
我們應(yīng)該接受人工智能帶來的改變,讓我們的工作變得更好,讓我們能做以前做不到的新事情。
虛假信息擴散
斯坦福大學(xué)工程學(xué)院教授James Landay等人認(rèn)為,我們將看到新的大型多模態(tài)模型,特別是在視頻生成方面。
所以我們還必須對嚴(yán)重的深度偽造更加警惕,
作為消費者需要意識到這一點,作為民眾也需要意識到這一點。
我們將看到OpenAI等公司和更多的初創(chuàng)公司,發(fā)布下一個更大的模型。
我們?nèi)匀粫吹胶芏嚓P(guān)于「這是AGI嗎?什么是AGI?」的討論,——但我們不必?fù)?dān)心人工智能會接管世界,這都是炒作。
我們真正應(yīng)該擔(dān)心的是現(xiàn)在正在發(fā)生的危害——虛假信息和深度偽造。
GPU短缺
斯坦福大學(xué)教授Russ Altman等人對于全球性的GPU短缺表示擔(dān)心。
大公司們都在嘗試將AI功能引入內(nèi)部,而英偉達(dá)等GPU制造商已經(jīng)滿負(fù)荷運轉(zhuǎn)。
GPU,或者說AI的算力,代表了新的時代的競爭力,對于公司甚至是國家來說都是如此。
對于GPU的爭奪也會給創(chuàng)新者帶來巨大的壓力,他們需要提出更便宜、更易于制造和使用的硬件解決方案。
斯坦福大學(xué)和許多其他科研機構(gòu),都在研究當(dāng)前GPU的低功耗替代方案。
想要達(dá)到大規(guī)模商用,這項工作還有很長的路要走,但為了實現(xiàn)人工智能技術(shù)的民主化,我們必須繼續(xù)前進(jìn)。
更有用的代理
斯坦福大學(xué)杰出教育研究員Peter Norvig認(rèn)為,未來的一年代理(Agent)將會興起,AI將能夠連接到其他服務(wù),并解決實際的問題。
2023年是能夠與AI聊天的一年,人們與AI的關(guān)系只是通過輸入和輸出來進(jìn)行的互動。
而到了2024年,我們將看到代理為人類完成工作的能力,——進(jìn)行預(yù)訂、計劃旅行等等。
此外,我們將朝著多媒體邁進(jìn)。
到目前為止,人們已經(jīng)非常關(guān)注語言模型,然后是圖像模型。之后,我們也將有足夠的處理能力來發(fā)展視頻模型,——這將非常有趣。
我們現(xiàn)在正在訓(xùn)練的東西都是非常有目的性的,——人們在頁面和段落中寫下自己認(rèn)為有趣和重要的事情;人們利用相機紀(jì)錄某些正在發(fā)生的事。
但是對于視頻來說,有些攝像機可以24小時運行,它們捕捉發(fā)生的事情,沒有任何過濾,沒有任何目的性的篩選。
——人工智能模型以前沒有這種數(shù)據(jù),這將使模型對一切有更好的理解。
對監(jiān)管的希望
斯坦福大學(xué)HAI聯(lián)合主任李飛飛表示,2024年,人工智能政策將值得關(guān)注。
我們的政策應(yīng)該保障學(xué)生和研究人員能夠獲得AI資源、數(shù)據(jù)和工具,以此來提供更多人工智能開發(fā)的機會。
圖片
另外,我們需要安全、可靠和可信賴地開發(fā)和使用人工智能,
所以,政策除了要致力于培養(yǎng)充滿活力的人工智能生態(tài)系統(tǒng),還應(yīng)致力于利用和管理人工智能技術(shù)。
我們需要相關(guān)的立法和行政命令,相關(guān)的公共部門也應(yīng)該獲得更多投資。
提出問題,給出對策
斯坦福大學(xué)HAI高級研究員Ge Wang希望,我們將有足夠的資金來研究,生活、社區(qū)、教育和社會能夠從人工智能中得到什么。
越來越多的這種生成式人工智能技術(shù)將嵌入到我們的工作、娛樂和交流中。
我們需要給自己留出時間和空間,來思考什么是允許的,以及我們應(yīng)該在哪些方面做出限制。
早在今年2月,學(xué)術(shù)期刊出版商Springer Publishing就發(fā)表了一份聲明,表示可以在起草文章時使用大型語言模型,但不允許在任何出版物上作為合著者。他們引用的理由是問責(zé)制,這一點非常重要。
——認(rèn)真地把一些東西擺在那里,闡述理由是什么,并表示這就是現(xiàn)在的理解方式,將來可能會在政策中加入更多改進(jìn)。
機構(gòu)和組織必須有這樣的視角,并努力在2024年落實在紙上。
公司將面臨復(fù)雜的法規(guī)
斯坦福大學(xué) HAI 隱私和數(shù)據(jù)政策研究員Jennifer King表示,除了今年歐盟的《人工智能法案》,到2024年年中,加利福尼亞州和科羅拉多州將通過法規(guī),解決消費者隱私背景下的自動決策問題。
雖然這些法規(guī)僅限于,對個人個人信息進(jìn)行訓(xùn)練或收集的人工智能系統(tǒng),但兩者都為消費者提供了選擇,即是否允許某些系統(tǒng)使用AI以及個人信息。
公司將不得不開始思考,當(dāng)客戶行使他們的權(quán)利時(特別是集體行使權(quán)利時),將意味著什么。
比如一家使用人工智能來協(xié)助招聘流程的大公司,如果數(shù)百名應(yīng)聘者都拒絕使用AI,那要怎么辦?必須人工審查這些簡歷嗎?這又有什么不同?人類能夠做的更好嗎?——我們才剛剛開始解決這些問題。