人工智能未來(lái)的報(bào)告:實(shí)現(xiàn)AGI 的方法可能走錯(cuò)道路
作者:艾薩克 ·舒爾茨 ,來(lái)源:gizmodo.com
由數(shù)百名人工智能研究人員組成的小組表示,目前該領(lǐng)域正在以錯(cuò)誤的方式追求通用人工智能。
這一見(jiàn)解是在人工智能促進(jìn)協(xié)會(huì) (AAAI) 的 2025 年人工智能研究未來(lái)總統(tǒng)小組會(huì)議上披露的。這份《AAAI 2025 人工智能研究未來(lái)研究報(bào)告》由 24 名人工智能研究人員共同編寫(xiě),他們的專業(yè)知識(shí)涵蓋人工智能基礎(chǔ)設(shè)施現(xiàn)狀和人工智能的社會(huì)方面。
該報(bào)告包括每個(gè)部分的主要內(nèi)容,以及社區(qū)意見(jiàn)部分,受訪者被問(wèn)及對(duì)該部分的看法。
“AI 感知與現(xiàn)實(shí)”部分由麻省理工學(xué)院計(jì)算機(jī)科學(xué)家 Rodney Brooks 主持,引用了 Gartner 炒作周期特征,這是技術(shù)炒作中常見(jiàn)的五階段周期。報(bào)告指出,2024 年 11 月,Gartner“估計(jì)生成式 AI 的炒作剛剛過(guò)了高峰,正在走下坡路”。社區(qū)意見(jiàn)部分 79% 的受訪者表示,目前公眾對(duì) AI 能力的認(rèn)知與 AI 研發(fā)的現(xiàn)實(shí)不符,90% 的人表示這種不匹配阻礙了 AI 研究——其中 74% 的人表示“AI 研究的方向是由炒作驅(qū)動(dòng)的”。
布魯克斯在一封電子郵件中告訴 Gizmodo:“我之所以采用 Gartner 技術(shù)成熟度曲線,是因?yàn)檫@是他們多年來(lái)一直使用的方法,它概括了在很多不同領(lǐng)域出現(xiàn)的所有炒作,隨后都以失望告終。因此,它在許多領(lǐng)域的存在和準(zhǔn)確性告訴我們,我們應(yīng)該謹(jǐn)慎地接受當(dāng)前對(duì)未來(lái)事物的炒作,任何時(shí)候都要謹(jǐn)慎行事?!?/p>
布魯克斯補(bǔ)充道:“我認(rèn)為,公眾對(duì)人工智能的大量討論都過(guò)于相信炒作的準(zhǔn)確性?!?/p>
通用人工智能 (AGI)指的是人類級(jí)別的智能:假設(shè)機(jī)器能夠像人類一樣解釋信息并從中學(xué)習(xí)。通用人工智能是該領(lǐng)域的圣杯,對(duì)無(wú)數(shù)領(lǐng)域和學(xué)科的自動(dòng)化和效率都有影響。想想那些你不想花太多時(shí)間做的瑣碎任務(wù),從計(jì)劃旅行到報(bào)稅。通用人工智能可以用來(lái)減輕死記硬背任務(wù)的負(fù)擔(dān),也可以催化其他領(lǐng)域的進(jìn)步,從交通到教育和技術(shù)。
令人驚訝的是,大多數(shù)人(475 名受訪者中的 76%)表示,僅僅擴(kuò)大當(dāng)前的 AI 方法還不足以產(chǎn)生 AGI。
報(bào)告寫(xiě)道:“總體而言,這些回應(yīng)表明了一種謹(jǐn)慎而又向前邁進(jìn)的方法:人工智能研究人員優(yōu)先考慮安全、道德治理、利益共享和逐步創(chuàng)新,主張協(xié)作和負(fù)責(zé)任的發(fā)展,而不是競(jìng)相發(fā)展通用人工智能?!?/p>
盡管炒作扭曲了研究現(xiàn)狀,而且當(dāng)前的人工智能方法并沒(méi)有讓研究人員走上 AGI 的最佳道路,但這項(xiàng)技術(shù)已經(jīng)取得了突飛猛進(jìn)的發(fā)展。
“五年前,我們幾乎不可能進(jìn)行這樣的討論——人工智能僅限于可以容忍高比例錯(cuò)誤的應(yīng)用,例如產(chǎn)品推薦,或者知識(shí)領(lǐng)域受到嚴(yán)格限制的應(yīng)用,例如對(duì)科學(xué)圖像進(jìn)行分類,”弗吉尼亞大學(xué)計(jì)算機(jī)科學(xué)家、該報(bào)告事實(shí)性和可信度部分主席亨利·考茨 (Henry Kautz) 在給 Gizmodo 的電子郵件中解釋道?!叭缓?,從歷史角度來(lái)看,通用人工智能開(kāi)始發(fā)揮作用,并通過(guò) ChatGPT 等聊天機(jī)器人引起公眾關(guān)注?!?/p>
報(bào)告指出,人工智能事實(shí)性“遠(yuǎn)未解決”,最好的大模型在 2024 年的基準(zhǔn)測(cè)試中只能正確回答大約一半的問(wèn)題。但新的訓(xùn)練方法可以提高這些模型的穩(wěn)健性,而組織人工智能的新方法可以進(jìn)一步提高它們的性能。
“我相信,提高可信度的下一階段將是用合作的團(tuán)隊(duì)取代單個(gè)人工智能代理,這些團(tuán)隊(duì)不斷核實(shí)彼此的事實(shí),并努力保持彼此的誠(chéng)實(shí),”考茨補(bǔ)充道。“大多數(shù)公眾以及科學(xué)界(包括人工智能研究人員群體)都低估了當(dāng)今最佳人工智能系統(tǒng)的質(zhì)量;人們對(duì)人工智能的認(rèn)知落后于技術(shù)一兩年?!?/p>
人工智能不會(huì)消失;畢竟,Gartner 炒作周期不會(huì)以“逐漸消失”而結(jié)束,而是以“生產(chǎn)力達(dá)到頂峰”而結(jié)束。人工智能使用案例的不同領(lǐng)域有不同程度的炒作,但隨著私營(yíng)部門、政府官員,甚至是我們自己的家庭對(duì)人工智能的呼聲越來(lái)越高,這份報(bào)告令人耳目一新,人工智能研究人員正在非常批判地思考他們所在領(lǐng)域的現(xiàn)狀。從人工智能系統(tǒng)的構(gòu)建方式到它們?cè)谑澜缟系牟渴鸱绞?,都有?chuàng)新和改進(jìn)的空間。既然我們不會(huì)回到?jīng)]有人工智能的時(shí)代,唯一的方向就是向前。
《AAAI 2025 人工智能研究未來(lái)研究報(bào)告》簡(jiǎn)介
在人工智能國(guó)際頂級(jí)學(xué)術(shù)會(huì)議 AAAI 2025 上,24 位人工智能領(lǐng)域的研究者發(fā)布特別報(bào)告,對(duì)人工智能的未來(lái)發(fā)展進(jìn)行了深刻剖析。該報(bào)告涵蓋從基礎(chǔ)設(shè)施現(xiàn)狀到社會(huì)影響等多方面內(nèi)容,由多位權(quán)威專家共同撰寫(xiě),旨在全面梳理人工智能發(fā)展脈絡(luò),為行業(yè)指引方向。
報(bào)告指出,當(dāng)前公眾對(duì)人工智能能力的認(rèn)知與實(shí)際研發(fā)情況存在較大偏差。引用 Gartner 技術(shù)成熟度曲線,2024 年 11 月,生成式人工智能的熱度已過(guò)峰值并呈下降趨勢(shì)。報(bào)告調(diào)查顯示,79% 的受訪者認(rèn)為公眾對(duì)人工智能能力的認(rèn)知與現(xiàn)實(shí)不符,90% 的人覺(jué)得這種認(rèn)知偏差阻礙了人工智能研究,74% 的受訪者更是明確表示,人工智能研究方向受到市場(chǎng)炒作的驅(qū)動(dòng)。
在邁向通用人工智能(AGI)的道路上,475 名受訪者中,76% 的人認(rèn)為僅靠擴(kuò)大現(xiàn)有技術(shù)規(guī)模不足以實(shí)現(xiàn)這一目標(biāo)。這表明,當(dāng)前人工智能技術(shù)在實(shí)現(xiàn)類人智能方面面臨挑戰(zhàn),需要探索新的技術(shù)路徑。盡管存在這些問(wèn)題,人工智能近年來(lái)仍取得了顯著進(jìn)展。如五年前,人工智能應(yīng)用局限于高容錯(cuò)率或知識(shí)領(lǐng)域受限的場(chǎng)景,如今通用人工智能已通過(guò) ChatGPT 等聊天機(jī)器人進(jìn)入公眾視野。但在真實(shí)性方面,2024 年的基準(zhǔn)測(cè)試中,最好的大語(yǔ)言模型也僅能正確回答約一半的問(wèn)題,仍有很大提升空間。
為應(yīng)對(duì)挑戰(zhàn),研究者呼吁在人工智能發(fā)展中注重安全、道德治理、利益共享和漸進(jìn)式創(chuàng)新,倡導(dǎo)協(xié)作與負(fù)責(zé)任的發(fā)展模式,而非單純追求 AGI。例如,在模型訓(xùn)練中采用新的訓(xùn)練方法以提高模型的穩(wěn)健性,通過(guò)新的組織方式提升模型性能;未來(lái),可能通過(guò)構(gòu)建相互協(xié)作、相互監(jiān)督的人工智能主體團(tuán)隊(duì),提升模型的可信度。
這份報(bào)告提醒我們,盡管人工智能技術(shù)不斷進(jìn)步,但在其發(fā)展過(guò)程中,需冷靜看待公眾認(rèn)知與實(shí)際研發(fā)的差距,積極探索更有效的技術(shù)路徑,以實(shí)現(xiàn)人工智能的可持續(xù)發(fā)展。
本文轉(zhuǎn)載自??歐米伽未來(lái)研究所2025??,作者:歐米伽未來(lái)研究所
