斯坦福大學(xué)“2023年AI指數(shù)”解讀人工智能前景
斯坦福大學(xué)以人類為中心的人工智能研究所(HAI)發(fā)布了2023年人工智能指數(shù),該指數(shù)分析了人工智能的影響和進(jìn)展。這份數(shù)據(jù)驅(qū)動的報告深入探討了人工智能相關(guān)的熱門主題,如研究、倫理、政策、輿論和經(jīng)濟(jì)學(xué)。
這項研究的主要發(fā)現(xiàn)包括人工智能研究如何擴(kuò)展到模式識別、機(jī)器學(xué)習(xí)和計算機(jī)視覺等專業(yè)領(lǐng)域。報告指出,自2010年以來,人工智能出版物的數(shù)量增加了一倍多。同時,人工智能行業(yè)應(yīng)用超越學(xué)術(shù)界,并引用了32個由行業(yè)生產(chǎn)的重要機(jī)器學(xué)習(xí)模型,而學(xué)術(shù)界僅生產(chǎn)了3個。研究將此歸因于訓(xùn)練這些大型模型所需的大量資源。
傳統(tǒng)的人工智能基準(zhǔn),如圖像分類基準(zhǔn)ImageNet和閱讀理解測試SQuAD,不再足以衡量技術(shù)的高速進(jìn)展,導(dǎo)致出現(xiàn)了新的基準(zhǔn),如BIG bench和HELM。HAI副主任兼人工智能指數(shù)指導(dǎo)委員會成員Vanessa Parli在斯坦福大學(xué)的一篇文章中解釋說,許多人工智能基準(zhǔn)已經(jīng)達(dá)到飽和點,幾乎沒有改進(jìn),研究人員必須根據(jù)社會希望如何與人工智能互動來開發(fā)新的基準(zhǔn)。她給出了ChatGPT的例子,以及它如何通過許多基準(zhǔn)測試,但仍然經(jīng)常給出錯誤的信息。
偏見和錯誤信息等道德問題是該報告審查的人工智能的另一個方面。隨著流行的生成人工智能模型的興起,如DALL-E 2、Stable Diffusion,當(dāng)然還有ChatGPT,對人工智能的道德濫用正在增加。報告指出,根據(jù)存儲人工智能濫用的獨立數(shù)據(jù)庫AIAAIC,自2012年以來,人工智能事件和爭議的數(shù)量增加了26倍。此外,對人工智能倫理的關(guān)注正在迅速增長,因為研究發(fā)現(xiàn),自2021以來,提交給FAccT人工智能倫理會議的提交數(shù)量翻了一番多,而自2018年以來,提交數(shù)量增加了10倍。
大型語言模型的規(guī)模越來越大,費用也成為天價。該報告以2022年發(fā)布的谷歌PaLM模型為例,指出該模型的成本比2019年的OpenAI GPT-2高160倍,規(guī)模大360倍??傮w而言,模型越大,培訓(xùn)成本就越高。該研究估計,Deepmind的Chinchilla模型和HuggingFace的BLOOM的訓(xùn)練成本分別為210萬美元和230萬美元。
在全球范圍內(nèi),目前AI的私人投資與2021-2022年相比下降了26.7%,初創(chuàng)公司的AI融資也有所放緩。然而,在過去十年中,人工智能投資大幅增加。報告顯示,與2013年相比,2022年人工智能的私人投資額增加了18倍。采用新人工智能舉措的公司數(shù)量也出現(xiàn)了平穩(wěn)期。報告稱,2017年至2022年間,采用人工智能的公司比例翻了一番,但最近趨于平穩(wěn),約為50-60%。
另一個令人感興趣的話題是政府對人工智能的日益關(guān)注。人工智能指數(shù)分析了127個國家的立法記錄,發(fā)現(xiàn)2022年有37項包含“人工智能”的法案成為法律,而2016年只有一項。研究發(fā)現(xiàn),自2017年以來,美國政府已將人工智能相關(guān)合同支出增加了2.5倍。法院也看到了人工智能相關(guān)法律案件的激增:2022年,有110起此類案件與民事、知識產(chǎn)權(quán)和合同法有關(guān)。
人工智能指數(shù)還深入研究了皮尤研究中心關(guān)于美國人對人工智能的看法的一項調(diào)查。在一項針對10000多名小組成員的調(diào)查中,45%的人表示對人工智能在日常生活中的使用感到喜憂參半,37%的人表示他們感到擔(dān)憂多于興奮。只有18%的人感到興奮而不是擔(dān)憂。在主要的猶豫中,74%的人表示非常或有點擔(dān)心人工智能被用來為人類做出重要決定,75%的人對人工智能被用于了解人們的想法和行為感到不安。