對于AIGC,李飛飛有這些看法|斯坦福HAI觀點(diǎn)報(bào)告
近日,李飛飛領(lǐng)導(dǎo)的斯坦福HAI研究院發(fā)布了關(guān)于「生成式AI」的觀點(diǎn)報(bào)告。
報(bào)告指出,當(dāng)前大多數(shù)生成式人工智能都是由基礎(chǔ)模型驅(qū)動的。
這些模型為我們的生活、社區(qū)以及社會帶來的機(jī)會是巨大的,與此同時帶來的風(fēng)險(xiǎn)也一樣。
一方面,生成式AI可以讓人類更有生產(chǎn)力和創(chuàng)造力。另一方面,它們可能會放大社會偏見,甚至破壞我們對信息的信任。
我們相信,跨學(xué)科的合作對于確保這些 技術(shù)惠及我們所有人。以下是斯坦福大學(xué)的觀點(diǎn) 醫(yī)學(xué)、科學(xué)、工程、人文學(xué)科和社會科學(xué)領(lǐng)域的領(lǐng)導(dǎo)人關(guān)于「生成式人工智能」如何影響其領(lǐng)域和我們世界的觀點(diǎn)。
本文,我們選取了李飛飛和Percy Liang對當(dāng)前生成式AI的見解。
完整觀點(diǎn)報(bào)告請參見:
?https://hai.stanford.edu/generative-ai-perspectives-stanford-hai?
李飛飛:人工智能的偉大拐點(diǎn)
斯坦福HAI聯(lián)合主任李飛飛發(fā)文:「人工智能的偉大拐點(diǎn)」。
人類大腦可以識別世界上的所有模式,并且據(jù)此構(gòu)建模型或生成概念。幾代人工智能科學(xué)家的夢想,就是將這種生成能力賦予機(jī)器,他們在生成模型算法開發(fā)這一領(lǐng)域做過很長時間的努力。
1966年,麻省理工學(xué)院的研究人員發(fā)起了 「夏季視覺項(xiàng)目」(Summer Vision Project),旨在用技術(shù)有效搭建視覺系統(tǒng)的一個重要部分。這就是計(jì)算機(jī)視覺和圖像生成領(lǐng)域研究的開端。
近期,得益于深度學(xué)習(xí)和大數(shù)據(jù)的密切關(guān)聯(lián),人們似乎已經(jīng)到達(dá)了一個重要拐點(diǎn),即將讓機(jī)器具備生成語言、圖像、音頻等的能力。
盡管計(jì)算機(jī)視覺的靈感來源是打造能看到人類所能看到東西的AI,但現(xiàn)在這一學(xué)科的目標(biāo)遠(yuǎn)不限于此,未來要打造的AI應(yīng)當(dāng)看到人類所不能看到的東西。
如何使用生成式人工智能來增強(qiáng)人類的視覺呢?
比如,在美國醫(yī)療錯誤造成的死亡是一個令人擔(dān)憂的問題。生成式AI可以協(xié)助醫(yī)療保健提供者看到潛在的問題。
如果錯誤產(chǎn)生于罕見情況,生成式AI可以創(chuàng)建模擬版本的類似數(shù)據(jù),來進(jìn)一步訓(xùn)練AI模型,或者是為醫(yī)療人員提供訓(xùn)。
在開始開發(fā)新的生成式工具之前,應(yīng)當(dāng)關(guān)注人們希望通過工具獲得什么。
在近期的一個為機(jī)器人任務(wù)制定基準(zhǔn)的項(xiàng)目中,研究團(tuán)隊(duì)在開始工作前進(jìn)行了一次大規(guī)模的用戶研究,詢問人們?nèi)绻蓹C(jī)器人來完成某些任務(wù),他們會受益多少,使人受益最多的任務(wù)成為項(xiàng)目研究的重點(diǎn)。
為了抓住生成式人工智能創(chuàng)造的重大機(jī)遇,相關(guān)風(fēng)險(xiǎn)也需要合理評估。
Joy Buolamwini領(lǐng)導(dǎo)了一項(xiàng)名為「性別陰影」的研究,發(fā)現(xiàn)AI經(jīng)常在識別女性和有色人種時出現(xiàn)問題。類似這樣對缺乏代表性群體的偏見,在生成式AI中還會繼續(xù)出現(xiàn)。
判斷一張圖片是否是使用AI生成的,也是十分重要的能力。人類社會是建立在在對公民身份的信任之上,如果缺乏這種能力,我們的信任感就會降低。
機(jī)器生成能力方面的進(jìn)展是非常令人振奮的,發(fā)掘人工智能看到人類無法看到的東西的潛力也是如此。
然而,我們需要警惕,這些能力可能擾亂我們的日常生活、我們所處的環(huán)境,破壞我們作為世界公民的角色。
Percy Liang:「新寒武紀(jì)時代:科學(xué)的興奮、焦慮」
斯坦福大學(xué)人類中心人工智能研究所主任,計(jì)算機(jī)副教授Percy Liang發(fā)文「新寒武紀(jì)時代:科學(xué)的興奮、焦慮」
在人類史上,創(chuàng)造新鮮事物總是很困難的,而且這種能力幾乎只有專家才具備。
但隨著近期基礎(chǔ)模型的進(jìn)步,人工智能的「寒武紀(jì)爆炸」正在發(fā)生,人工智能將可以創(chuàng)造任何東西,從視頻到蛋白質(zhì)再到代碼。
這種能力降低了創(chuàng)造的門檻,但它也剝奪了我們辨認(rèn)真實(shí)的能力。
基于深度神經(jīng)網(wǎng)絡(luò)和自我監(jiān)督學(xué)習(xí)而建立的基礎(chǔ)模型已經(jīng)存在有幾十年了。然而,最近這些模型所能訓(xùn)練的龐大數(shù)據(jù)量使模型的能力突飛猛進(jìn)。
2021年發(fā)布的一篇論文詳細(xì)介紹了基礎(chǔ)模型的機(jī)會和風(fēng)險(xiǎn),這些新出現(xiàn)的能力會成為「科學(xué)界興奮的來源」,也會導(dǎo)致「意料之外的后果」。
論文中還討論了同質(zhì)化問題。同樣的幾個模型被重復(fù)使用作為許多應(yīng)用的基礎(chǔ),這樣能使研究人員集中精力在一小部分模型上。但集中化也使這些模型成為單一的故障點(diǎn),潛在的危害會影響到諸多下游應(yīng)用。
對基礎(chǔ)模型進(jìn)行基準(zhǔn)測試也是十分重要的,以便研究人員更好地了解其能力與缺陷,制定更合理的發(fā)展戰(zhàn)略。
HELM(語言模型的整體評估)的開發(fā)就是為了這個目的。HELM以準(zhǔn)確性、穩(wěn)健性、公平性等多種指標(biāo),對30多個著名的語言模型在一系列場景中的表現(xiàn)做出了評估。
新的模型、新的應(yīng)用場景和新的評價(jià)指標(biāo)還會出現(xiàn),我們歡迎大家為HELM的發(fā)展添磚加瓦。