麻省理工科技評(píng)論:六個(gè)問題將決定生成人工智能的未來
“生成式人工智能在 2023 年席卷全球。它的未來以及我們的未來將取決于我們下一步的行動(dòng)?!?/p>
麻省理工科技評(píng)論的人工智能高級(jí)編輯Will Douglas Heaven近日發(fā)布文章《These six questions will dictate the future of generative AI》,介紹了生成型人工智能(generative AI)在2023年的發(fā)展和影響,以及未來面臨的六個(gè)關(guān)鍵問題。這篇文章是一篇很有價(jià)值的科技評(píng)論,它對(duì)生成型人工智能的現(xiàn)狀和未來進(jìn)行了全面和深入的探討,提出了一些重要的問題和建議。
生成人工智能(generative AI)是能夠自動(dòng)創(chuàng)造出新的內(nèi)容和產(chǎn)品的人工智能技術(shù),它利用了深度學(xué)習(xí)、神經(jīng)網(wǎng)絡(luò)、自然語言處理等先進(jìn)的算法和模型,能夠模仿和超越人類的創(chuàng)造力和智慧。生成人工智能已經(jīng)在各個(gè)領(lǐng)域展現(xiàn)了驚人的能力和潛力,比如音樂、藝術(shù)、文學(xué)、設(shè)計(jì)、游戲、醫(yī)療、教育、商業(yè)等,它為人們提供了更多的便利和樂趣,也為社會(huì)帶來了更多的價(jià)值和創(chuàng)新。
生成人工智能面臨著許多的挑戰(zhàn)和問題,比如數(shù)據(jù)的質(zhì)量和來源,模型的可靠性和可解釋性,以及倫理和法律的約束和保護(hù)。這些問題不僅影響著生成人工智能的發(fā)展和應(yīng)用,也關(guān)系到人類的利益和未來。因此,我們需要對(duì)生成人工智能有一個(gè)全面和深入的了解,探討它的優(yōu)勢(shì)和劣勢(shì),分析它的機(jī)遇和風(fēng)險(xiǎn),制定合理的規(guī)則和標(biāo)準(zhǔn),以確保它的負(fù)責(zé)任使用和可持續(xù)發(fā)展。
1.我們會(huì)讓生成人工智能減輕偏見的問題嗎?
文章首先指出,生成人工智能中的偏見是由于使用了反映了社會(huì)歧視的真實(shí)數(shù)據(jù)來訓(xùn)練模型,導(dǎo)致模型在生成內(nèi)容時(shí)也會(huì)重現(xiàn)和加劇這些歧視,比如在聊天機(jī)器人、圖像生成器、面部識(shí)別、招聘算法等方面。要從根本上解決偏見問題,需要新的數(shù)據(jù)集或新的訓(xùn)練方法,但這些都需要很長(zhǎng)的時(shí)間和工作。文章介紹了一些目前的研究方向,比如使用人類反饋的強(qiáng)化學(xué)習(xí)、使用合成數(shù)據(jù)集、使用多樣化和跨領(lǐng)域的數(shù)據(jù)等,來減少生成人工智能中的偏見。
偏見已經(jīng)成了人工智能帶來的傷害的代名詞,這是有道理的?,F(xiàn)實(shí)中的數(shù)據(jù),特別是從網(wǎng)上抓取的文本和圖片,都充滿了偏見,從性別刻板印象到種族歧視。用這些數(shù)據(jù)訓(xùn)練的模型就會(huì)學(xué)習(xí)這些偏見,然后在使用的時(shí)候又會(huì)加強(qiáng)這些偏見。
聊天機(jī)器人和圖像生成器往往把工程師描繪成白人男性,護(hù)士描繪成白人女性。黑人有被警察部門的面部識(shí)別程序誤認(rèn)的風(fēng)險(xiǎn),導(dǎo)致被錯(cuò)誤逮捕。招聘算法偏向于男性而不是女性,使得原本想要解決的偏見更加深入。
如果沒有新的數(shù)據(jù)集或新的訓(xùn)練方法(這兩者都需要很多年的工作),偏見問題的根源就會(huì)一直存在。但這并沒有阻止它成為研究的熱門話題。OpenAI就試圖用一些技術(shù),比如人類反饋的強(qiáng)化學(xué)習(xí)(RLHF),來讓它的大型語言模型變得更少偏見。這樣就可以讓模型的輸出更接近人類測(cè)試者喜歡的文本。
其他的技術(shù)涉及到使用合成數(shù)據(jù)集。比如Runway,一個(gè)為視頻制作提供生成模型的創(chuàng)業(yè)公司,就用一些合成數(shù)據(jù),比如人工生成的不同種族、性別、職業(yè)、年齡的人的圖片,來訓(xùn)練一個(gè)受歡迎的圖像生成模型Stable Diffusion的一個(gè)版本。這家公司報(bào)告說,用這個(gè)數(shù)據(jù)集訓(xùn)練的模型可以生成更多的深膚色的人和女性的圖片。如果請(qǐng)求一個(gè)商人的圖片,輸出就會(huì)包括戴頭巾的女性;如果請(qǐng)求一個(gè)醫(yī)生的圖片,輸出就會(huì)包括膚色和性別多樣的人。
批評(píng)者認(rèn)為這些解決方案只是在破損的基礎(chǔ)模型上貼上創(chuàng)可貼,掩蓋而不是修復(fù)問題。但是Geoff Schaefer,Smith在Booz Allen Hamilton的同事,也是這家公司的人工智能責(zé)任主管,認(rèn)為這樣的算法偏見可以以一種有益的方式暴露社會(huì)偏見。
舉個(gè)例子,他指出,即使從數(shù)據(jù)集中刪除了關(guān)于種族的明確信息,種族偏見仍然可以影響數(shù)據(jù)驅(qū)動(dòng)的決策,因?yàn)榉N族可以從人們的地址推斷出來,揭示了隔離和住房歧視的模式?!拔覀儼岩欢褦?shù)據(jù)放在一起,這種相關(guān)性就變得非常明顯,”他說。
Schaefer認(rèn)為這一代的人工智能也會(huì)發(fā)生類似的事情:“這些社會(huì)上的偏見都會(huì)顯現(xiàn)出來?!彼f,這將導(dǎo)致更有針對(duì)性的政策制定。
但是很多人會(huì)對(duì)這種樂觀態(tài)度感到不滿。問題暴露出來并不意味著它一定會(huì)得到解決。政策制定者仍然在努力解決多年前就暴露出來的社會(huì)偏見,比如在住房、招聘、貸款、警察等方面。與此同時(shí),個(gè)人還要承受后果。
偏見將繼續(xù)是大多數(shù)生成人工智能模型的固有特征。但是通過一些變通方法和提高意識(shí),可以幫助政策制定者解決最明顯的例子。
2.人工智能將如何改變我們應(yīng)用版權(quán)的方式?
AI將如何改變我們對(duì)版權(quán)的運(yùn)用?許多藝術(shù)家和作家(還有編程人員)不滿科技公司未經(jīng)同意就從他們的作品中獲利,于是對(duì)OpenAI、微軟等公司提起集體訴訟,指控他們侵犯版權(quán)。Getty也起訴了Stability AI,這是一家制作圖像的公司,它的產(chǎn)品叫Stable Diffusion。
莎拉·西爾弗曼和喬治·R.R.馬丁等名人的訴訟引起了媒體的關(guān)注。這些案件將重新定義在美國(guó),什么算是對(duì)他人作品的合理使用,什么不算。但是別急著看結(jié)果。專門從事知識(shí)產(chǎn)權(quán)許可的律師事務(wù)所Gunderson Dettmer的合伙人凱蒂·加德納說,法院要做出最終判決還需要幾年時(shí)間。她說到那時(shí),“這項(xiàng)技術(shù)已經(jīng)在經(jīng)濟(jì)中根深蒂固,無法逆轉(zhuǎn)?!?/span>
與此同時(shí),科技行業(yè)正以驚人的速度利用這些涉嫌侵權(quán)的技術(shù)。加德納說:“我不認(rèn)為公司會(huì)等著看?!薄半m然有一些法律風(fēng)險(xiǎn),但是如果不跟上,風(fēng)險(xiǎn)會(huì)更大?!?/span>
一些公司已經(jīng)采取措施,限制侵權(quán)的可能性。OpenAI和Meta聲稱已經(jīng)推出了一種讓創(chuàng)作者從未來的數(shù)據(jù)集中刪除他們的作品的方法。OpenAI現(xiàn)在禁止DALL-E的用戶請(qǐng)求以活著的藝術(shù)家的風(fēng)格生成圖像。但是,加德納說,“這些都是為了支持他們?cè)谠V訟中的論點(diǎn)。”
谷歌、微軟和OpenAI現(xiàn)在提供保護(hù)他們的模型用戶免受潛在法律訴訟的服務(wù)。微軟的GitHub Copilot生成式編程助手,就是因?yàn)槭褂昧艘恍┸浖_發(fā)者的代碼而被起訴的,它的賠償政策原則上會(huì)保護(hù)那些在法院審理期間使用它的人?!拔覀儠?huì)承擔(dān)這個(gè)負(fù)擔(dān),讓我們的產(chǎn)品用戶不用擔(dān)心,”微軟CEO薩提亞·納德拉告訴《麻省理工科技評(píng)論》。
與此同時(shí),新的許可協(xié)議也在出現(xiàn)。Shutterstock和OpenAI簽訂了一份為期六年的協(xié)議,允許后者使用其圖像。Adobe也聲稱,它自己的圖像生成模型Firefly,只使用了經(jīng)過許可的圖像,或者來自其Adobe Stock數(shù)據(jù)集的圖像,或者已經(jīng)不受版權(quán)保護(hù)的圖像。但是,一些Adobe Stock的貢獻(xiàn)者說,他們沒有被征求意見,對(duì)此很不滿。
怨氣很大?,F(xiàn)在藝術(shù)家們用自己的技術(shù)反擊。有一種工具叫Nightshade,它可以讓用戶以一種人類無法察覺的方式改變圖像,但是對(duì)機(jī)器學(xué)習(xí)模型卻是致命的,讓它們?cè)谟?xùn)練過程中錯(cuò)誤地分類圖像。預(yù)計(jì)在線分享和重用媒體的規(guī)范會(huì)發(fā)生很大的調(diào)整。高調(diào)的訴訟仍將引起關(guān)注,但這不太可能阻止公司繼續(xù)開發(fā)生成式模型。圍繞道德數(shù)據(jù)集的新市場(chǎng)將出現(xiàn),公司和創(chuàng)作者之間的貓鼠游戲也將展開。
3.它將如何改變我們的工作?
生成人工智能正在威脅我們的工作,不僅是藍(lán)領(lǐng),也包括白領(lǐng),比如數(shù)據(jù)分析師、醫(yī)生、律師和記者。生成人工智能可以通過大型語言模型來完成一些需要高水平的考試、總結(jié)、寫作等任務(wù)。但這并不意味著生成人工智能真的很聰明,也不意味著它們可以取代所有的專業(yè)角色。
Will Douglas Heaven在文章中介紹了一些使用生成人工智能的案例,比如波士頓咨詢集團(tuán)的顧問實(shí)驗(yàn),Air Street Capital 的分析報(bào)告,以及Runway 的視頻制作。文章展示了生成人工智能可以幫助工作人員提高效率、質(zhì)量、創(chuàng)新和滿意度。文章也提到了一些使用生成人工智能的注意事項(xiàng),比如要避免過度依賴、要檢查錯(cuò)誤、要尊重版權(quán)等。
生成人工智能對(duì)辦公桌工作以外的影響,比如圖像和視頻制作模型可以在不需要人類參與的情況下制作大量的圖片和電影。文章指出,這將引發(fā)一些版權(quán)、道德和社會(huì)的問題,比如2023年的美國(guó)作家和演員的罷工。
生成人工智能對(duì)工作的總體影響,生成人工智能不是取代工人,而是賦予工人權(quán)力。技術(shù)變革會(huì)帶來新的就業(yè)機(jī)會(huì),而不是造成大規(guī)模失業(yè),技術(shù)變革會(huì)帶來一些痛苦和不平等,需要我們思考我們想要的工作的意義和價(jià)值。
生成人工智能會(huì)影響哪些類型的工作,取決于工作的性質(zhì)和特點(diǎn),以及生成人工智能的能力和局限。一般來說,生成人工智能會(huì)影響那些需要大量的重復(fù)和規(guī)范的工作,比如數(shù)據(jù)的收集、處理、分析、可視化等,因?yàn)檫@些工作可以很容易地被生成人工智能的算法和模型所實(shí)現(xiàn)和優(yōu)化,而且生成人工智能可以比人類更快、更準(zhǔn)、更全地完成這些工作。生成人工智能也會(huì)影響那些需要高度的創(chuàng)造力和智慧的工作,比如音樂、藝術(shù)、文學(xué)、設(shè)計(jì)、游戲、醫(yī)療、教育、商業(yè)等,因?yàn)檫@些工作可以很好地利用生成人工智能的生成能力和生成潛力,而且生成人工智能可以比人類更多、更新、更好地創(chuàng)造出這些內(nèi)容和產(chǎn)品。生成人工智能還會(huì)影響那些需要跨領(lǐng)域和跨媒介的工作,比如從文本生成圖像,從圖像生成音頻,從音頻生成視頻等,因?yàn)檫@些工作可以很方便地使用生成人工智能的生成技術(shù)和生成工具,而且生成人工智能可以比人類更靈活、更自由、更精確地生成出這些內(nèi)容和產(chǎn)品。
4.AI造假的風(fēng)險(xiǎn)有多大?
2023年,生成式AI引起了廣泛的關(guān)注和擔(dān)憂。一些用AI制造的假照片在網(wǎng)上瘋傳,有些甚至涉及教皇、特朗普和五角大樓等敏感人物和地點(diǎn)。這些虛假信息不僅難以辨別,而且可能影響選舉結(jié)果。OpenAI自己也承認(rèn),它的技術(shù)可能被用于制造有害的宣傳。為了應(yīng)對(duì)這些問題,拜登政府和歐盟都出臺(tái)了相關(guān)的規(guī)定和措施,要求AI生成內(nèi)容加上標(biāo)識(shí)和水印,并保護(hù)用戶免受聊天機(jī)器人的欺騙。同時(shí),美國(guó)還將對(duì)可能危及國(guó)家安全的AI進(jìn)行審計(jì)。但是,這些措施是否有效,是否及時(shí),是否合理,還有待觀察。一些AI專家和企業(yè)家對(duì)AI的未來和風(fēng)險(xiǎn)有不同的看法,有些擔(dān)心AI會(huì)導(dǎo)致人類滅絕,有些認(rèn)為這是荒謬的,有些認(rèn)為應(yīng)該放慢AI的發(fā)展,有些認(rèn)為應(yīng)該加快AI的創(chuàng)新。他們之間的爭(zhēng)論還沒有結(jié)束,而生成式AI的使用和濫用也還在繼續(xù)。
2023年最火的三張照片是:教皇穿著Balenciaga的羽絨服,特朗普被警察摁倒在地,五角大樓爆炸。全都是假的,但卻被數(shù)百萬人看到和轉(zhuǎn)發(fā)。
用生成式模型制造假文本或假圖像比以往更容易。很多人警告說,虛假信息泛濫。OpenAI參與了一項(xiàng)研究,揭示了它自己的技術(shù)可能被用于假新聞活動(dòng)的多種濫用方式。在2023年的一份報(bào)告中,它警告說,大型語言模型可能被用來制造更有說服力的宣傳,而且難以識(shí)別,而且規(guī)模龐大。美國(guó)和歐盟的專家已經(jīng)表示,選舉面臨風(fēng)險(xiǎn)。
拜登政府在10月份發(fā)布的關(guān)于人工智能的行政命令,將AI生成內(nèi)容的標(biāo)注和檢測(cè)作為重點(diǎn),這并不令人意外。但是,這項(xiàng)命令沒有法律上強(qiáng)制要求工具制造商將文本或圖像標(biāo)記為AI的創(chuàng)作。而且最好的檢測(cè)工具還不夠可靠。
歐盟的AI法案本月達(dá)成一致,并且走得更遠(yuǎn)。這項(xiàng)全面的立法的一部分要求公司給AI生成的文本、圖像或視頻加上水印,并在人們與聊天機(jī)器人互動(dòng)時(shí)明確告知。而且AI法案有牙齒:規(guī)則是有約束力的,違反者將面臨高額罰款。
美國(guó)也表示,它將審計(jì)任何可能對(duì)國(guó)家安全構(gòu)成威脅的AI,包括選舉干預(yù)。這是一個(gè)很好的步驟,Benaich說。但是,就連這些模型的開發(fā)者也不知道它們的全部能力:“政府或其他獨(dú)立機(jī)構(gòu)能夠強(qiáng)制公司在發(fā)布模型之前進(jìn)行全面測(cè)試的想法似乎不現(xiàn)實(shí)?!?/span>
問題在于:在技術(shù)被使用之前,我們不可能知道它會(huì)被濫用的所有方式?!?023年有很多關(guān)于放慢AI發(fā)展的討論,”Schaefer說?!暗俏覀兂窒喾吹挠^點(diǎn)?!?/span>
除非這些工具被盡可能多的人以盡可能多樣的方式使用,否則我們無法使它們變得更好,他說:“我們不會(huì)理解這些奇怪的風(fēng)險(xiǎn)會(huì)以怎樣的細(xì)微方式顯現(xiàn),或者什么事件會(huì)引發(fā)它們?!?/span>
隨著使用的增加,新的濫用形式將繼續(xù)出現(xiàn)??赡軙?huì)有一些引人注目的例子,可能涉及選舉操縱。
5.我們會(huì)認(rèn)真對(duì)待它的成本嗎?
生成式AI的開發(fā)不僅需要大量的數(shù)據(jù)和算力,還需要大量的人工干預(yù)和審核。這些工作往往由一些看不見的、低收入的工人來完成,他們的勞動(dòng)條件和心理健康都受到了忽視。2023年,OpenAI因?yàn)楣蛡蚩夏醽喌墓と藖磉^濾它的生成式模型的有害內(nèi)容而受到了媒體的曝光和批評(píng)。這引起了公眾對(duì)生成式AI的人力成本的關(guān)注和質(zhì)疑。另一方面,生成式AI的開發(fā)也消耗了大量的能源,導(dǎo)致了環(huán)境污染和氣候變化。英偉達(dá)等公司因?yàn)樘峁┝擞?xùn)練AI模型的硬件而獲得了巨大的收益,但也面臨著節(jié)能和創(chuàng)新的壓力。公眾對(duì)AI的勞動(dòng)和環(huán)境成本的認(rèn)識(shí)將增加,給科技公司帶來壓力。但是,在這兩方面取得顯著的改善還需要時(shí)間和努力。
AI的代價(jià)有多高?生成式AI的開發(fā)代價(jià),無論是人力還是環(huán)境,都不容忽視。看不見的工人問題是一個(gè)公開的秘密:我們免受了生成式模型能產(chǎn)生的最糟糕的東西,部分原因是有一群隱藏的(通常報(bào)酬很低的)勞工,他們給訓(xùn)練數(shù)據(jù)打標(biāo)簽,還要在測(cè)試過程中清除有毒的、有時(shí)是創(chuàng)傷性的輸出。這些是數(shù)據(jù)時(shí)代的血汗工廠。
2023年,OpenAI在肯尼亞的工人使用情況受到了《時(shí)代》和《華爾街日?qǐng)?bào)》等主流媒體的關(guān)注。OpenAI想要通過建立一個(gè)過濾器來改進(jìn)它的生成式模型,這個(gè)過濾器可以隱藏仇恨的、淫穢的和其他冒犯性的內(nèi)容,不讓用戶看到。但是,要做到這一點(diǎn),它需要人們找到并標(biāo)記大量這樣的有毒內(nèi)容的例子,以便它的自動(dòng)過濾器能夠?qū)W會(huì)識(shí)別它們。OpenAI雇傭了外包公司Sama,而Sama據(jù)稱又使用了在肯尼亞的低薪工人,而且給他們的支持很少。
隨著生成式AI成為一個(gè)主流的問題,人力成本將更加突出,迫使建造這些模型的公司解決全世界被雇傭來幫助改進(jìn)他們技術(shù)的工人的勞動(dòng)條件。另一個(gè)巨大的成本,就是訓(xùn)練大型生成式模型所需的能源,這個(gè)數(shù)字在情況好轉(zhuǎn)之前還會(huì)上升。8月份,英偉達(dá)宣布2024年第二季度的收入超過135億美元,比去年同期翻了一番。其中大部分收入(103億美元)來自數(shù)據(jù)中心,換句話說,就是其他公司使用英偉達(dá)的硬件來訓(xùn)練AI模型。
“需求非常驚人,”英偉達(dá)CEO黃仁勛說。“我們正處于生成式AI的起飛階段。”他承認(rèn)能源問題,并預(yù)測(cè)這次繁榮甚至可能推動(dòng)計(jì)算硬件的類型發(fā)生變化。“世界上絕大多數(shù)的計(jì)算基礎(chǔ)設(shè)施都必須節(jié)能,”他說。
公眾對(duì)AI的勞動(dòng)和環(huán)境成本的認(rèn)識(shí)將增加,給科技公司帶來壓力。但是不要指望在這兩方面很快有顯著的改善。
6.AI末日論會(huì)影響政策制定嗎?
AI末日論——認(rèn)為智能機(jī)器的創(chuàng)造可能帶來災(zāi)難性,甚至是世界末日的后果——一直是AI的一個(gè)暗流。但是高潮迭起的炒作,加上AI先驅(qū)杰弗里·辛頓在5月份宣布他現(xiàn)在害怕他自己幫助建造的技術(shù),讓它浮出水面。
2023年,幾乎沒有什么問題比這個(gè)更有爭(zhēng)議。像辛頓和另一位圖靈獎(jiǎng)得主、創(chuàng)立Meta AI實(shí)驗(yàn)室的雅恩·勒昆這樣的AI名人,對(duì)AI末日論持不同的看法,他們?cè)谏缃幻襟w上公開爭(zhēng)吵,相互挖苦。
辛頓、OpenAI CEO薩姆·奧爾特曼等人建議,(未來的)AI系統(tǒng)應(yīng)該有類似于核武器的安全措施。這樣的話引起了人們的注意。但是在7月份他與人合寫的一篇《Vox》文章中,美國(guó)科學(xué)家聯(lián)合會(huì)核信息項(xiàng)目的項(xiàng)目經(jīng)理馬特·科達(dá),譴責(zé)了這些“混亂的類比”和它們引發(fā)的“不消耗卡路里的媒體恐慌”。
我們很難分辨真假,因?yàn)槲覀儾恢腊l(fā)出警告的人的動(dòng)機(jī),Benaich說:“看起來很奇怪,很多人靠這些東西發(fā)了大財(cái),而且很多人還是那些主張更大控制的人。就像是說,‘嘿,我發(fā)明了一種很強(qiáng)大的東西!它有很多風(fēng)險(xiǎn),但我有解藥。’” 有些人擔(dān)心這種恐嚇的影響。在X上,深度學(xué)習(xí)的先驅(qū)吳恩達(dá)寫道:“我對(duì)AI未來的最大擔(dān)憂是,如果被夸大的風(fēng)險(xiǎn)(比如人類滅絕)讓科技說客通過了壓制開源和扼殺創(chuàng)新的嚴(yán)苛法規(guī)?!边@場(chǎng)辯論也讓資源和研究人員從更緊迫的風(fēng)險(xiǎn),比如偏見、就業(yè)動(dòng)蕩和虛假信息轉(zhuǎn)移了注意力。
“有些人推動(dòng)存在風(fēng)險(xiǎn),因?yàn)樗麄冋J(rèn)為這會(huì)讓他們自己的公司受益,”谷歌的有影響力的AI研究員弗朗索瓦·喬萊說?!罢?wù)摯嬖陲L(fēng)險(xiǎn)既突出了你有多么有道德意識(shí)和責(zé)任感,又轉(zhuǎn)移了對(duì)更現(xiàn)實(shí)和緊迫問題的關(guān)注?!?/span>
Benaich指出,有些人一邊敲響警鐘,一邊為他們的公司籌集1億美元?!澳憧梢哉f,末日論是一種籌款策略,”他說。
恐嚇將會(huì)平息,但對(duì)政策制定者的議程的影響可能會(huì)持續(xù)一段時(shí)間。呼吁重新關(guān)注更直接的危害將繼續(xù)。
7.附加問題:人工智能的殺手級(jí)應(yīng)用還沒出現(xiàn)
OpenAI推出了一款聊天機(jī)器人ChatGPT,它基于OpenAI之前的大型語言模型GPT-3.5,但做了一些改進(jìn),使它更適合對(duì)話和回答問題。這款聊天機(jī)器人引起了很多人的興趣和好奇,被認(rèn)為是人工智能領(lǐng)域的一次突破。OpenAI的聯(lián)合創(chuàng)始人兼首席科學(xué)家Ilya Sutskever說,他和他的團(tuán)隊(duì)經(jīng)常用ChatGPT來做各種事情,比如查單詞、查事實(shí)、規(guī)劃假期、學(xué)編程等。他說,人工智能是最火的東西,也是科技和經(jīng)濟(jì)的核心。但是,OpenAI沒有給ChatGPT設(shè)定一個(gè)明確的用途,而是讓用戶自由發(fā)揮。這讓很多人感到困惑和失望,因?yàn)樗麄儼l(fā)現(xiàn)ChatGPT并沒有什么驚人的功能,也沒有什么殺手級(jí)的應(yīng)用。谷歌的員工也對(duì)他們自己的聊天機(jī)器人Bard表示懷疑,不知道它有什么價(jià)值。投資公司紅杉資本的數(shù)據(jù)顯示,生成式人工智能的應(yīng)用還沒有達(dá)到Y(jié)ouTube和Instagram等流行服務(wù)的水平,用戶的忠誠度很低。生成式人工智能還面臨著很多問題和挑戰(zhàn),比如利基市場(chǎng)、競(jìng)爭(zhēng)對(duì)手、技術(shù)變革等。正如OpenAI的另一位聯(lián)合創(chuàng)始人兼首席執(zhí)行官Sam Schaefer所說,我們必須用前所未有的方式來解決這些問題。
ChatGPT 本來差點(diǎn)沒上線。OpenAI 的聯(lián)合創(chuàng)始人兼首席科學(xué)家 Ilya Sutskever 對(duì)它的準(zhǔn)確性不滿意。其他人覺得它沒什么進(jìn)步。其實(shí),ChatGPT 只是把 OpenAI 之前開發(fā)的大型語言模型 GPT-3.5 和一些有趣的改進(jìn)(比如更有對(duì)話感和更貼切的回答)結(jié)合起來,做成一個(gè)方便的包。“它很強(qiáng)大,也很好用,”Sutskever 說?!斑@是人工智能領(lǐng)域第一次讓外行人看到人工智能的進(jìn)步。”
ChatGPT 的炒作還沒結(jié)束?!叭斯ぶ悄苁亲罨鸬臇|西,”Sutskever 說?!八强萍己徒?jīng)濟(jì)的核心。我覺得我們會(huì)一直對(duì)人工智能的能力感到驚訝。”
但既然我們知道了人工智能能做什么,那么它的用途是什么呢?OpenAI 沒有考慮這項(xiàng)技術(shù)的實(shí)際用途。他們發(fā)布 ChatGPT 時(shí)就說,隨你怎么用。從那以后,大家都在想這個(gè)問題。
“我覺得 ChatGPT 很有用,”Sutskever 說。“我常用它來做各種事?!?他說他用它來查單詞,或者幫他表達(dá)得更清楚。有時(shí)他用它來查事實(shí)(雖然它不一定對(duì))。OpenAI 的其他人用它來規(guī)劃假期(“世界上最好的三個(gè)潛水地點(diǎn)是哪里?”)或者學(xué)編程或者找 IT 支持。
有用,但不夠驚艷。大部分例子都可以用現(xiàn)有的工具(比如搜索)來做。同時(shí),據(jù)說谷歌的員工對(duì)他們自己的聊天機(jī)器人 Bard(現(xiàn)在由谷歌的 GPT-4 對(duì)手 Gemini 支持)的實(shí)用性有疑問?!拔疫€在想,對(duì)于法學(xué)碩士來說,Bard 真的有什么用?” 巴德的用戶體驗(yàn)主管 Cathy Pearl 8 月份在 Discord 上寫道?!熬拖裾娴挠懈淖儭_€不知道!”
沒有殺手級(jí)應(yīng)用,就沒有“哇”效應(yīng)。投資公司紅杉資本的數(shù)據(jù)顯示,雖然 ChatGPT、Character.ai 和 Lensa 等人工智能應(yīng)用可以讓用戶制作自己的風(fēng)格化(和性別歧視)頭像,但它們還是比 YouTube 和 Instagram 等流行的服務(wù)更容易失去用戶。抖音也是。
“消費(fèi)科技的規(guī)律還是一樣,”貝奈奇說?!皶?huì)有很多試驗(yàn),炒了幾個(gè)月就死了?!?/span>
當(dāng)然,互聯(lián)網(wǎng)的早期也有很多失敗的嘗試。在改變世界之前,互聯(lián)網(wǎng)經(jīng)歷了一場(chǎng)泡沫。今天的生成式人工智能也可能會(huì)失敗,被下一個(gè)大事所取代。
不管怎樣,既然人工智能已經(jīng)成為主流,利基問題也變成了大家的問題。正如謝弗所說,“我們必須用前所未有的方式來解決這些問題?!?/span>