美媒:馬斯克等人呼吁暫停AI訓(xùn)練是對(duì)的 為了安全需要放慢腳步
3月30日消息,特斯拉?首席執(zhí)行官埃隆·馬斯克?(Elon Musk)、蘋果聯(lián)合創(chuàng)始人史蒂夫·沃茲尼亞克(Steve Wozniak)以及其他1000多人日前簽署了一封公開(kāi)信,呼吁暫停訓(xùn)練比GPT-4更強(qiáng)大的AI系統(tǒng)。美國(guó)主流網(wǎng)絡(luò)媒體BI認(rèn)為,為了全社會(huì)的利益,AI開(kāi)發(fā)需要放慢腳步。
在公開(kāi)信中,沃茲尼亞克、馬斯克等人要求在AI技術(shù)變得日益強(qiáng)大之際,為其設(shè)置安全護(hù)欄,并暫停訓(xùn)練更先進(jìn)的AI模型。他們認(rèn)為,對(duì)于像OpenAI的GPT-4這樣強(qiáng)大的AI模型,“只有在我們確信它們的影響是積極的、風(fēng)險(xiǎn)是可控的情況下才應(yīng)該開(kāi)發(fā)”。
當(dāng)然,這并不是人們首次呼吁為AI設(shè)置安全護(hù)欄。然而,隨著AI變得越來(lái)越復(fù)雜、越來(lái)越先進(jìn),要求保持謹(jǐn)慎的呼聲也在不斷升高。
美國(guó)康奈爾大學(xué)數(shù)字和信息法教授詹姆斯·格里梅爾曼(James Grimmelmann)表示:“放慢新AI模型的開(kāi)發(fā)速度是一個(gè)非常好的主意,因?yàn)槿绻鸄I最終對(duì)我們有利,那么等待幾個(gè)月或幾年也沒(méi)有壞處,我們無(wú)論如何都會(huì)到達(dá)終點(diǎn)。而如果它是有害的,那我們也為自己爭(zhēng)取了額外的時(shí)間,以制定應(yīng)對(duì)的最佳方式,并了解如何與其作對(duì)抗?!?/p>
ChatGPT崛起凸顯出行動(dòng)過(guò)快存在潛在危險(xiǎn)
去年11月,當(dāng)OpenAI的聊天機(jī)器人ChatGPT上市公測(cè)時(shí),引起了巨大轟動(dòng)??梢岳斫獾氖牵藗冮_(kāi)始推廣ChatGPT的功能,而它對(duì)社會(huì)的破壞性很快就顯現(xiàn)出來(lái)了。ChatGPT開(kāi)始通過(guò)醫(yī)生職業(yè)考試,給出如何制作炸彈的說(shuō)明,甚至為自己創(chuàng)造了另一個(gè)自我。
我們?cè)蕉嗟厥褂肁I,特別是ChatGPT或文本到圖像轉(zhuǎn)換工具Stable Diffusion等所謂的生成式人工智能(AIGC)工具,我們就越能看到它的缺點(diǎn),它制造偏見(jiàn)的潛力,以及我們?nèi)祟愒谑褂盟牧α繒r(shí)顯得多么無(wú)力。
BI編輯哈?!潭爬铮℉asan Chowdhury)寫道,AI有可能“成為渦輪增壓機(jī),加速我們的錯(cuò)誤蔓延開(kāi)來(lái)”。就像社交媒體那樣,它可以利用人類最好的和最壞的東西。但與社交媒體不同的是,AI將更多地融入人們的生活。
ChatGPT和其他類似的AI產(chǎn)品已經(jīng)傾向于歪曲信息和犯錯(cuò)誤,沃茲尼亞克曾公開(kāi)談?wù)撨^(guò)這一點(diǎn)。它很容易產(chǎn)生所謂的“幻覺(jué)”(不真實(shí)信息),就連OpenAI首席執(zhí)行官薩姆·阿爾特曼(Sam Altman)也承認(rèn),該公司模型可能會(huì)產(chǎn)生種族、性別歧視和帶有偏見(jiàn)的答案。Stable Diffusion也遇到了版權(quán)問(wèn)題,并被指控從數(shù)字藝術(shù)家的作品中竊取靈感。
隨著AI融入更多的日常技術(shù)中,我們可能會(huì)在更大范圍內(nèi)給世界帶來(lái)更多錯(cuò)誤信息。即使是對(duì)AI來(lái)說(shuō)看似良性的任務(wù),比如幫助策劃假期,也可能不會(huì)產(chǎn)生完全可信的結(jié)果。
當(dāng)自由市場(chǎng)要求快速發(fā)展時(shí),很難負(fù)責(zé)任地開(kāi)發(fā)AI技術(shù)
需要明確的是,AI是一項(xiàng)令人難以置信的變革性技術(shù),特別是像ChatGPT這樣的AIGC。開(kāi)發(fā)機(jī)器來(lái)完成人們討厭的大部分乏味工作,從本質(zhì)上講并沒(méi)有錯(cuò)。
盡管這項(xiàng)技術(shù)在勞動(dòng)力中造成了生存危機(jī),但它也被譽(yù)為科技行業(yè)的平等工具。目前也沒(méi)有證據(jù)表明,ChatGPT準(zhǔn)備在未來(lái)幾年領(lǐng)導(dǎo)一場(chǎng)機(jī)器人叛亂。
許多AI公司都有倫理學(xué)家參與,以負(fù)責(zé)任的態(tài)度開(kāi)發(fā)這項(xiàng)技術(shù)。但是,如果匆忙推出產(chǎn)品的重要性高于其社會(huì)影響,專注于安全創(chuàng)建AI的團(tuán)隊(duì)就無(wú)法安心完成工作。
速度似乎也是這股AI熱潮中不可忽略的因素。OpenAI認(rèn)為,如果該公司行動(dòng)足夠快,就可以抵御競(jìng)爭(zhēng),成為AIGC領(lǐng)域的領(lǐng)導(dǎo)者。這促使微軟、谷歌和幾乎所有其他公司爭(zhēng)相效仿。
在強(qiáng)大的AI模型準(zhǔn)備就緒之前就發(fā)布給公眾體驗(yàn),并不能讓這項(xiàng)技術(shù)變得更好。人們還未找到AI的最佳用例,因?yàn)殚_(kāi)發(fā)人員必須撲滅他們所創(chuàng)造技術(shù)引發(fā)的喧囂,而用戶則被噪音分散了注意力。
并不是每個(gè)人都希望放慢速度
馬斯克等人的公開(kāi)信也受到其他人批評(píng),他們認(rèn)為其沒(méi)有切中要害。
華盛頓大學(xué)教授艾米麗·本德(Emily M. Bender)在推特上表示,馬斯克和其他科技領(lǐng)袖在炒作周期中只關(guān)注AI的強(qiáng)大程度,而不是它能造成的實(shí)際損害。
康奈爾大學(xué)數(shù)字和信息法教授格里梅爾曼補(bǔ)充說(shuō),在這封公開(kāi)信上簽名的科技領(lǐng)袖“姍姍來(lái)遲”,并打開(kāi)了一個(gè)潘多拉盒子,可能給自己帶來(lái)麻煩。他稱:“現(xiàn)在他們已經(jīng)在這封信上簽名,那么他們就不能轉(zhuǎn)身再說(shuō),不能對(duì)自動(dòng)駕駛汽車等其他技術(shù)施行同樣的政策。”
暫停開(kāi)發(fā)或施加更多監(jiān)管可能會(huì)也不會(huì)取得成果。但現(xiàn)在,話題似乎已經(jīng)轉(zhuǎn)向。AI已經(jīng)存在了幾十年,或許我們還可以再多等幾年。