ChatGPT的第一份政府審查,或?qū)?lái)自美聯(lián)邦貿(mào)易委員會(huì),OpenAI:尚未訓(xùn)練GPT5
大數(shù)據(jù)文摘出品
繼收到由數(shù)百名著名人工智能專(zhuān)家、科技企業(yè)家和科學(xué)家簽署的一封公開(kāi)信之后,ChatGPT成為AI倫理界的“眾矢之的”。
3月30日,美國(guó)聯(lián)邦貿(mào)易委員會(huì)(FTC)收到來(lái)自人工智能和數(shù)字政策中心(CAIDP)的一份新的舉報(bào),要求對(duì) OpenAI 及其產(chǎn)品 GPT-4 進(jìn)行調(diào)查。
舉報(bào)稱(chēng) FTC 已經(jīng)規(guī)定人工智能的使用應(yīng)該是“透明的、可解釋的、公平的和經(jīng)驗(yàn)上合理的,同時(shí)促進(jìn)問(wèn)責(zé)制”,但聲稱(chēng) OpenAI 的 ChatGPT4“不滿(mǎn)足這些要求”,并且是“有偏見(jiàn)的、欺騙性的,并且對(duì)隱私和公共安全構(gòu)成風(fēng)險(xiǎn)”。
CAIDP 是一家位于華盛頓特區(qū)的獨(dú)立非盈利研究機(jī)構(gòu),專(zhuān)門(mén)“評(píng)估國(guó)家人工智能政策和實(shí)踐,培訓(xùn)人工智能政策領(lǐng)導(dǎo)人,并促進(jìn)人工智能的民主價(jià)值觀?!?/p>
ChatGPT的第一份政府審查,或?qū)?lái)自FTC
法律專(zhuān)家表示,隨著人工智能的增長(zhǎng)和發(fā)展速度,F(xiàn)TC 可能會(huì)在2023年制定有關(guān)人工智能的規(guī)則。
2022年12月的一篇文章中透露,美國(guó)聯(lián)邦貿(mào)易委員會(huì)(FTC)可能正在出臺(tái)聯(lián)邦人工智能監(jiān)管法規(guī),盡管?chē)?guó)會(huì)提交的以人工智能為重點(diǎn)的法案尚未獲得重大支持。、
文章稱(chēng): “近年來(lái),聯(lián)邦貿(mào)易委員會(huì)發(fā)布了兩份出版物,預(yù)示著對(duì)人工智能監(jiān)管的關(guān)注將進(jìn)一步加大。”同時(shí),聯(lián)邦貿(mào)易委員會(huì)在執(zhí)行各種法規(guī)方面發(fā)展了人工智能專(zhuān)業(yè)知識(shí),例如《公平信用報(bào)告法》(Fair Credit Reporting Act)、《平等信用機(jī)會(huì)法》(Average Credit Opportunity Act)和《聯(lián)邦貿(mào)易委員法規(guī)》(FTC Act)。
除了已經(jīng)推出的法規(guī)和即將推出的針對(duì)AI的規(guī)則,F(xiàn)TC發(fā)表的文章也顯示出了對(duì)于AI監(jiān)管的動(dòng)向。
10天前,美國(guó)聯(lián)邦貿(mào)易委員會(huì)發(fā)表了一篇名為《聊天機(jī)器人、深度偽造和語(yǔ)音克隆: 出售人工智能欺騙》(Chatbots, deepfakes, and voice clones: AI deception for sale)的商業(yè)博客文章,作者是美國(guó)聯(lián)邦貿(mào)易委員會(huì)廣告業(yè)務(wù)部門(mén)的律師邁克爾 · 阿特爾森(Michael Atleson)。
這篇博文稱(chēng),《聯(lián)邦貿(mào)易委員會(huì)法案》“禁止欺騙或不公平行為,可適用于制造、銷(xiāo)售或使用有效設(shè)計(jì)用于欺騙的工具ーー即使這并非其本意或唯一目的?!逼髽I(yè)甚至應(yīng)該考慮是否應(yīng)該制造或銷(xiāo)售人工智能工具,以及它們是否有效地降低了風(fēng)險(xiǎn)。
“如果你決定制造或提供這樣的產(chǎn)品,在它上市應(yīng)該之前采取一切合理的預(yù)防措施。”博客文章說(shuō)?!懊绹?guó)聯(lián)邦貿(mào)易委員會(huì)(FTC)起訴了那些傳播潛在有害技術(shù)、但未采取合理措施防止消費(fèi)者受到傷害的企業(yè)。”
在2月份的另一篇文章《控制你的人工智能索賠》中,Atleson 還寫(xiě)道,聯(lián)邦貿(mào)易委員會(huì)可能在“懷疑”一家為人工智能產(chǎn)品做廣告的公司是否意識(shí)到了這些風(fēng)險(xiǎn)。
“在投放市場(chǎng)之前,你需要了解你的人工智能產(chǎn)品的合理可預(yù)見(jiàn)的風(fēng)險(xiǎn)和影響。如果出了問(wèn)題(可能會(huì)失敗或產(chǎn)生有偏見(jiàn)的結(jié)果) ,你不能只是責(zé)怪這項(xiàng)技術(shù)的第三方開(kāi)發(fā)人員。你不能說(shuō)你沒(méi)有責(zé)任,因?yàn)檫@項(xiàng)技術(shù)是一個(gè)“黑匣子”,你不能理解或不知道如何測(cè)試。”
百余位技術(shù)大佬“聲討”ChatGPT,OpenAI:尚未訓(xùn)練ChatGPT5
聯(lián)邦政府的審查可能不會(huì)來(lái)的太快,但是科技界對(duì)于迅速發(fā)展的 ChatGPT 表示了集中的擔(dān)憂(yōu)。
近日,由數(shù)百名著名人工智能專(zhuān)家、科技企業(yè)家和科學(xué)家簽署的一封公開(kāi)信,呼吁暫停開(kāi)發(fā)和測(cè)試比 OpenAI 語(yǔ)言模型 GPT-4更強(qiáng)大的人工智能技術(shù),以便對(duì)其可能構(gòu)成的風(fēng)險(xiǎn)進(jìn)行適當(dāng)?shù)难芯俊?/p>
報(bào)告警告說(shuō),像 GPT-4這樣的語(yǔ)言模型已經(jīng)可以在越來(lái)越多的任務(wù)中與人類(lèi)競(jìng)爭(zhēng),可以用來(lái)自動(dòng)化工作和傳播錯(cuò)誤信息,甚至還提出了人工智能系統(tǒng)可以取代人類(lèi)并重塑文明的擔(dān)心。
“我們呼吁所有人工智能實(shí)驗(yàn)室立即暫停培訓(xùn)比 GPT-4 更強(qiáng)大的人工智能系統(tǒng)(包括目前正在培訓(xùn)的GPT-5)至少6個(gè)月?!毙胖袑?xiě)道。
信的簽名者包括現(xiàn)代AI奠基人之一蒙特利爾大學(xué)(University of mont)教授約書(shū)亞?本吉奧(YoshuaBengio),歷史學(xué)家、 Skype 聯(lián)合創(chuàng)始人賈恩?塔林(Jaan Tallinn),以及大名鼎鼎的埃隆?馬斯克(Elon Musk)。
這封信是由未來(lái)生命研究所(Future of Life Institute)撰寫(xiě)的,這是一個(gè)專(zhuān)注于人類(lèi)面臨的技術(shù)風(fēng)險(xiǎn)的組織。信中補(bǔ)充說(shuō),研究的暫停應(yīng)該是“公開(kāi)的、可驗(yàn)證的”,并且應(yīng)該涉及所有研究 GPT-4 這樣的先進(jìn)人工智能模型的人。
微軟和谷歌沒(méi)有回應(yīng)對(duì)這封信的置評(píng)請(qǐng)求。簽名者似乎包括許多正在構(gòu)建高級(jí)語(yǔ)言模型的科技公司的員工,其中包括微軟(Microsoft)和谷歌(Google)。
對(duì)此,OpenAI 的發(fā)言人 Hannah Wong 表示,該公司在對(duì)模型進(jìn)行培訓(xùn)后,花了6個(gè)多月的時(shí)間研究 GPT-4 的安全性和校準(zhǔn)性。
Hannah Wong補(bǔ)充說(shuō),OpenAI 目前還沒(méi)有培訓(xùn) GPT-5。
相關(guān)報(bào)道: