谷歌放棄AI武器禁令——這對(duì)AI的未來意味著什么
谷歌已取消其長(zhǎng)期以來禁止使用AI制造武器和監(jiān)控系統(tǒng)的禁令,這標(biāo)志著谷歌在AI開發(fā)方面的道德立場(chǎng)發(fā)生了重大轉(zhuǎn)變。前員工和行業(yè)專家表示,此舉可能會(huì)改變硅谷對(duì)AI安全性的看法。這一變化于本周悄然實(shí)施,消除了谷歌AI原則中明確禁止公司開發(fā)用于武器或監(jiān)控的AI的關(guān)鍵部分。這些原則于2018年制定,一直是負(fù)責(zé)任AI開發(fā)的行業(yè)標(biāo)準(zhǔn)。2024年電信中的AI法規(guī)導(dǎo)航——AI影響之旅
“最后一道堡壘已經(jīng)消失,”谷歌云負(fù)責(zé)對(duì)外產(chǎn)品管理、合作和負(fù)責(zé)任AI的高級(jí)總監(jiān)特蕾西·皮佐·弗雷(Tracy Pizzo Frey)在一篇BlueSky帖子中寫道,“現(xiàn)在毫無阻礙了。谷歌在這一層面的承諾清晰度上確實(shí)獨(dú)樹一幟。”修訂后的原則取消了四項(xiàng)具體禁令:可能造成整體傷害的技術(shù);武器應(yīng)用;監(jiān)控系統(tǒng);以及違反國(guó)際法和人權(quán)的技術(shù)。相反,谷歌現(xiàn)在表示將“減輕非故意或有害的結(jié)果”,并與“國(guó)際法和人權(quán)方面廣泛接受的原則”保持一致。
谷歌放寬AI道德標(biāo)準(zhǔn):這對(duì)軍事和監(jiān)控技術(shù)意味著什么
這一轉(zhuǎn)變發(fā)生在AI能力迅速提升,以及關(guān)于該技術(shù)適當(dāng)護(hù)欄的辯論加劇的敏感時(shí)刻。這一時(shí)機(jī)引發(fā)了人們對(duì)谷歌動(dòng)機(jī)的質(zhì)疑,盡管谷歌堅(jiān)稱這些變化已醞釀了很久?!拔覀冋幱谝粋€(gè)對(duì)大型科技公司不太信任的狀態(tài),任何看似移除護(hù)欄的舉動(dòng)都會(huì)加劇這種不信任,”皮佐·弗雷在接受記者采訪時(shí)說。她強(qiáng)調(diào),在她擔(dān)任谷歌職務(wù)期間,明確的道德界限對(duì)于構(gòu)建值得信賴的AI系統(tǒng)至關(guān)重要。
這些原則最初是在2018年員工抗議五角大樓Maven項(xiàng)目時(shí)出現(xiàn)的,該項(xiàng)目涉及利用AI分析無人機(jī)拍攝的視頻。雖然谷歌最終決定不續(xù)簽該合同,但這些新變化可能表明谷歌對(duì)類似的軍事合作伙伴持開放態(tài)度。此次修訂保留了谷歌先前道德框架的一些元素,但從禁止特定應(yīng)用轉(zhuǎn)變?yōu)閺?qiáng)調(diào)風(fēng)險(xiǎn)管理。這種方法與國(guó)家標(biāo)準(zhǔn)與技術(shù)研究院(NIST)的AI風(fēng)險(xiǎn)管理框架等行業(yè)標(biāo)準(zhǔn)更為一致,但批評(píng)人士認(rèn)為,它對(duì)潛在有害應(yīng)用的限制不那么具體。
“即使嚴(yán)謹(jǐn)程度不同,但倫理考慮在創(chuàng)造優(yōu)質(zhì)AI方面同樣重要,”皮佐·弗雷指出,并強(qiáng)調(diào)了倫理考慮如何提高AI產(chǎn)品的有效性和可訪問性。
從Maven項(xiàng)目到政策轉(zhuǎn)變:谷歌AI倫理改革之路
行業(yè)觀察人士表示,這一政策變化可能會(huì)影響其他科技公司對(duì)待AI倫理的方式。谷歌的原始原則為AI開發(fā)中的企業(yè)自我監(jiān)管樹立了先例,許多企業(yè)在實(shí)施負(fù)責(zé)任的AI時(shí)都以谷歌為指導(dǎo)。這一修改反映了科技行業(yè)在快速創(chuàng)新與道德約束之間的更廣泛緊張關(guān)系。隨著AI開發(fā)的競(jìng)爭(zhēng)日益激烈,公司在平衡負(fù)責(zé)任的開發(fā)與市場(chǎng)需求方面面臨著壓力。
“我擔(dān)心這些產(chǎn)品被快速推向世界,以及如果越來越多的護(hù)欄被拆除會(huì)怎樣,”皮佐·弗雷說,她表達(dá)了對(duì)出于競(jìng)爭(zhēng)壓力而迅速發(fā)布AI產(chǎn)品,卻未充分評(píng)估潛在后果的擔(dān)憂。
大型科技公司的道德困境:谷歌的AI政策轉(zhuǎn)變是否會(huì)樹立新的行業(yè)標(biāo)準(zhǔn)?
此次修訂還引發(fā)了人們對(duì)谷歌內(nèi)部決策過程的質(zhì)疑,以及在沒有明確禁令的情況下,員工將如何處理倫理問題。在谷歌任職期間,皮佐·弗雷建立了審查流程,匯集了不同觀點(diǎn)來評(píng)估AI應(yīng)用的可能影響。雖然谷歌仍致力于負(fù)責(zé)任的AI開發(fā),但取消具體禁令標(biāo)志著其在此前為AI應(yīng)用建立明確道德界限的領(lǐng)導(dǎo)角色上發(fā)生了重大轉(zhuǎn)變。隨著AI的不斷發(fā)展,該行業(yè)正在密切關(guān)注這一轉(zhuǎn)變?nèi)绾斡绊慉I開發(fā)和監(jiān)管的更廣泛格局。