關(guān)于新的AI法案 每位CEO都需要了解的事
具有潛在危險(xiǎn)的AI應(yīng)用程序已被指定為“不可接受的”,除非在特定條件下用于政府、執(zhí)法和科學(xué)研究,否則將是非法的。
與歐盟的一般數(shù)據(jù)保護(hù)條例一樣,這項(xiàng)新立法將增加在27個(gè)成員國(guó)內(nèi)開展業(yè)務(wù)的任何人的義務(wù),而不僅僅是總部設(shè)在那里的企業(yè)。
負(fù)責(zé)撰寫這份報(bào)告的人表示,其目的是保護(hù)公民的權(quán)利和自由,同時(shí)也促進(jìn)創(chuàng)新和創(chuàng)業(yè),該法案公布的460多頁(yè)包含的內(nèi)容遠(yuǎn)遠(yuǎn)不止這些。
如果你經(jīng)營(yíng)一家在歐洲運(yùn)營(yíng)或面向歐洲消費(fèi)者銷售的企業(yè),你需要知道一些重要的事情。對(duì)于任何想要為潛在的重大變化做好準(zhǔn)備的人來(lái)說(shuō),以下是我認(rèn)為的關(guān)鍵要點(diǎn)。
它什么時(shí)候生效?
3月13日,歐盟議會(huì)通過(guò)了《AI法案》,預(yù)計(jì)在歐洲理事會(huì)通過(guò)該法案后,該法案將很快成為法律,它將需要長(zhǎng)達(dá)24個(gè)月的時(shí)間才能全部執(zhí)行,但某些方面的執(zhí)行,如新禁止的做法,可能在短短6個(gè)月內(nèi)開始執(zhí)行。
與GDPR的情況一樣,這種拖延是為了讓企業(yè)有時(shí)間確保他們的合規(guī)。在這一最后期限之后,他們可能會(huì)因任何違規(guī)行為而面臨巨額處罰,這些都是分等級(jí)的,最嚴(yán)重的保留給那些違反“不可接受的用途”禁令的人,最高罰金最高可達(dá)3000萬(wàn)歐元,或該企業(yè)全球營(yíng)業(yè)額的6%(以金額較高者為準(zhǔn))。
然而,如果一家企業(yè)被發(fā)現(xiàn)違反了新法律,可能更具破壞性的是對(duì)其聲譽(yù)的影響。在AI的世界里,信任就是一切,而那些表明自己不能被信任的企業(yè)可能會(huì)受到消費(fèi)者的進(jìn)一步懲罰。
AI的一些用途將被禁止
該法案規(guī)定,“AI應(yīng)該是一項(xiàng)以人為中心的技術(shù),它應(yīng)該成為人們的一種工具,最終目的是增加人類的福祉?!?/p>
為了做到這一點(diǎn),歐盟禁止將AI用于一些潛在的有害目的,包括:
- 利用AI以有害的方式影響或改變行為。
- 生物統(tǒng)計(jì)分類,以推斷政治和宗教信仰或性偏好或取向。
- 可能導(dǎo)致歧視的社會(huì)評(píng)分系統(tǒng)。
- 在公共場(chǎng)所通過(guò)生物識(shí)別技術(shù)遠(yuǎn)程識(shí)別人的身份(例如面部識(shí)別系統(tǒng))。
有一些免責(zé)條款。執(zhí)法機(jī)構(gòu)可以在一系列情況下部署“不可接受的”AI,包括防止恐怖主義和尋找失蹤人員??茖W(xué)研究也有豁免。
該法案稱:“AI應(yīng)該是一項(xiàng)以人類為中心的技術(shù),它應(yīng)該成為人們的一種工具,最終目的是增加人類的福祉?!币虼耍芨吲d看到限制其可能造成危害的方式已成為新法律的核心。
然而,一些措辭存在相當(dāng)大的模棱兩可和開放性,這可能會(huì)讓事情有可能被解釋。使用AI來(lái)瞄準(zhǔn)快餐和高糖軟飲料等產(chǎn)品的營(yíng)銷,是否會(huì)被認(rèn)為以有害的方式影響行為?在一個(gè)我們習(xí)慣于被眾多政府和私人機(jī)構(gòu)進(jìn)行信用檢查和評(píng)分的世界里,我們?nèi)绾闻袛嗌鐣?huì)評(píng)分系統(tǒng)是否會(huì)導(dǎo)致歧視?
在這一領(lǐng)域,我們將不得不等待更多關(guān)于如何實(shí)施執(zhí)法的指導(dǎo)或信息,以了解全部后果。
高風(fēng)險(xiǎn)的AI
除了被認(rèn)為是不可接受的用途外,該法案還將AI工具分為三類:高風(fēng)險(xiǎn)、有限風(fēng)險(xiǎn)和最低風(fēng)險(xiǎn)。
高風(fēng)險(xiǎn)AI包括自動(dòng)駕駛汽車和醫(yī)療應(yīng)用等用例,涉及這些或類似風(fēng)險(xiǎn)領(lǐng)域的企業(yè)將發(fā)現(xiàn)自己面臨更嚴(yán)格的規(guī)則,以及更多關(guān)于數(shù)據(jù)質(zhì)量和保護(hù)的義務(wù)。
有限且風(fēng)險(xiǎn)最小的用例可能包括純粹用于娛樂的AI應(yīng)用,如視頻游戲,或在生成文本、視頻或聲音等創(chuàng)造性過(guò)程中的應(yīng)用。
盡管對(duì)知識(shí)產(chǎn)權(quán)的透明度和合乎道德的使用仍有期望,但這里的要求將會(huì)更少。
透明度
該法案明確表示,AI應(yīng)該盡可能透明。再說(shuō)一次,這里有一些模棱兩可的地方——至少在像我這樣不是律師的人看來(lái)是這樣,例如,在需要“保護(hù)商業(yè)秘密和機(jī)密商業(yè)信息”的情況下,作出了規(guī)定,但目前還不確定,當(dāng)案件開始提交法院時(shí),這一點(diǎn)將如何解釋。
該法案在兩個(gè)方面涵蓋了透明度,首先,它規(guī)定,必須清楚地標(biāo)記AI生成的圖像,以限制欺騙、深度假冒和虛假信息可能造成的損害。
它還涵蓋了模型本身,似乎特別針對(duì)谷歌、微軟和OpenAI等大型科技AI提供商。同樣,這也是按風(fēng)險(xiǎn)分級(jí)的,高風(fēng)險(xiǎn)系統(tǒng)的開發(fā)人員有義務(wù)提供關(guān)于他們做什么、如何工作以及使用什么數(shù)據(jù)的廣泛信息,還圍繞人的監(jiān)督和責(zé)任制定了規(guī)定。
要求AI生成的圖像被標(biāo)記在理論上似乎是一個(gè)好主意,但可能很難執(zhí)行,因?yàn)榉缸锓肿雍推墼p者不太可能遵守,另一方面,它可以幫助建立一個(gè)信任框架,這將是使AI能夠有效使用的關(guān)鍵。
至于大型科技企業(yè),我預(yù)計(jì)這很可能歸結(jié)為他們?cè)敢馔嘎抖嗌俚膯栴},如果監(jiān)管機(jī)構(gòu)接受可能的反對(duì)意見,即記錄算法、權(quán)重和數(shù)據(jù)源是機(jī)密商業(yè)信息,那么這些條款可能會(huì)被證明是相當(dāng)沒有效力的。
然而,值得注意的是,即使是為利基行業(yè)和市場(chǎng)構(gòu)建定制系統(tǒng)的較小企業(yè),從理論上講也可能受到影響。與科技巨頭不同,他們可能沒有法律火力在法庭上為自己辯護(hù),這讓他們?cè)趧?chuàng)新方面處于劣勢(shì)。應(yīng)注意確保這不會(huì)成為該法案的意外后果。
這對(duì)AI監(jiān)管的未來(lái)意味著什么?
首先,它表明,在應(yīng)對(duì)AI帶來(lái)的巨大監(jiān)管挑戰(zhàn)方面,政客們正開始采取行動(dòng)。雖然我總體上對(duì)AI對(duì)我們生活的影響持積極態(tài)度,但我們不能忽視它也有巨大的潛在危害,無(wú)論是故意的還是無(wú)意的。因此,任何運(yùn)用政治意愿來(lái)解決這一問題都是一件好事。
但起草和發(fā)布法律是相對(duì)容易的部分,它正在建立監(jiān)管、執(zhí)法和文化框架,以支持需要真正努力的變化。
歐盟的AI法案是此類法案中的第一部,但人們普遍預(yù)計(jì),繼該法案之后,全球?qū)⒊雠_(tái)進(jìn)一步的監(jiān)管措施,包括美國(guó)和中國(guó)。
這意味著,對(duì)于世界上任何地方的商業(yè)領(lǐng)袖來(lái)說(shuō),采取措施確保他們?yōu)榧磳⒌絹?lái)的變化做好準(zhǔn)備是至關(guān)重要的。
歐盟AI法案的兩個(gè)關(guān)鍵教訓(xùn)是,每個(gè)企業(yè)都必須了解自己的工具和應(yīng)用程序在風(fēng)險(xiǎn)等級(jí)上的位置,并采取措施確保其AI操作盡可能透明。
最重要的是,確實(shí)有必要了解不斷變化的AI監(jiān)管格局。法律運(yùn)行的速度相對(duì)較慢,這意味著你不應(yīng)該被嚇到。
不過(guò),最重要的是,我認(rèn)為關(guān)鍵信息是圍繞道德AI建立積極文化的重要性。確保你的數(shù)據(jù)是干凈和不偏不倚的,你的算法是可解釋的,任何潛在的危害都被清楚地識(shí)別和減輕,這是確保你為未來(lái)可能出現(xiàn)的任何立法做好準(zhǔn)備的最佳方式。