你的人工智能準(zhǔn)備好接受監(jiān)管了嗎?
現(xiàn)在,隨著圍繞人工智能(AI)的類似法規(guī)在世界多個(gè)地區(qū)開始實(shí)施,業(yè)界對(duì)GDPR的經(jīng)驗(yàn)可以告訴企業(yè)如何準(zhǔn)備應(yīng)對(duì)對(duì)其人工智能的不可避免的監(jiān)管審查。
公司應(yīng)該面對(duì)現(xiàn)實(shí)
GDPR的某些部分引起了不小的企業(yè)恐慌,因?yàn)楫?dāng)時(shí)的新規(guī)定要求企業(yè)提供準(zhǔn)確和可理解的解釋,說(shuō)明算法分析(特別指機(jī)器學(xué)習(xí)模型)是如何做出決策的。條例賦予個(gè)人要求和接受自動(dòng)化決策解釋的權(quán)利,盡管很少有消費(fèi)者在這一領(lǐng)域真實(shí)地行使他們的權(quán)利。
不過(guò),盡管GDPR已經(jīng)問(wèn)世六年,但都沒有催生出一個(gè)關(guān)于機(jī)器學(xué)習(xí)可解釋性的行業(yè)標(biāo)準(zhǔn)。因?yàn)槲覀內(nèi)栽趯ふ依斫夂涂刂品治龅拿鞔_準(zhǔn)則,從更廣泛的角度來(lái)看,最終的人工智能監(jiān)管之路也可能是一條坎坷的道路。
事實(shí)上,政府對(duì)人工智能技術(shù)的開發(fā)和使用方式進(jìn)行監(jiān)管是不可避免的。其中一個(gè)主要原因是人工智能的自我調(diào)節(jié)有很高風(fēng)險(xiǎn)。
2021年進(jìn)行的一項(xiàng)研究表明,在人工智能領(lǐng)域,高管們對(duì)公司的責(zé)任應(yīng)該是什么沒有達(dá)成共識(shí)。例如,在參與研究的公司中,只有22%設(shè)有內(nèi)部道德委員會(huì)。一些高管認(rèn)為人工智能應(yīng)用不需要符合道德規(guī)范,它們只需要被劃分為高風(fēng)險(xiǎn)或低風(fēng)險(xiǎn)即可。另一些人則因?yàn)闆]有確定什么是“足夠公平”的工具,也沒有界定什么是偏見的標(biāo)準(zhǔn)而苦惱。
風(fēng)險(xiǎn)暴露(并最終與政府監(jiān)管相沖突)對(duì)于推動(dòng)參與度非常重要,可以將人工智能提升到董事會(huì)層面的一個(gè)話題。如果首席風(fēng)險(xiǎn)官(CRO)沒有跟蹤人工智能風(fēng)險(xiǎn),他們應(yīng)該跟蹤。更有針對(duì)性的是,CRO應(yīng)該倡導(dǎo)全面的企業(yè)人工智能治理框架,定義道德人工智能標(biāo)準(zhǔn)和模型開發(fā)程序,以一種他們能夠支持的方式,并經(jīng)得起監(jiān)管審查。
雖然GDPR可能沒有引發(fā)個(gè)人消費(fèi)者對(duì)分析決策的內(nèi)部工作方式的擔(dān)憂激增,但就連專家也認(rèn)為人工智能的強(qiáng)勁勢(shì)頭絕對(duì)不是什么好兆頭。一份2021年的皮尤研究報(bào)告指出:
大量(專家)受訪者認(rèn)為,地緣政治和經(jīng)濟(jì)競(jìng)爭(zhēng)是AI開發(fā)者的主要驅(qū)動(dòng)力,而道德問(wèn)題則是次要因素。這些專家中有一部分人表示,人工智能工具的創(chuàng)造者是在團(tuán)隊(duì)中工作的,他們幾乎沒有或根本沒有動(dòng)機(jī)去設(shè)計(jì)解決倫理問(wèn)題的系統(tǒng)。
為了避免訴訟、消費(fèi)者的不信任、維權(quán)團(tuán)體的反彈,以及最終更廣泛的政府監(jiān)管,企業(yè)需要成長(zhǎng)起來(lái),擁有自己設(shè)計(jì)人工智能系統(tǒng)的方式,并面對(duì)和管理人工智能風(fēng)險(xiǎn)。
有很多人都在努力,想要變得合乎道德,但沒有多少人支持用具體、可衡量、清晰的術(shù)語(yǔ)定義“合乎道德的人工智能”。如果企業(yè)集體對(duì)GDPR的可解釋性部分不予回應(yīng),表明組織將如何應(yīng)對(duì)新生的人工智能法規(guī),那么他們將難以理解新法規(guī)如何應(yīng)用(以及哪些部分),合規(guī)將如何衡量,以及通過(guò)或失敗的門檻在哪里。這種解釋、衡量和門檻的混亂混合將導(dǎo)致更大范圍的混亂。
我們需要人工智能的道路規(guī)則
任何人工智能法規(guī)要想成功,都需要像高速公路系統(tǒng)一樣——有速度限制,違規(guī)行為可以客觀衡量和處罰。因此,由于企業(yè)和行業(yè)似乎無(wú)法就如何解釋分析決策或人工智能模型達(dá)成一致,因此需要引入專家,并賦予他們做出艱難決策的權(quán)力:定義可接受的特定工具和算法,并將行業(yè)衡量的通過(guò)/失敗指標(biāo)標(biāo)準(zhǔn)化,而不是簡(jiǎn)單的“自我報(bào)告”標(biāo)準(zhǔn)和關(guān)于如何滿足這些標(biāo)準(zhǔn)的大量混亂行動(dòng)。
通過(guò)這種方式,我們可以客觀地衡量AI是如何發(fā)展的,它的功能是什么,它的工作做得好和正確,還是不好和錯(cuò)誤?
國(guó)外某些行業(yè)在分析模型、分析決策、違規(guī)和處罰方面處于領(lǐng)先地位。例如抵押貸款行業(yè)就是一個(gè)很好的例子。信貸決策遵循旨在消除偏見和歧視的指導(dǎo)方針。不遵守規(guī)則(使用有偏見的數(shù)據(jù)、決策標(biāo)準(zhǔn)或模型)的銀行將面臨監(jiān)管機(jī)構(gòu)的嚴(yán)厲處罰,并最終失去消費(fèi)者的信任和業(yè)務(wù)。
法律將推動(dòng)人工智能的倫理
人工智能倡導(dǎo)團(tuán)體的崛起,比GDPR和相關(guān)法規(guī)預(yù)期的個(gè)人投訴擁有更大的影響力。這些團(tuán)體正在推動(dòng)人們更多地認(rèn)識(shí)到人工智能對(duì)消費(fèi)者生活的影響,當(dāng)然,還有可能因有偏見的人工智能而承擔(dān)法律責(zé)任。最重要的是,風(fēng)險(xiǎn)暴露往往會(huì)促使企業(yè)解決人工智能的倫理和偏見問(wèn)題,特別是在使用人工智能的創(chuàng)新企業(yè)是集體訴訟的目標(biāo)的情況下。