你的人工智能準(zhǔn)備好接受監(jiān)管了嗎?
現(xiàn)在,隨著圍繞人工智能(AI)的類似法規(guī)在世界多個地區(qū)開始實施,業(yè)界對GDPR的經(jīng)驗可以告訴企業(yè)如何準(zhǔn)備應(yīng)對對其人工智能的不可避免的監(jiān)管審查。
公司應(yīng)該面對現(xiàn)實
GDPR的某些部分引起了不小的企業(yè)恐慌,因為當(dāng)時的新規(guī)定要求企業(yè)提供準(zhǔn)確和可理解的解釋,說明算法分析(特別指機器學(xué)習(xí)模型)是如何做出決策的。條例賦予個人要求和接受自動化決策解釋的權(quán)利,盡管很少有消費者在這一領(lǐng)域真實地行使他們的權(quán)利。
不過,盡管GDPR已經(jīng)問世六年,但都沒有催生出一個關(guān)于機器學(xué)習(xí)可解釋性的行業(yè)標(biāo)準(zhǔn)。因為我們?nèi)栽趯ふ依斫夂涂刂品治龅拿鞔_準(zhǔn)則,從更廣泛的角度來看,最終的人工智能監(jiān)管之路也可能是一條坎坷的道路。
事實上,政府對人工智能技術(shù)的開發(fā)和使用方式進(jìn)行監(jiān)管是不可避免的。其中一個主要原因是人工智能的自我調(diào)節(jié)有很高風(fēng)險。
2021年進(jìn)行的一項研究表明,在人工智能領(lǐng)域,高管們對公司的責(zé)任應(yīng)該是什么沒有達(dá)成共識。例如,在參與研究的公司中,只有22%設(shè)有內(nèi)部道德委員會。一些高管認(rèn)為人工智能應(yīng)用不需要符合道德規(guī)范,它們只需要被劃分為高風(fēng)險或低風(fēng)險即可。另一些人則因為沒有確定什么是“足夠公平”的工具,也沒有界定什么是偏見的標(biāo)準(zhǔn)而苦惱。
風(fēng)險暴露(并最終與政府監(jiān)管相沖突)對于推動參與度非常重要,可以將人工智能提升到董事會層面的一個話題。如果首席風(fēng)險官(CRO)沒有跟蹤人工智能風(fēng)險,他們應(yīng)該跟蹤。更有針對性的是,CRO應(yīng)該倡導(dǎo)全面的企業(yè)人工智能治理框架,定義道德人工智能標(biāo)準(zhǔn)和模型開發(fā)程序,以一種他們能夠支持的方式,并經(jīng)得起監(jiān)管審查。
雖然GDPR可能沒有引發(fā)個人消費者對分析決策的內(nèi)部工作方式的擔(dān)憂激增,但就連專家也認(rèn)為人工智能的強勁勢頭絕對不是什么好兆頭。一份2021年的皮尤研究報告指出:
大量(專家)受訪者認(rèn)為,地緣政治和經(jīng)濟競爭是AI開發(fā)者的主要驅(qū)動力,而道德問題則是次要因素。這些專家中有一部分人表示,人工智能工具的創(chuàng)造者是在團(tuán)隊中工作的,他們幾乎沒有或根本沒有動機去設(shè)計解決倫理問題的系統(tǒng)。
為了避免訴訟、消費者的不信任、維權(quán)團(tuán)體的反彈,以及最終更廣泛的政府監(jiān)管,企業(yè)需要成長起來,擁有自己設(shè)計人工智能系統(tǒng)的方式,并面對和管理人工智能風(fēng)險。
有很多人都在努力,想要變得合乎道德,但沒有多少人支持用具體、可衡量、清晰的術(shù)語定義“合乎道德的人工智能”。如果企業(yè)集體對GDPR的可解釋性部分不予回應(yīng),表明組織將如何應(yīng)對新生的人工智能法規(guī),那么他們將難以理解新法規(guī)如何應(yīng)用(以及哪些部分),合規(guī)將如何衡量,以及通過或失敗的門檻在哪里。這種解釋、衡量和門檻的混亂混合將導(dǎo)致更大范圍的混亂。
我們需要人工智能的道路規(guī)則
任何人工智能法規(guī)要想成功,都需要像高速公路系統(tǒng)一樣——有速度限制,違規(guī)行為可以客觀衡量和處罰。因此,由于企業(yè)和行業(yè)似乎無法就如何解釋分析決策或人工智能模型達(dá)成一致,因此需要引入專家,并賦予他們做出艱難決策的權(quán)力:定義可接受的特定工具和算法,并將行業(yè)衡量的通過/失敗指標(biāo)標(biāo)準(zhǔn)化,而不是簡單的“自我報告”標(biāo)準(zhǔn)和關(guān)于如何滿足這些標(biāo)準(zhǔn)的大量混亂行動。
通過這種方式,我們可以客觀地衡量AI是如何發(fā)展的,它的功能是什么,它的工作做得好和正確,還是不好和錯誤?
國外某些行業(yè)在分析模型、分析決策、違規(guī)和處罰方面處于領(lǐng)先地位。例如抵押貸款行業(yè)就是一個很好的例子。信貸決策遵循旨在消除偏見和歧視的指導(dǎo)方針。不遵守規(guī)則(使用有偏見的數(shù)據(jù)、決策標(biāo)準(zhǔn)或模型)的銀行將面臨監(jiān)管機構(gòu)的嚴(yán)厲處罰,并最終失去消費者的信任和業(yè)務(wù)。
法律將推動人工智能的倫理
人工智能倡導(dǎo)團(tuán)體的崛起,比GDPR和相關(guān)法規(guī)預(yù)期的個人投訴擁有更大的影響力。這些團(tuán)體正在推動人們更多地認(rèn)識到人工智能對消費者生活的影響,當(dāng)然,還有可能因有偏見的人工智能而承擔(dān)法律責(zé)任。最重要的是,風(fēng)險暴露往往會促使企業(yè)解決人工智能的倫理和偏見問題,特別是在使用人工智能的創(chuàng)新企業(yè)是集體訴訟的目標(biāo)的情況下。