當(dāng)人工智能傷害了人,誰來承擔(dān)責(zé)任?
就像硬幣的兩面,技術(shù)進(jìn)步在便利人們生產(chǎn)生活的同時(shí),也帶來一個(gè)嚴(yán)峻的現(xiàn)實(shí)問題——當(dāng)機(jī)器足夠智能之后,其對(duì)人類造成的不可挽回的傷害該由誰負(fù)責(zé)?
雖然如科幻片中那樣機(jī)器人“背叛”人類、攻擊人類的場景短期內(nèi)還不會(huì)到來,但機(jī)器的類型是多種多樣的?,F(xiàn)階段,人類的生命安全最受智能機(jī)器威脅的場景恐怕就是交通出行上。
2018年,全球首例自動(dòng)駕駛撞擊行人致死事故發(fā)生。美國時(shí)間3月18日晚22點(diǎn),一輛Uber自動(dòng)駕駛汽車在美國亞利桑那州坦佩市碰撞到一個(gè)橫穿馬路的行人——49九歲的女性流浪者Elaine Herzberg,Elaine Herzberg在被送往醫(yī)院后不治身亡。
坦佩市警方發(fā)言人稱,初步調(diào)查發(fā)現(xiàn),事件發(fā)生時(shí),這輛Uber自動(dòng)駕駛汽車處于L4級(jí)別的自動(dòng)駕駛模式,并在最高時(shí)速35英里的道路上以時(shí)速38英里行駛,且沒有及時(shí)剎車的動(dòng)作。與此同時(shí),駕駛位上的安全駕駛員沒有收到任何信號(hào),直到碰撞發(fā)生后才意識(shí)到發(fā)生了事故。
今年9月,馬里科帕縣大陪審團(tuán)作出裁決,Uber自動(dòng)駕駛汽車的安全駕駛員被指控犯有過失殺人罪。而這起案件也因此對(duì)后世類似判決帶來了里程碑式的借鑒意義。
事實(shí)上,當(dāng)人工智能造成一個(gè)人受傷或死亡時(shí),確定過錯(cuò)責(zé)任并不是一件容易的事情。如果人工智能有時(shí)失控有時(shí)正常,那么什么時(shí)候是可以把錯(cuò)歸責(zé)于人類,什么時(shí)候可以歸咎于人工智能?
今年10月2日,發(fā)表在《波士頓大學(xué)法律評(píng)論》上的一篇論文《疏忽與人工智能的人類使用者》(Negligence and AI's Human Users)就重點(diǎn)討論了這個(gè)問題。在論文中,加州大學(xué)洛杉磯分校助理教授Andrew Selbst發(fā)現(xiàn),人工智能與現(xiàn)有的人類過失行為法律產(chǎn)生了矛盾沖突,需要監(jiān)管機(jī)構(gòu)介入干預(yù)。
Selbst表示,Uber案件可能會(huì)有兩種情況。其一,法官或陪審團(tuán)可能會(huì)發(fā)現(xiàn),讓一個(gè)與半自動(dòng)車輛打交道的人承擔(dān)責(zé)任是不合理的;其二,可以將責(zé)任歸給一個(gè)對(duì)自動(dòng)或自主系統(tǒng)控制有限的人類行為者。這也就是文化人類學(xué)家Madeleine Elish所說的“道德碰撞區(qū)”——當(dāng)機(jī)器和人類被同步考慮,但法律沒有考慮到機(jī)器的智能時(shí),人類就會(huì)承擔(dān)責(zé)任。
“如果過失法要求的謹(jǐn)慎標(biāo)準(zhǔn)高于人類所能管理的標(biāo)準(zhǔn),那么它將把責(zé)任推給人類操作者,即使在普通人無法防止危險(xiǎn)的情況下也是如此,”Selbst寫道。“雖然Uber案件似乎指向了‘道德碰撞區(qū)”的方向,但也很容易想象到相反的情況——發(fā)現(xiàn)因?yàn)槠胀ㄈ藷o法及時(shí)做出反應(yīng)或永遠(yuǎn)保持警惕,所以不這樣做是合理的。歸根結(jié)底,人工智能帶來的是不確定性。”
Selbst表示,法律學(xué)者傾向于區(qū)分完全自主的車輛和與人類合作的半自主機(jī)器,比如Uber車禍中的車輛。雖然完全自主車輛或通用人工智能(AGI)可能會(huì)將責(zé)任轉(zhuǎn)移到硬件制造商或人工智能系統(tǒng)上,但當(dāng)人類使用人工智能根據(jù)預(yù)測(cè)、分類或評(píng)估做出決定時(shí),答案就不那么明確了。Selbst預(yù)計(jì),這將給企業(yè)、政府和社會(huì)帶來新的挑戰(zhàn)。
如今絕大多數(shù)的人工智能都是為了增強(qiáng)人類的決策能力而出現(xiàn)的。例如,從法官用來評(píng)估多次犯罪的算法,到醫(yī)療專業(yè)人員用來制定醫(yī)療計(jì)劃或診斷的AI驅(qū)動(dòng)工具。這些系統(tǒng)包括檢測(cè)醫(yī)學(xué)圖像中的模式,以幫助專業(yè)人士診斷乳腺癌、肺癌和腦癌等疾病。
Selbst表示,雖然技術(shù)是推動(dòng)過失法律變革的關(guān)鍵因素,但人類和人工智能相互依賴決策的方式讓人工智能與眾不同。使問題更加復(fù)雜的是,人類可能會(huì)不加審視地接受自動(dòng)決策,如果他們因太多通知而遭受警報(bào)疲勞,就會(huì)忽略AI,或者依靠AI來識(shí)別太復(fù)雜的數(shù)據(jù)中的模式。
Selbst表示,在一個(gè)充滿人類和AI系統(tǒng)共同決策的世界里,政府需要考慮改革,讓過失法律有機(jī)會(huì)趕上快速崛起的技術(shù)。
“如果社會(huì)認(rèn)為人工智能過于有利而不能擱置,那么我們可能需要一個(gè)新的監(jiān)管模式,以補(bǔ)償使用人工智能的受害者,而且這種模式應(yīng)該是一種脫離了尋找過失的需求的模式。這可能是嚴(yán)格責(zé)任,可能是廣義保險(xiǎn),也可能是事前監(jiān)管。”論文中寫道。
為了解決這個(gè)問題,人們開發(fā)了各種模式,比如安德魯·塔特(Andrew Tutt)提出的“算法 FDA”(FDA for algorithm),這是一個(gè)機(jī)構(gòu),其運(yùn)作方式與 FDA 在調(diào)查藥品方面的運(yùn)作方式非常相似。還有一種想法是,類似于環(huán)境影響評(píng)估的算法評(píng)估,以此來加強(qiáng)監(jiān)督和公開披露。
“最終,由于人工智能在決策和結(jié)果之間插入了一層難以捉摸的、不直觀的、統(tǒng)計(jì)學(xué)上衍生的、通常是專有的代碼,人類的選擇、行動(dòng)和結(jié)果之間的聯(lián)系受到了考驗(yàn),”論文中寫道。“雖然可能有一種方法可以利用解釋和透明度要求將一些決定與其結(jié)果聯(lián)系起來,但疏忽需要一系列外部干預(yù)措施,才能真正有機(jī)會(huì)為使用人工智能造成的傷害提供補(bǔ)救。”
這樣做可能會(huì)給過失法律標(biāo)準(zhǔn)一些時(shí)間,以便在未來范式轉(zhuǎn)變發(fā)生和標(biāo)準(zhǔn)進(jìn)一步落后之前趕上人工智能的進(jìn)步。
這篇論文還探討了當(dāng)算法偏差在傷害中發(fā)揮作用時(shí)會(huì)發(fā)生什么的問題?;氐阶灾鬈囕v問題,研究表明,計(jì)算機(jī)視覺系統(tǒng)在檢測(cè)白人行人方面比黑人行人做得更好。接受這種系統(tǒng)的使用,可以從整體上減少交通事故的數(shù)量,但同時(shí)對(duì)黑人行人就不怎么友好了。
Selbst表示,如果沒有監(jiān)管部門的干預(yù),人工智能有可能會(huì)將某些群體的不良結(jié)果正?;?,同時(shí)拒絕他們?nèi)魏吻笾?。這有可能會(huì)放大人們?cè)诰W(wǎng)上遇到算法偏見或遭遇傷害時(shí)已經(jīng)感受到的無助感。
“令人擔(dān)憂的是,雖然人工智能可能會(huì)成功地減少傷害的總體數(shù)量,但它不會(huì)消除這些傷害,甚至剝奪了受害者的求助能力。”該論文寫道。
在問責(zé)制方面,人工智能行業(yè)的保密性是一個(gè)主要障礙。過失法律通常會(huì)隨著時(shí)間的推移而演變,以反映關(guān)于什么構(gòu)成合理行為的共同定義。但企業(yè)的保密性很可能使導(dǎo)致傷害的人工智能缺陷不為公眾所知。而人工智能的快速發(fā)展有可能會(huì)壓倒過失法或侵權(quán)法的修改步伐,進(jìn)一步加劇這種情況。
“由于保密,我們對(duì)各個(gè)AI公司產(chǎn)品中的錯(cuò)誤和漏洞知之甚少。在這種情況下,公眾不可能對(duì)什么樣的故障是合理的或不合理的作出任何結(jié)論。”論文指出。