大數(shù)據(jù)、人工智能與法律職業(yè)的未來
我做過很多次關(guān)于人工智能與法律職業(yè)的未來的講座。這兩年關(guān)于人工智能基本上每隔兩三天就會(huì)出一個(gè)非常大的新聞,比如AlphaGo Zero打敗了AlphaGo,沙特阿拉伯第一次授予一個(gè)叫“索菲亞”的機(jī)器人以公民身份。2017年12月,深圳有兩輛無人駕駛公交車正式上路試點(diǎn)。正是因?yàn)槿斯ぶ悄茉?017年取得了非常多的突破性進(jìn)展,所以法律界開始越來越多地關(guān)注人工智能與法律的關(guān)系問題。
與其螳臂當(dāng)車,不如放手擁抱
法律是人類最古老的學(xué)科,人類歷史上第一部成文法典《漢穆拉比法典》出現(xiàn)在3800多年以前。而無論是以阿蘭·圖靈(Alan Turing)于1950年第一次提出“機(jī)器能否思考”這個(gè)問題作為起點(diǎn),還是以1956年達(dá)特茅斯會(huì)議上數(shù)學(xué)家約翰·麥卡錫(John McCarthy)第一次提出“Artificial Intelligence(AI)”這個(gè)術(shù)語作為發(fā)端,人工智能都只有60多年的歷史。且這60多年間經(jīng)歷了好幾次大起大落,其取得突破性進(jìn)展則是最近幾年的事情。
人工智能的發(fā)展正改變?nèi)祟惿鐣?huì)的交往方式、組織結(jié)構(gòu)和商業(yè)模式,并且對(duì)法律職業(yè)產(chǎn)生了直接沖擊。早在“人工智能”這個(gè)詞匯出現(xiàn)之前,將人類的工作自動(dòng)化,即用機(jī)器替代人的勞動(dòng)就已經(jīng)成為無數(shù)科學(xué)家努力的方向。一開始是用機(jī)器取代人的體力勞動(dòng),現(xiàn)在是取代人的腦力勞動(dòng)。諾伯特·維納(Norbert Wiener)在20世紀(jì)40年代末出版《控制論》時(shí),就已經(jīng)有很多人在討論這個(gè)問題了。
如果說當(dāng)時(shí)的機(jī)器取代人類的腦力勞動(dòng)還相去甚遠(yuǎn),那如今利用互聯(lián)網(wǎng)所產(chǎn)生的海量數(shù)據(jù)進(jìn)行深度學(xué)習(xí)的機(jī)器卻離這個(gè)目標(biāo)越來越近了。我們談人工智能的時(shí)候顯然有兩個(gè)關(guān)鍵詞:一是“人工”,二是“智能”。
但是,人工智能用機(jī)械和電子的方式來模擬人類智能,它在取得突破性進(jìn)展之后是可以復(fù)制的。一個(gè)人工智能產(chǎn)品可以批量生產(chǎn)的這種可復(fù)制性就導(dǎo)致了它對(duì)人類的職業(yè)、人類勞動(dòng)產(chǎn)生非常大的沖擊。
法律和醫(yī)學(xué)一直以來都是人類社會(huì)各種職業(yè)當(dāng)中的塔尖職業(yè),因?yàn)檫@兩種職業(yè)的技能都需要經(jīng)過長時(shí)間的學(xué)習(xí)和訓(xùn)練才能夠掌握,都有很高的準(zhǔn)入門檻,從業(yè)者都受到嚴(yán)格的法律和倫理規(guī)范的約束。但是,人工智能目前正猛烈地沖擊這兩個(gè)職業(yè),大數(shù)據(jù)精準(zhǔn)醫(yī)療和法律人工智能產(chǎn)品正在改變著這兩種職業(yè)的未來前景。
同樣地,學(xué)習(xí)法律的人也是在學(xué)習(xí)一套相對(duì)封閉的概念和原理。起源于古羅馬時(shí)代和亨利二世時(shí)代的英國的法律概念,直到今天,我們法律人每天都還在學(xué)習(xí)和應(yīng)用。如果我們單純地用法教義學(xué)的方法來學(xué)習(xí)法律,就很難應(yīng)對(duì)周圍正在發(fā)生的天翻地覆的變化。而作為社會(huì)秩序的維護(hù)者,法律人適應(yīng)這種變遷的意愿和能力往往都比較弱。專門評(píng)論互聯(lián)網(wǎng)和人工智能問題的一位非常著名的公共知識(shí)分子和媒體人克萊·舍基(Clay Shirky)說過:“制度和機(jī)構(gòu)是為解決具體的社會(huì)問題而設(shè)立的,而它們總是試圖不讓這些問題得到徹底解決,從而維護(hù)自己存在的合理性。”他是在批判法律人的保守性,因?yàn)榉扇嗽噲D用固有的一套框架、機(jī)構(gòu)和程序來規(guī)范整個(gè)社會(huì),包括規(guī)范突飛猛進(jìn)的科技。在他看來,這種保守性可能會(huì)在整個(gè)社會(huì)發(fā)生急劇變遷的時(shí)代帶來很多問題。作為制度化和機(jī)構(gòu)化的動(dòng)物,法律人每每試圖關(guān)上自己所不熟悉的大門,努力用自己所熟悉的概念和思維框架來限定技術(shù)革新正在帶來的各種新的可能性。但這種努力與其說可以力挽狂瀾,不如說更像是螳臂當(dāng)車。更加可行的態(tài)度是向新技術(shù)敞開心扉,積極投入它所帶來的各種新的職業(yè)場(chǎng)景,在參與過程中去理解它,充分利用它所創(chuàng)造出來的新機(jī)會(huì),同時(shí)留意它所帶來的各種新風(fēng)險(xiǎn)。正如馴服一匹馬的最好方法是騎上它,而不是擋在它前面一樣,馴服人工智能的最好方法也是在駕馭中控制它。
現(xiàn)在很多討論都是非常悲觀地預(yù)測(cè)人工智能將會(huì)如何取代人的勞動(dòng),使人失去工作,但在我看來其實(shí)人工智能會(huì)開放出很多新的就業(yè)機(jī)會(huì)。人工智能會(huì)取代很多就業(yè)崗位,但只要我們能夠不斷地更新自己的知識(shí)結(jié)構(gòu),它會(huì)開放出更多的就業(yè)機(jī)會(huì)。
實(shí)際上,一些有遠(yuǎn)見的法律人早已行動(dòng)起來。比如被大成合并的美國德同(Dentons)早在2016年就創(chuàng)建了自己的人工智能實(shí)驗(yàn)室Nextlaw Labs。它與IBM公司的認(rèn)知技術(shù)平臺(tái)“沃森”(Watson)合作,一起開發(fā)了法律人工智能產(chǎn)品——ROSS。這是目前市場(chǎng)上比較成熟的法律人工智能產(chǎn)品之一,已經(jīng)在數(shù)十家國際律所和中國的幾家紅圈所測(cè)試使用。
此外,包括戴維律所在內(nèi)的許多大型律所都已經(jīng)設(shè)置了一種新的職位叫首席知識(shí)官,或者叫首席技術(shù)官。其主要工作是投資、購買和使用法律知識(shí)產(chǎn)品。購買、應(yīng)用這種產(chǎn)品就意味著律所會(huì)解雇一批從事案頭工作的律師。這在美國已經(jīng)成為一個(gè)非常明顯的事實(shí)。首席知識(shí)官會(huì)帶領(lǐng)一個(gè)團(tuán)隊(duì)專門從事本所的數(shù)據(jù)庫建設(shè)和人工智能產(chǎn)品的投資開發(fā)與調(diào)配。這表明一種新的法律職業(yè)——法律知識(shí)工程師正在興起。我國目前也有明顯跡象。近幾年的司法改革,在客觀上導(dǎo)致了大量法官和檢察官投身大數(shù)據(jù)和人工智能行業(yè)。例如,華宇元典、上海的貝格數(shù)據(jù)、阿里的法務(wù)部門和安全部門都吸收了大量辭職的法官和檢察官。這個(gè)跡象同時(shí)也表明法律人工智能產(chǎn)品正在大量地替代律師。很多的律所都會(huì)花巨資去購買法律人工智能產(chǎn)品,而不是招聘新的律師。這對(duì)同學(xué)們來說是一個(gè)壞消息,但也是一個(gè)好消息。因?yàn)橐郧按蠹业倪x擇面都很小,要么去公、檢、法,要么去做律師,但以后法科畢業(yè)生完全可以進(jìn)入其他行業(yè)如大數(shù)據(jù)公司,而且不只是進(jìn)入法務(wù)部,甚至可以進(jìn)入生產(chǎn)部門和程序員一起設(shè)計(jì)更加符合法律規(guī)則的人工智能產(chǎn)品。在我看來,法律知識(shí)工程師就是一種全新的職業(yè),它不是一個(gè)概念,它已經(jīng)變成了一個(gè)現(xiàn)實(shí)。
人工智能在法律職業(yè)中的應(yīng)用現(xiàn)狀
下面舉三個(gè)美國的例子來說明人工智能在法律職業(yè)中的現(xiàn)有應(yīng)用現(xiàn)狀。
第一個(gè)是電子取證。這里的“取證”不是狹義的訴訟過程中的取證,而是包括訴訟和交易環(huán)節(jié)的對(duì)事實(shí)素材的整理和相關(guān)性分析,是廣義的取證。現(xiàn)在大量的交易是在網(wǎng)上完成的,有大量的交易記錄,像這樣的東西都屬于電子取證,都是人工智能產(chǎn)品需要去分析的對(duì)象。非訴業(yè)務(wù)當(dāng)中也要保存大量的事實(shí),以幫助完成報(bào)稅、合規(guī)審查、上市準(zhǔn)備、商業(yè)談判、交易等工作。這種工作在美國已經(jīng)有非常成熟的產(chǎn)品,有一家叫Brainspace的公司所開發(fā)的產(chǎn)品Discovery就可以幫助當(dāng)事人完成對(duì)事實(shí)素材的整理。以前一個(gè)大企業(yè)想完成一年的報(bào)稅往往需要很大的團(tuán)隊(duì),花一兩個(gè)月的時(shí)間才能夠完成相關(guān)數(shù)據(jù)的整理,但是如果利用Discovery這樣的人工智能產(chǎn)品就可以在一兩天的時(shí)間內(nèi)把所有的數(shù)據(jù)整理出來。最新一代的產(chǎn)品Discovery 54還增加了中文、日文和韓文等多種東方語言的閱讀功能,從而大大提高了跨國法律業(yè)務(wù)當(dāng)中的取證能力。隨著自然語言處理(Natural Language Processing,NLP)技術(shù)的發(fā)展,這個(gè)領(lǐng)域的產(chǎn)品可以覆蓋的語言種類也會(huì)越來越多。
第二個(gè)是訴訟管理。美國Casetext公司專門開發(fā)的案件分析研究助理(Case Analysis Research Assistant,CARA),可以幫助律師和企業(yè)法律顧問完成從案例法規(guī)分析到陪審員的選擇直到法庭辯論文書生成等一系列任務(wù)。其最終出來的產(chǎn)品就是一份正式的法律文書,律師或者公司法人代表拿到這樣的文書,就可以直接出庭應(yīng)訴或者完成一項(xiàng)交易。這樣的產(chǎn)品不僅在美國越來越多,在中國也會(huì)越來越多。
此外,更加著名的就是前文提到的基于IBM Watson平臺(tái)開發(fā)的人工智能產(chǎn)品——ROSS。它的主要功能就是進(jìn)行法律研究(legal research)。法律研究不是指學(xué)術(shù)研究,而是指所有的法律職業(yè)人士都必須做的法條、司法解釋、判例的搜索和研讀工作。無論從事的是訴訟業(yè)務(wù)還是非訟業(yè)務(wù),都需要花費(fèi)大量的時(shí)間來研究法條和判例,從而形成相應(yīng)的“訴訟策略”或“交易策略”。法律研究是傳統(tǒng)律師業(yè)務(wù)中最耗費(fèi)工時(shí)的工作。據(jù)說,ROSS系統(tǒng)可以替代目前美國律師70%的法律研究工作,而且準(zhǔn)確率高達(dá)90%以上,遠(yuǎn)遠(yuǎn)高于頂尖法學(xué)院畢業(yè)生從事同類工作的準(zhǔn)確率。
當(dāng)然,目前主要由律所合伙人從事的人際溝通工作和法官的判斷工作還無法被機(jī)器所取代。但這里的“無法”不是指技術(shù)上不可能,而是指我們?nèi)祟愡€不能夠放心讓機(jī)器去代替我們作判斷。如果我們放心,實(shí)際上機(jī)器人可能比人類法官更加準(zhǔn)確、更加公正,因?yàn)樗粠в腥祟惖母星?。亞里士多德說過一句名言:“法律是摒除了激情的理性!”但是,任何人類的決策者都不可能完全摒除情感,機(jī)器顯然比人類更能夠做到不帶情感地去作判斷。所以如果放心讓機(jī)器人去當(dāng)法官,它是可以勝任的,在技術(shù)上也是可以實(shí)現(xiàn)的。此外,還有一個(gè)責(zé)任問題,即如果機(jī)器人作了判斷,那到底誰來承擔(dān)責(zé)任?像這樣的問題都使我們還“無法”把這個(gè)判斷工作交給機(jī)器人。
ROSS系統(tǒng)不僅可以作法律研究,還可以把研究結(jié)果生成簡報(bào)或者備忘錄,或者律師所使用的其他文件。如果把它用到法院,直接生成判決書也沒有問題。
這方面走在前面的是貴州省高級(jí)人民法院(以下簡稱貴州省高院)。貴州省高院使用上海貝格數(shù)據(jù)有限公司所開發(fā)的人工智能產(chǎn)品,可以做到直接生成判決書。在判決書當(dāng)中需要人類去把關(guān)的部分,它會(huì)特別標(biāo)注出來,法官只要對(duì)標(biāo)注出來的這些部分再修改就可以了。這說明現(xiàn)在的人工智能系統(tǒng)甚至可以直接形成一個(gè)最終的判決書,這正是很多的法律人特別是目前法學(xué)生所擔(dān)心的問題。顯然,人工智能可能會(huì)取代很多法律人的工作。美國法學(xué)院畢業(yè)生通過律師執(zhí)業(yè)資格考試后,一般都會(huì)從初級(jí)律師開始做起。經(jīng)過7~10年才可能升為合伙人。這個(gè)階段的主要工作就是法律研究,也就是所謂的案頭工作。以前這種工作需要大量的律師花費(fèi)大量的時(shí)間去完成,而隨著越來越多的美國律所購入人工智能產(chǎn)品,他們對(duì)從事案頭工作和法律研究工作的律師的需求會(huì)越來越小。根據(jù)美國律師協(xié)會(huì)的數(shù)據(jù),從2005年到2015年,申請(qǐng)法學(xué)院的人數(shù)在美國減少了40%,而且這個(gè)趨勢(shì)還在持續(xù)。同時(shí)大家也可以想象,以后將會(huì)有越來越多的企業(yè)選擇購買這樣的產(chǎn)品,而不是聘請(qǐng)律師來為自己提供法律服務(wù),這將極大地改變法律服務(wù)行業(yè)的圖景。這種沖擊一個(gè)是內(nèi)部的,另一個(gè)是外部的。內(nèi)部是律所本身會(huì)去購買人工智能產(chǎn)品,外部是潛在的客戶也會(huì)去購買人工智能產(chǎn)品。這種內(nèi)外夾擊就會(huì)使目前大家所熟悉的律師工作的空間越來越狹小。
第三個(gè)是合同起草和合同審核。起草和審核合同是企業(yè)法律顧問面對(duì)的主要工作之一,現(xiàn)代商務(wù)世界的復(fù)雜使這項(xiàng)工作十分耗費(fèi)時(shí)間和精力。美國LawGeex公司專門開發(fā)了有深度學(xué)習(xí)能力的人工智能產(chǎn)品。它通過對(duì)海量真實(shí)合同的學(xué)習(xí)掌握了生成高度精細(xì)復(fù)雜并結(jié)合具體情境的合同的能力。它起草的合同不僅遠(yuǎn)超照搬合同范本的結(jié)果,甚至好于很多有經(jīng)驗(yàn)的公司法律顧問的作品。
未來已來
在互聯(lián)網(wǎng)早期,人們普遍認(rèn)為互聯(lián)網(wǎng)會(huì)極大地拓展人的自由,認(rèn)為互聯(lián)網(wǎng)是不能被規(guī)制的,因?yàn)樵诨ヂ?lián)網(wǎng)上發(fā)聲的都是匿名的。當(dāng)時(shí)有一句話說:當(dāng)你在網(wǎng)絡(luò)上說話的時(shí)候,沒人知道你是一只狗還是一個(gè)人。
在未來,所有人只要下載一個(gè)App就可以控制自己家里的所有電器,從冰箱、洗衣機(jī)到整個(gè)照明系統(tǒng)。但是,這就意味著可能你自己都不了解自己家里面正在發(fā)生什么,而其他人可以了解,因?yàn)槟慵依锏乃须娖鲿r(shí)刻都在向網(wǎng)絡(luò)傳送著各類信息。我參加過中德高端論壇,參會(huì)者很多是來自德國各部部長。他們的議題本來是全球化與反全球化,與人工智能沒有關(guān)系,但是幾乎所有的德國人都在討論人工智能問題。他們提出了很多概念,比如,全世界冰箱聯(lián)合起來,那么超市就會(huì)知道你家里面缺什么。它不僅知道你缺什么,也知道你在不在家,使用冰箱的頻率是多少,然后可能在將來的某一天不用你去下單,超市就會(huì)直接把你需要的東西送到家門口,而你不會(huì)拒絕,因?yàn)槟惆l(fā)現(xiàn)這正是你所需要的。
在這樣的背景下,法律職業(yè)其實(shí)是很不幸的。在我看來,它是一個(gè)最容易被人工智能取代的行業(yè),因?yàn)槿斯ぶ悄芘c法律思維有著很強(qiáng)的表面相似性。世界上的兩大法系,分別強(qiáng)調(diào)演繹和歸納的重要性,而這與人工智能領(lǐng)域的兩大流派(符號(hào)主義的編程法和神經(jīng)網(wǎng)絡(luò))分別對(duì)應(yīng)。神經(jīng)網(wǎng)絡(luò)可以學(xué)習(xí)海量的人類經(jīng)驗(yàn)實(shí)現(xiàn)歸納,而早在神經(jīng)網(wǎng)絡(luò)出現(xiàn)之前,符號(hào)主義的編程法已經(jīng)可以模擬人的演繹推理。
今天,人工智能已經(jīng)可以從人腦無從把握的海量數(shù)據(jù)中自行搜索并進(jìn)行深度學(xué)習(xí),可以說它在經(jīng)驗(yàn)歸納方面也具有超越人腦的能力。因此,無論強(qiáng)調(diào)法律是邏輯還是經(jīng)驗(yàn),計(jì)算機(jī)都可以替代人類,法律職業(yè)在技術(shù)上是最容易被替代的。但同時(shí)它也可能是最難被替代的,因?yàn)樗械膰覜Q策者基本上都是法律人,法律人不會(huì)讓自己被替代,我們會(huì)設(shè)計(jì)出各種各樣的規(guī)則來阻止人工智能技術(shù)替代法律。
互聯(lián)網(wǎng)大數(shù)據(jù)和人工智能
何謂大數(shù)據(jù)?所謂大數(shù)據(jù)不是指量大,它指的是海量存儲(chǔ)分析和處理技術(shù)。它包括三個(gè)層次的含義。一是物理層次,涉及數(shù)據(jù)量的產(chǎn)生速度和多樣性,也就是所謂的三維。二是分析技術(shù)層次,大數(shù)據(jù)分析技術(shù)能夠很快完成所謂的數(shù)據(jù)融合,在很短的時(shí)間內(nèi)賦予非結(jié)構(gòu)化的數(shù)據(jù)以一定的結(jié)構(gòu),從而能夠?yàn)闆Q策和行動(dòng)提供非常明確的參照。三是社會(huì)層次,大數(shù)據(jù)之大在于它改變了現(xiàn)有的生活方式、消費(fèi)習(xí)慣、城市管理、交通管理、醫(yī)療衛(wèi)生、教育科研和國家治理等社會(huì)方方面面。
主要問題就是可能激化社會(huì)矛盾。人工智能時(shí)代的到來,會(huì)使兩極分化越來越嚴(yán)重。人工智能時(shí)代的技術(shù)發(fā)展太快了,法律是遠(yuǎn)遠(yuǎn)滯后于科技和它所帶來的相關(guān)商業(yè)模式的變化的。
這將導(dǎo)致這樣幾個(gè)問題:
第一,它使個(gè)人的隱私和自由變得非常脆弱。
第二,它使傳統(tǒng)制造業(yè)和其他與互聯(lián)網(wǎng)沒有直接關(guān)聯(lián)的行業(yè)處于很明顯的劣勢(shì)。這是因?yàn)槿斯ぶ悄苁且环N覆蓋人類生活全部領(lǐng)域的技術(shù)。最早進(jìn)入互聯(lián)網(wǎng)領(lǐng)域的企業(yè)因其行業(yè)特性自然而然成了大數(shù)據(jù)掌控者,人工智能對(duì)大數(shù)據(jù)的依賴又使他們自然而然成了人工智能領(lǐng)域的先驅(qū)。
比如Google和百度,傳統(tǒng)上都認(rèn)為它們只是搜索引擎公司,但是我們驚訝地看到,Google和百度通過自己所積累起來的大數(shù)據(jù)開始進(jìn)軍所有的行業(yè),包括貌似離人工智能和大數(shù)據(jù)非常之遙遠(yuǎn)的農(nóng)業(yè)?,F(xiàn)在Google、百度、阿里巴巴都在搞農(nóng)業(yè),通過在農(nóng)作物上安裝生物傳感器,來獲得比實(shí)驗(yàn)室作業(yè)更加直接和可靠的植物生長數(shù)據(jù),從而獲得農(nóng)業(yè)科技方面的突破。這并不是一種假設(shè),而是Google和阿里巴巴等公司正在做的事情。
像這樣的例子就說明,人工智能之所以值得我們?nèi)ニ伎己蛽?dān)憂,恰恰在于它在顛覆著所有的傳統(tǒng)行業(yè),它不是單一領(lǐng)域的事情。這個(gè)時(shí)候政府應(yīng)該做什么,就是一個(gè)非常值得深思的問題。
第三,由于這些企業(yè)已經(jīng)掌握了比政府更多的關(guān)于公民(作為消費(fèi)者)的信息,它們熱衷于建設(shè)智慧城市、智慧政府、智慧法院等,政府部門可能也不得不求助于它們。像前文提到的,現(xiàn)在的智慧法院建設(shè)所用的都是私人企業(yè)開發(fā)的人工智能產(chǎn)品。這其實(shí)就模糊了公權(quán)力與私權(quán)利之間的邊界,使政府應(yīng)該監(jiān)管的對(duì)象成為政府的合作伙伴,乃至實(shí)際控制人。這對(duì)各個(gè)法律部門,從憲法、行政法到民法都提出了非常全新的問題。
第四,這些掌握人工智能應(yīng)用技術(shù)的企業(yè)可以用人工智能來分析任何數(shù)據(jù),包括消費(fèi)者行為數(shù)據(jù)、政府決策數(shù)據(jù)、立法數(shù)據(jù)和法院判決數(shù)據(jù)并生成對(duì)策。這些對(duì)策有些要求線下的人際溝通,而有些則完全可以通過線上操控來完成。比如,Google和百度的搜索結(jié)果排序,京東、亞馬遜、淘寶有針對(duì)性的商品推薦等。這些排序其實(shí)是受算法決定的。而Google的排序影響美國總統(tǒng)大選也是不爭的事實(shí)。也就是說,很多操控完全可以通過算法、通過線上的方式來完成。這個(gè)時(shí)候法律如何介入、何時(shí)介入就會(huì)成為一個(gè)問題,法律以后應(yīng)該更多地考慮如何規(guī)制沒有明顯人為介入的因素。雖然其實(shí)背后都是人,但我們對(duì)這種線上操縱背后的人為因素還重視不足。
由此導(dǎo)致的結(jié)果便是人們都“自愿服從”于某種他們看不見的力量,而這種力量借助人工智能的超強(qiáng)腦力使法律和監(jiān)管完全找不到對(duì)象,乃至被牽著鼻子走。用臉書創(chuàng)辦人扎克伯格(Mark Elliot Zuckerberg)的話來說,我們正在進(jìn)入算法而不是法律統(tǒng)治人的時(shí)代。而算法從表面上來看就缺乏法律的無偏私性和一般性,它毫不掩飾地服務(wù)于設(shè)計(jì)者植入其中的目的?,F(xiàn)在世界各國的法學(xué)家都在討論算法問題,因?yàn)楝F(xiàn)在算法是一個(gè)黑箱,我們要規(guī)制它就不能讓它永遠(yuǎn)保持為一個(gè)黑箱,所以以后這個(gè)規(guī)制要進(jìn)入算法設(shè)計(jì)層面。
第五,一旦人工智能被應(yīng)用于本來就充滿流動(dòng)性、風(fēng)險(xiǎn)與不確定性的金融市場(chǎng),便可能帶來既無創(chuàng)新價(jià)值又危害巨大的災(zāi)難性后果。2010年5月6日,美國股市發(fā)生了閃電崩盤,1萬億美元的資產(chǎn)價(jià)值瞬間蒸發(fā),股價(jià)跌了9個(gè)百分點(diǎn),道瓊斯工業(yè)指數(shù)激落1000點(diǎn)。因?yàn)闆]有看到明顯的人為的因素,沒有內(nèi)幕交易,也沒有市場(chǎng)操控,美國證券交易委員會(huì)花了半年時(shí)間才搞清楚發(fā)生了什么。原來是不同炒家的計(jì)算機(jī)程序在相互競爭的過程當(dāng)中導(dǎo)致了失控。在這個(gè)被稱為高頻交易的神秘世界里,這些系統(tǒng)可以用迅雷不及掩耳的速度來收割小型獲利機(jī)會(huì),還可以相互探測(cè)和利用彼此的交易策略。當(dāng)它們彼此進(jìn)行策略性交易的時(shí)候,就導(dǎo)致了這個(gè)系統(tǒng)的崩潰。
像這樣的人工智能對(duì)決不僅存在于股票市場(chǎng),還存在于任何投機(jī)性的多方博弈市場(chǎng)。事后追責(zé)型的法律對(duì)策無法阻止人們?cè)诰薮罄娴囊T下利用人工智能進(jìn)行損害范圍無法控制的賭博式行為。
法律規(guī)制機(jī)器人的現(xiàn)有做法
世界各國規(guī)制人工智能的立法,目前有這樣幾種模式:
第一個(gè)就是賦予人工智能法律人格,這個(gè)主要是歐洲聯(lián)盟(以下簡稱歐盟)。
這個(gè)很有趣,也就是說歐盟建議在自然人和法人之外增加第三種法律主體叫作電子人。但是,在我看來,這個(gè)是沒有必要的。因?yàn)樗辉谶@個(gè)部分提到了“電子人”的概念,而在后面所有的部分特別是在講法律責(zé)任問題的時(shí)候,就再也沒有提到過電子人。比如,電子人造成了損害。首先,它沒有自己的財(cái)產(chǎn),至少到目前為止機(jī)器人不可能有自己獨(dú)立的財(cái)產(chǎn)。它如果能夠賺錢,它賺的錢也都?xì)w它的所有者所有,所以不能對(duì)電子人給予經(jīng)濟(jì)上的處罰。其次,你也不能把它投入監(jiān)獄,你把它關(guān)起來其實(shí)就是剝奪了它的所有者的財(cái)產(chǎn)權(quán)。所以電子人這個(gè)概念是沒有任何意義的,最終承擔(dān)法律責(zé)任的還是自然人或者法人。
“電子人”這個(gè)概念是很符合法學(xué)家的思維方式的,既然出現(xiàn)了人工智能體,那么就創(chuàng)設(shè)一種新的法律人格。但是,我們可以看到最終落實(shí)法律責(zé)任的時(shí)候,還是需要自然人或法人來承擔(dān)責(zé)任。所以這并不是一個(gè)很成功的立法模式,雖然歐盟的政客和法學(xué)家們都非常推崇這種模式。
第二個(gè)立法的實(shí)例就是德國的自動(dòng)駕駛汽車立法。2017年5月,德國聯(lián)邦議會(huì)和參議院通過了一部法案,對(duì)德國《道路交通法》進(jìn)行了修改,它允許高度自動(dòng)化和完全自動(dòng)化的汽車作為交通工具上路。但是,為了符合1968年《維也納道路交通公約》第8條,法案要求每一部車輛在行駛時(shí)都必須有駕駛員到位。自動(dòng)駕駛汽車的自動(dòng)化程度分為0到5級(jí),到了4級(jí)和5級(jí)的時(shí)候,基本上可以做到完全的無人駕駛。而只有做到無人駕駛,它才有真正的意義。但這部法律規(guī)定,當(dāng)自動(dòng)駕駛汽車系統(tǒng)啟動(dòng)之后,司機(jī)可以轉(zhuǎn)移注意力去讀書或者上網(wǎng),但必須保持足夠的警覺,以便在系統(tǒng)發(fā)出請(qǐng)求時(shí)恢復(fù)人工控制。它還要求高度或完全自動(dòng)化汽車安裝記錄駕駛過程的黑匣子,在沒有卷入交通事故的情況下,黑匣子信息必須保存半年。如果自動(dòng)駕駛模式正在運(yùn)行過程當(dāng)中發(fā)生了事故,責(zé)任在于汽車制造商,但如果自動(dòng)駕駛系統(tǒng)已經(jīng)發(fā)出了請(qǐng)求人工控制的信號(hào),責(zé)任便轉(zhuǎn)移到了汽車上的駕駛員身上。
在這部法律通過之前,就有很多學(xué)者和行業(yè)人士對(duì)它提出了批評(píng)。比如,這部法律使德國的自動(dòng)駕駛汽車無法實(shí)現(xiàn)真正的無人駕駛。因?yàn)楝F(xiàn)在投入生產(chǎn)的很多自動(dòng)駕駛汽車,它其實(shí)根本就沒有方向盤,但這部法律通過之后,這些沒有設(shè)計(jì)方向盤的自動(dòng)駕駛汽車就進(jìn)入不了市場(chǎng)。而且在這部新法之下,司機(jī)不知道如何才能避免法律責(zé)任,它阻礙了自動(dòng)駕駛汽車的商業(yè)化發(fā)展。因?yàn)樗笏緳C(jī)必須保持足夠的警覺,在自動(dòng)駕駛系統(tǒng)請(qǐng)求人工控制時(shí)介入以應(yīng)付緊急狀態(tài),這其實(shí)給駕駛員提出了更高的要求,使他即使在干別的事情的時(shí)候仍然不能放松自己的警覺。
這部新法還把自動(dòng)駕駛汽車造成人身傷亡的最高賠償額度提高到了1000萬歐元,將近1億人民幣,比原來的最高賠償額度增加了1倍。雖然這筆賠償在多數(shù)情況下由保險(xiǎn)公司支付,但保險(xiǎn)公司無疑會(huì)提高保費(fèi),這也增加了自動(dòng)駕駛汽車車主的負(fù)擔(dān)。諸多因素就使自動(dòng)駕駛汽車在德國只能淪為有錢人的玩具,普通人不會(huì)把它當(dāng)成一種代步工具。
與德國立法模式相對(duì)照,2017年9月,美國眾議院通過了美國《自動(dòng)駕駛法案》,采取了一種完全不同的思路。這是第三種思路。它沒有改變現(xiàn)有的道路交通規(guī)則和事故責(zé)任相關(guān)的侵權(quán)法規(guī)則,而是用憲法和行政法的思維方式劃分了聯(lián)邦與各州之間在規(guī)制自動(dòng)駕駛汽車方面的責(zé)任,明確了交通部在確立自動(dòng)駕駛汽車硬件安全標(biāo)準(zhǔn)、網(wǎng)絡(luò)安全標(biāo)準(zhǔn)、公眾知情標(biāo)準(zhǔn)等方面的具體義務(wù)和履行時(shí)間表。
其中第12條強(qiáng)化了隱私權(quán)保護(hù),要求制造商和經(jīng)銷商只有在提出了滿足一系列具體要求的“隱私權(quán)保障計(jì)劃”的前提下,才可以供應(yīng)、銷售或進(jìn)出口自動(dòng)駕駛汽車。這部法律要求交通部來控制自動(dòng)駕駛汽車的相關(guān)技術(shù)標(biāo)準(zhǔn),但是它并非自己提出標(biāo)準(zhǔn),相關(guān)標(biāo)準(zhǔn)的提出者是業(yè)界。誰想去生產(chǎn)和銷售自動(dòng)駕駛汽車,誰就有義務(wù)制定從隱私權(quán)保障到網(wǎng)絡(luò)安全的一整套標(biāo)準(zhǔn),交通部只是作為最后的把關(guān)者。這樣其實(shí)把決策權(quán)交給了業(yè)界,也是對(duì)政府和資本極高的行業(yè)要求。因?yàn)椴欢夹g(shù)的立法者制定一部全新領(lǐng)域的法律,很可能會(huì)犯一些低級(jí)的錯(cuò)誤,完全遏制這個(gè)產(chǎn)業(yè)的發(fā)展。
與上述約束自動(dòng)駕駛汽車制造者和使用者的規(guī)范不同,德國交通部長任命的倫理委員會(huì)提出的一個(gè)報(bào)告又展現(xiàn)出了另一種思路,可以說這是第四種思路。這種思路要求算法也就是軟件的編寫者遵守一系列的倫理法則,其中提出了20條很具體的倫理指導(dǎo)意見,可以說是抓住了問題的重點(diǎn),因?yàn)樗吹剿惴ú攀侨斯ぶ悄芟到y(tǒng)的靈魂。比如第7條要求,在被證明盡管采取了各種可能的預(yù)防措施仍然不可避免危險(xiǎn)的情況下,保護(hù)人的生命在各種受法律保護(hù)的權(quán)益中享有最高的優(yōu)先性。因此,在技術(shù)上可行的范圍內(nèi)系統(tǒng)必須被編程為在權(quán)益沖突時(shí)可以接受對(duì)動(dòng)物和財(cái)產(chǎn)的損害。同時(shí)第8條規(guī)定,諸如傷害一個(gè)人以避免對(duì)其他更多人的傷害這樣的倫理難題不能通過事先編好的程序來處理,系統(tǒng)必須被設(shè)定為出現(xiàn)這種情況的時(shí)候請(qǐng)求人工處理。所以,這個(gè)方案是直接把規(guī)制的層面落實(shí)到了算法上面,它要求編寫者把相關(guān)的倫理規(guī)則寫進(jìn)算法。
總結(jié)
為了更好地應(yīng)對(duì)人工智能帶來的新風(fēng)險(xiǎn),在保護(hù)創(chuàng)新的同時(shí)確保人類生活的品質(zhì),法律發(fā)展可能應(yīng)該包括以下這樣幾個(gè)向度。
首先,現(xiàn)有的法律模式?jīng)]有擺脫傳統(tǒng)的具象化乃至擬人化的思維方式,僅僅將有形的智能化機(jī)器或機(jī)器人納入規(guī)制范圍。但是這些有形的機(jī)器人只是人工智能的一種表現(xiàn)形態(tài)。其實(shí)它們都受一種無形的、彌散化的智能的控制。這種被稱為合成智能的由算法、網(wǎng)絡(luò)和大數(shù)據(jù)組成的無形無界的存在才是人工智能的智能所在。
其次,為了做到這一點(diǎn),政府應(yīng)當(dāng)在發(fā)展人工智能方面加大投入,吸收更多的人工智能人才參與立法、行政和司法工作,避免使自己遠(yuǎn)遠(yuǎn)落后于商業(yè)力量。因?yàn)楝F(xiàn)在商業(yè)力量在人工智能發(fā)展方面已經(jīng)遠(yuǎn)遠(yuǎn)地超過了政府,而政府不得不大量地借助商業(yè)機(jī)構(gòu)開發(fā)的軟件,政府在這時(shí)就很可能會(huì)被商業(yè)機(jī)構(gòu)所操縱。一方面,我們要讓越來越多的法律人進(jìn)入商業(yè)機(jī)構(gòu)去介入它的算法設(shè)計(jì)。另一方面,政府本身也應(yīng)該越來越多地吸收人工智能人才,包括公、檢、法都應(yīng)該配備自己專門的技術(shù)人員,而不僅僅是去購買企業(yè)所開發(fā)的人工智能產(chǎn)品。這在我國相對(duì)來說比較容易做到,因?yàn)轫敿獾拇髮W(xué)和科研機(jī)構(gòu)都是國家資助和管理的。而如果這些人才中大多數(shù)都轉(zhuǎn)而為商業(yè)機(jī)構(gòu)服務(wù),不僅無法體現(xiàn)社會(huì)主義的優(yōu)越性,也不利于讓人工智能向服務(wù)于社會(huì)公共利益的方向發(fā)展。
再次,從現(xiàn)有的各國立法模式來看,歐盟和德國直接修改民事規(guī)則和交通法規(guī)的做法是在事實(shí)不清、需要解決的問題不明朗的情況下作出的倉促選擇,既不利于鼓勵(lì)創(chuàng)新,也不利于保障公民的權(quán)利。在目前這個(gè)階段比較穩(wěn)妥的方案是指定一個(gè)現(xiàn)有的政府部門負(fù)責(zé)確立相關(guān)的行業(yè)技術(shù)標(biāo)準(zhǔn)、安全標(biāo)準(zhǔn)和個(gè)人數(shù)據(jù)保護(hù)標(biāo)準(zhǔn)。但是,這個(gè)標(biāo)準(zhǔn)本身不應(yīng)當(dāng)是自上而下強(qiáng)加給行業(yè),而應(yīng)該是由行業(yè)自己來提出。政府只是作為一個(gè)把關(guān)者,在最后通過的時(shí)候需要邀請(qǐng)行業(yè)專家學(xué)者還有業(yè)界人士共同來參與評(píng)估企業(yè)自己所提出的這些標(biāo)準(zhǔn)是不是符合公共利益,這也是非常重要的一個(gè)方面。
最后,德國的自動(dòng)駕駛汽車程序設(shè)計(jì)倫理規(guī)范是一個(gè)可取的思路。由于人工智能的核心在于算法,算法的設(shè)計(jì)決定著智能化機(jī)器的行為。而對(duì)于普通人和大多數(shù)立法者、執(zhí)法者和司法人員來說,算法都是一個(gè)黑箱,人們只能看到它所導(dǎo)致的結(jié)果,卻無法看到它的運(yùn)行過程。制定相關(guān)規(guī)則來約束算法設(shè)計(jì)者的行為,在發(fā)生可疑后果的時(shí)候要求程序員用自然語言來解釋算法的設(shè)計(jì)原理,并且追究其相關(guān)責(zé)任,這顯然是一種治本之法。因?yàn)樗惴ㄖ灰侨嗽O(shè)計(jì)的,它就符合一定的人類目的,就都是用自然語言可以說清楚的。并不見得法律人都必須去學(xué)習(xí)編程,但是你必須懂得人工智能的技術(shù)原理以及它哪些方面可能出錯(cuò),將來我們就可以要求程序員用自然語言來說明它編程的原理。也就是說,本來是可以防范、防止某種危害的,你沒有在算法當(dāng)中寫入防止這種危害的程序,那么就要承擔(dān)相關(guān)的責(zé)任。不愿意解釋或認(rèn)為解釋不清楚,都只是一種推托之詞。
鑒于人工智能對(duì)人類社會(huì)的影響越來越大,我建議應(yīng)像普及法律知識(shí)一樣普及人工智能知識(shí)。但是,在人工智能知識(shí)像普法一樣被普及開來之前,一個(gè)過渡性的做法是設(shè)立由相關(guān)領(lǐng)域?qū)<液头陕殬I(yè)人士共同組成的倫理委員會(huì)或者“人工智能法院”,按照風(fēng)險(xiǎn)防范而不是糾紛解決的思路來處理相關(guān)規(guī)則的設(shè)計(jì)和落實(shí)問題。也就是說現(xiàn)在倉促地立法可能還為時(shí)過早,但是相關(guān)的討論、正式的公共政策討論應(yīng)該納入議事日程。