人工智能倫理治理亟需邁向?qū)嵺`階段
當(dāng)今社會,數(shù)字產(chǎn)業(yè)化與產(chǎn)業(yè)數(shù)字化持續(xù)推動數(shù)字世界與物理世界深度融合發(fā)展,人類的生活和生產(chǎn)方式日益被重塑。人工智能算法與數(shù)據(jù)作為這場經(jīng)濟與社會領(lǐng)域變革的核心推動力,將是未來數(shù)年的話題制造者。毫無疑問,數(shù)據(jù)與人工智能算法的結(jié)合,嵌入恰當(dāng)?shù)膽?yīng)用場景,將帶來顯著的經(jīng)濟與社會效益。
但也必須重視人工智能算法在公平、安全、隱私、透明、責(zé)任、就業(yè)等方面可能帶來的問題。算法系統(tǒng)的輸出結(jié)果可能對特定個體或群體造成歧視、不公平、排斥等,例如人臉識別算法被指在識別有色人種上準(zhǔn)確性較差,廣告算法、招聘算法被指排斥女性勞動者。算法分發(fā)可能助長虛假信息的傳播、擴散,也能限制用戶對信息的自由選擇,進而造成“信息繭房”效應(yīng)。同時,算法也可能被濫用或惡用,給個人權(quán)益、公共利益、國家安全等帶來威脅,如過度采集與分析人臉信息、大數(shù)據(jù)殺熟、深度偽造等。
在這些背景下,人工智能的發(fā)展應(yīng)用迫切需要倫理價值來提供引導(dǎo)與約束,這在國內(nèi)外已經(jīng)成為人工智能領(lǐng)域的一項基本共識。
三個階段
2016年以來,伴隨著人工智能技術(shù)的快速發(fā)展應(yīng)用,人工智能倫理大致經(jīng)歷了三個發(fā)展階段,當(dāng)前迫切需要邁向“實踐”階段。
第一階段從2016年開始,可以稱之為原則大爆炸階段。這個階段的核心是各界紛紛提出或制定倫理原則。以人工智能需要遵循一定的倫理原則為出發(fā)點,上到國家、政府機構(gòu)與國際組織,下到科技公司、行業(yè)組織與學(xué)術(shù)團體,各界紛紛提出或制定AI倫理原則。國內(nèi)外的主流科技公司如微軟、谷歌、IBM、騰訊等也都積極響應(yīng),陸續(xù)提出了各自的AI倫理原則。據(jù)不完全統(tǒng)計,相關(guān)的AI原則文件超過百份??傊谶@個階段,各界都在積極倡導(dǎo)AI倫理原則,但缺乏必要的共識與具體的實踐。
第二個階段從2018年開始,可以稱之為共識尋求階段。不同的國家、不同的組織提出了眾多的AI原則和倫理框架,這些原則和框架不盡相同,甚至存在一定程度的分歧與沖突。但人工智能與數(shù)字經(jīng)濟是全球化的,所以人們希望達(dá)成、制定全球共同認(rèn)可的AI原則。OECD和G20的人工智能原則便是這一階段的產(chǎn)物。
第三個階段從2019年開始,可以稱之為AI倫理實踐階段。在這個階段,產(chǎn)業(yè)界開始思索如何實施、執(zhí)行AI原則,探索可以把AI原則轉(zhuǎn)化為實踐的機制、做法、工具等。目前,谷歌、微軟、IBM等科技公司已在積極推進AI倫理方面的落地工作,讓AI原則操作化、落地化,真正融入、嵌入AI研發(fā)流程與業(yè)務(wù)應(yīng)用。總之,AI倫理實踐應(yīng)成為當(dāng)前以及未來AI倫理工作的核心方向,因為要真正把AI倫理落到實處,僅僅倡導(dǎo)AI倫理原則是不足夠的,下一階段需要著力探索把抽象的AI原則“翻譯”為或“轉(zhuǎn)變”為具體的實踐的治理路徑。
五個路徑
從原則到實踐,是AI倫理領(lǐng)域的發(fā)展方向。目前,我國已提出了AI倫理相關(guān)的原則、框架等,如《新一代人工智能治理原則——發(fā)展負(fù)責(zé)任的人工智能》。一些科技公司也提出了類似的倡議。在此基礎(chǔ)上,需要進一步探索AI倫理的落地實施方案,更多依靠倫理治理的相關(guān)實踐來促進負(fù)責(zé)任、安全可信AI的發(fā)展應(yīng)用。結(jié)合國內(nèi)外的相關(guān)探索與研究,AI倫理治理主要有以下五個實踐路徑。
一是倫理委員會。如果說人工智能是未來智能社會的基石,那么可以說倫理就是使這一基石穩(wěn)固的必要保障。所以,考慮到不同AI系統(tǒng)的不同影響,以及立法滯后、法律不健全等因素,科技公司需要在法律合規(guī)這一最低要求之外,積極履行倫理責(zé)任。倫理委員會是科技公司履行AI倫理責(zé)任的最基礎(chǔ)機制。成立倫理委員會,對AI相關(guān)業(yè)務(wù)與應(yīng)用進行必要的倫理審查,已經(jīng)成為了科技行業(yè)的“必選項”,例如微軟的AETHER委員會、谷歌的AI原則審查小組、IBM的AI倫理委員會等。倫理委員會的主要職責(zé)是制定AI倫理相關(guān)的內(nèi)部標(biāo)準(zhǔn)與流程,并基于此對AI相關(guān)業(yè)務(wù)進行倫理審查,以識別、預(yù)防、消除AI相關(guān)應(yīng)用在安全、公平、隱私等方面風(fēng)險。在具體運作上,倫理委員會需要多元參與,即技術(shù)、法律、倫理等不同專業(yè)領(lǐng)域人士的協(xié)作配合;倫理委員會負(fù)責(zé)建立案例、標(biāo)準(zhǔn)、程序、工具、資源等,成為制度知識的資料庫,發(fā)揮治理主體的作用。此外,倫理委員會比政府立法反應(yīng)快,能夠及時跟進技術(shù)創(chuàng)新與應(yīng)用的快速發(fā)展。
二是倫理實踐框架。除了對AI業(yè)務(wù)進行倫理審查,國外科技公司也在落實AI倫理相關(guān)的實踐框架,以解決人工智能帶來的歧視、不透明、不可解釋、隱私等問題。例如,在算法透明性方面,谷歌推出了面向人工智能的“模型卡片”機制,IBM則推出了“AI事實清單”機制,這些機制類似于產(chǎn)品的說明書與食品的營養(yǎng)成分表,對人工智能模型相關(guān)的模型細(xì)節(jié)、用途、影響因素、指標(biāo)、訓(xùn)練數(shù)據(jù)、評估數(shù)據(jù)、倫理考慮、警告與建議等方面進行解釋說明,以便人們可以更好地理解、認(rèn)知AI模型。再如,在隱私保護方面,聯(lián)邦學(xué)習(xí)框架(federated learning)既能促進數(shù)據(jù)利用,又能很好地保護個人隱私。簡言之,聯(lián)邦學(xué)習(xí)是指在進行機器學(xué)習(xí)的過程中,各參與方可借助其他方數(shù)據(jù)進行聯(lián)合建模,但卻無需共享其數(shù)據(jù)資源。借助聯(lián)邦學(xué)習(xí),可以解決數(shù)據(jù)不完整、數(shù)據(jù)不充分等問題,同時保護個人隱私及數(shù)據(jù)安全。聯(lián)邦學(xué)習(xí)在車險定價、信貸風(fēng)控、銷售預(yù)測、視覺安防、輔助診斷、隱私保護廣告、自動駕駛等方面具有很大應(yīng)用前景。此外,AI倫理檢查清單、AI公平性檢查清單等機制也日益得到科技公司的重視,在確保AI符合倫理要求方面將發(fā)揮越來越重要的作用。
三是倫理工具。倫理工具側(cè)重從技術(shù)上尋找針對透明性、可解釋、公平性、安全性、隱私保護等問題的技術(shù)解決方案。此外,還包括針對人臉偽造在內(nèi)的深度偽造的鑒別工具。從倫理工具的開源發(fā)展到商業(yè)化服務(wù),大型科技公司和AI倫理創(chuàng)業(yè)公司正在彌補AI領(lǐng)域缺失的一環(huán),為AI倫理落地提供了全新的思路。目前,谷歌、微軟、IBM以及一些AI倫理創(chuàng)業(yè)公司等都在積極開發(fā)多元化的AI倫理工具并集成到云服務(wù)中,提供AI倫理服務(wù)(ethic as a service,簡稱EaaS),賦能客戶與產(chǎn)業(yè)。EaaS將來有望成為云服務(wù)與云AI的標(biāo)配。
四是標(biāo)準(zhǔn)認(rèn)證。就像現(xiàn)在的隱私保護一樣,人工智能倫理也可以采取標(biāo)準(zhǔn)認(rèn)證的方式來推進,符合AI倫理標(biāo)準(zhǔn)的AI產(chǎn)品與服務(wù)可以申請相應(yīng)的認(rèn)證。目前,IEEE、ISO等國際標(biāo)準(zhǔn)化組織在積極組織制定相關(guān)的標(biāo)準(zhǔn),并嘗試推出認(rèn)證項目。未來我國在這方面也需要積極投入,搶占標(biāo)準(zhǔn)高地,以標(biāo)準(zhǔn)認(rèn)證的方式鼓勵、促進可信的、負(fù)責(zé)任的AI的發(fā)展應(yīng)用。
五是倫理培訓(xùn)。技術(shù)研發(fā)人員處在AI業(yè)務(wù)一線,是對技術(shù)負(fù)責(zé)的第一人,需要培養(yǎng)他們的倫理意識,幫助他們在AI業(yè)務(wù)實際中積極踐行倫理要求,把倫理要求嵌入產(chǎn)品開發(fā)設(shè)計與運作的全流程。所以政府與企業(yè)也要對其技術(shù)人員加強倫理培訓(xùn),高校則要加強AI倫理相關(guān)教育培訓(xùn)體系的搭建。
三管齊下
對于AI治理,倫理治理、法律治理及技術(shù)治理都有各自的作用空間,不可偏廢。但就當(dāng)前而言,人工智能治理需要更多依靠倫理治理的方式。因為考慮到AI算法的復(fù)雜性與持續(xù)迭代性,在不宜草率推出強制性立法時,倫理治理對于應(yīng)對AI算法應(yīng)用帶來的問題無疑是最適合也是最有效的方式。
AI倫理固然重要,是確保實現(xiàn)負(fù)責(zé)任、安全可信AI的重要路徑。但也不能片面強調(diào)倫理及立法規(guī)制,以免影響AI技術(shù)的創(chuàng)新應(yīng)用及其經(jīng)濟社會效益的最大化。
例如,過度強調(diào)個人信息與隱私保護,可能導(dǎo)致AI應(yīng)用獲取不到足夠的可用數(shù)據(jù),進而阻礙AI應(yīng)用及其對個人與社會的價值;過度強調(diào)算法的透明性,可能降低算法的準(zhǔn)確性或效率,進而阻礙規(guī)?;瘧?yīng)用;片面強調(diào)在所有場景下都要求人類最終決策與控制,可能無法充分發(fā)揮AI解決既有決策環(huán)節(jié)中人類決策者相關(guān)的偏見、歧視等問題。而且很多高風(fēng)險的AI應(yīng)用,往往也是高價值的AI應(yīng)用,所以要在權(quán)衡不同利益追求的基礎(chǔ)上,做到倫理與發(fā)展的平衡,實現(xiàn)負(fù)責(zé)任的技術(shù)創(chuàng)新與應(yīng)用。