人工智能倫理學(xué)的一知半解
讀MBA時(shí)候的授業(yè)導(dǎo)師是周教授,周教授有一門頗受學(xué)生們歡迎的課程是“企業(yè)倫理學(xué)”。時(shí)隔多年,課本的內(nèi)容已經(jīng)還給了學(xué)校,但周老師課上的一些話還隱約記得。
倫理學(xué)是關(guān)于道德問題的科學(xué),是將道德思想觀點(diǎn)的系統(tǒng)化和理論化。解決的基本問題只有一個(gè),就是道德和利益的關(guān)系問題。對(duì)這一基本問題的答案決定著各種道德體系的原則,也決定著各種道德活動(dòng)的評(píng)判標(biāo)準(zhǔn)。
由人組成的組織在進(jìn)行經(jīng)營活動(dòng)時(shí),在本質(zhì)上始終存在著倫理問題。所以,企業(yè)倫理是企業(yè)經(jīng)營本身的倫理。
AI倫理的提出
在國內(nèi),明確提出AI倫理原則的人可能是百度的創(chuàng)始人李彥宏。2018年5月26日,他在貴陽大數(shù)據(jù)博覽會(huì)上指出,所有的AI產(chǎn)品、技術(shù)都要有大家共同遵循的理念和規(guī)則:
AI 的最高原則是安全可控;
AI 的創(chuàng)新愿景是促進(jìn)人類更加平等地獲得技術(shù)能力;
AI 存在的價(jià)值是教人學(xué)習(xí),讓人成長,而不是取代人、超越人;
AI的終極理想是為人類帶來更多的自由和可能。
同樣是2018年,微軟發(fā)表了《未來計(jì)算》(The Future Computed)一書,其中提出了開發(fā)人工智能的六大原則:公平、可靠和安全、隱私和保障、包容、透明、責(zé)任。
首先是公平性,是指不同區(qū)域的人、不同等級(jí)的人在AI面前是平等的,不應(yīng)該有人被歧視。
第二是可靠性和安全性,指的是人工智能使用起來是安全、可靠、不作惡的。
第三是隱私和保障,因?yàn)樯婕暗綌?shù)據(jù),所以總是會(huì)引起個(gè)人隱私和數(shù)據(jù)安全方面的問題。
第四是必須考慮到包容性的道德原則,要考慮到世界上各種功能障礙的人群。
第五是透明度。在過去,人工智能領(lǐng)域突飛猛進(jìn)最重要的一個(gè)技術(shù)就是深度學(xué)習(xí),深度學(xué)習(xí)模型的準(zhǔn)確度是幾乎所有機(jī)器學(xué)習(xí)模型中最高的,但在這里存在一個(gè)是否透明的問題。透明度和準(zhǔn)確度無法兼得,只能在二者權(quán)衡取舍,如果準(zhǔn)確度更高,可能要犧牲一定的透明度。
第六是問責(zé)。問責(zé)制是一個(gè)非常有爭(zhēng)議的話題,涉及到一個(gè)法律或者立法的問題。如果是機(jī)器代替人來進(jìn)行決策、采取行動(dòng)出現(xiàn)了不好的結(jié)果,到底是誰來負(fù)責(zé)?不能讓機(jī)器或者人工智能系統(tǒng)當(dāng)替罪羊,人必須是承擔(dān)責(zé)任的。
實(shí)際上,大約在1950年,科幻作家阿西莫夫就提出了 “機(jī)器人三定律”:
第一,不傷害定律:機(jī)器人不得傷害人類,也不得見人受到傷害而袖手旁觀。
第二,服從定律:機(jī)器人必須服從人的命令,但不得違反第一定律。
第三,自保定律:機(jī)器人必須保護(hù)自己,但不得違反一、二定律。
這三條定律在制造機(jī)器人的伊始便被嵌入其大腦,永遠(yuǎn)無法消除。
這些都涉及了一定的倫理問題, 都還都是些概要性原則,較完善地提出AI 倫理與價(jià)值的可能是阿西洛馬人工智能原則了。
阿西洛馬人工智能原則
2017年1月初舉行的“Beneficial AI”會(huì)議,在此基礎(chǔ)上建立起來的“阿西洛馬人工智能原則”,名稱來自此次會(huì)議的地點(diǎn)——美國加州的阿西洛馬(Asilomar)市,旨在確保AI為人類利益服務(wù)。
西洛馬人工智能原則的第6至18條,指出了人工智能的倫理和價(jià)值:
6) 安全性:人工智能系統(tǒng)在它們整個(gè)運(yùn)行過程中應(yīng)該是安全和可靠的,而且其可應(yīng)用性的和可行性應(yīng)當(dāng)接受驗(yàn)證。
7) 故障透明性:如果一個(gè)人工智能系統(tǒng)造成了損害,那么造成損害的原因要能被確定。
8)司法透明性:任何自動(dòng)系統(tǒng)參與的司法判決都應(yīng)提供令人滿意的司法解釋以被相關(guān)領(lǐng)域的專家接受。
9)責(zé)任:高級(jí)人工智能系統(tǒng)的設(shè)計(jì)者和建造者,是人工智能使用、誤用和行為所產(chǎn)生的道德影響的參與者,有責(zé)任和機(jī)會(huì)去塑造那些道德影響。
10)價(jià)值歸屬:高度自主的人工智能系統(tǒng)的設(shè)計(jì),應(yīng)該確保它們的目標(biāo)和行為在整個(gè)運(yùn)行中與人類的價(jià)值觀相一致。
11)人類價(jià)值觀:人工智能系統(tǒng)應(yīng)該被設(shè)計(jì)和操作,以使其和人類尊嚴(yán)、權(quán)力、自由和文化多樣性的理想相一致。
12)個(gè)人隱私:在給予人工智能系統(tǒng)以分析和使用數(shù)據(jù)的能力時(shí),人們應(yīng)該擁有權(quán)力去訪問、管理和控制他們產(chǎn)生的數(shù)據(jù)。
13)自由和隱私:人工智能在個(gè)人數(shù)據(jù)上的應(yīng)用不能充許無理由地剝奪人們真實(shí)的或人們能感受到的自由。
14)分享利益:人工智能科技應(yīng)該惠及和服務(wù)盡可能多的人。
15) 共同繁榮:由人工智能創(chuàng)造的經(jīng)濟(jì)繁榮應(yīng)該被廣泛地分享,惠及全人類。
16)人類控制:人類應(yīng)該來選擇如何和決定是否讓人工智能系統(tǒng)去完成人類選擇的目標(biāo)。
17)非顛覆:高級(jí)人工智能被授予的權(quán)力應(yīng)該尊重和改進(jìn)健康的社會(huì)所依賴的社會(huì)和公民秩序,而不是顛覆。
18)人工智能軍備競(jìng)賽:致命的自動(dòng)化武器的裝備競(jìng)賽應(yīng)該被避免。
共有23條準(zhǔn)則,旨在確保人類在新技術(shù)出現(xiàn)時(shí)能順利規(guī)避其潛在的風(fēng)險(xiǎn),其突出核心成員有Stephen Hawking和Elon Musk。這個(gè)組織專注于由新技術(shù)和問題構(gòu)成的潛在威脅,如人工智能、生物技術(shù)、核武器和氣候變化等。
AI 倫理學(xué)?
實(shí)際上,很多倫理問題連人類自身都沒有解決,由人類定義的倫理邏輯是否存在漏洞呢?微不足道的漏洞,在人工智能發(fā)展到一定程度后卻可能成為壓倒整個(gè)倫理系統(tǒng)的稻草。
對(duì)于功利主義者而言,“以人類為中心”將是發(fā)展人工智能的重要倫理依據(jù):必要的領(lǐng)域應(yīng)該限制機(jī)器的智能超過人類的智能,即使將來某一天超過了,掌握權(quán)還要在人類的手中。但是這種“物我兩分”的價(jià)值觀,本質(zhì)上是一種“主奴思想”。在人工智能可能超過人類的語境下,可能并不是最好的解決方案。倘若人類真的要在人工智能這條路上走下去,將倫理的判斷完全掌握在人類手中或是全權(quán)交給“更智慧”的人工智能都是不可行的;將人類自身與人工智能放到統(tǒng)一的維度去審視,方能產(chǎn)生一個(gè)相較而言最為完善的人工智能倫理關(guān)系。
另外,妥善處理人工智能與人類之間可能產(chǎn)生的情感與羈絆,也是人工智能倫理研究的重要一環(huán)。
在國外,MIT媒體實(shí)驗(yàn)室(MIT Media Lab)和哈佛大學(xué)伯克曼克萊恩互聯(lián)網(wǎng)及社會(huì)研究中心(Berkman Klein Center)共同成為了“人工智能倫理和監(jiān)管基金”的管理機(jī)構(gòu),用于解決人工智能所帶來的人文及道德問題。
現(xiàn)在,人工智能技術(shù)在我們生活的各個(gè)方面都變得越來越有用。它們存在于我們的智能手機(jī)、社交網(wǎng)絡(luò)、家庭智能音箱、私人交通工具ーー只要你能想到的,就有人工智能在某處工作。就像任何新興的技術(shù)一樣,需要充分利用這些AI技術(shù); 同時(shí)確保人工智能在道德和收益上有益于所有人。
人工智能倫理學(xué)可能會(huì)發(fā)展成一門學(xué)科,可能要解決以下的一些問題:
人性: 機(jī)器如何影響人們的行為和互動(dòng)?
不平等: 人們?nèi)绾畏峙錂C(jī)器創(chuàng)造的財(cái)富?
失業(yè): 人們?cè)跊]有工作后會(huì)發(fā)生什么?
安全: 人們?nèi)绾伪Wo(hù)AI不受敵人侵?jǐn)_?
......
在建立AI體系時(shí)需要考慮的一些倫理要點(diǎn)
現(xiàn)在,可能需要企業(yè)和政府介入并幫助解決這些問題,確定指導(dǎo)行業(yè)內(nèi)的AI倫理原則,最終幫助確保AI技術(shù)的安全性和可持續(xù)性,能夠發(fā)揮AI 的潛力。
在建立AI倫理和AI經(jīng)濟(jì)時(shí)需要考慮的五個(gè)要點(diǎn)——
1: 引入人工智能的公司治理和道德框架
對(duì)于支持AI倫理的人工智能經(jīng)濟(jì)而言,第一步是制定關(guān)鍵原則,以維護(hù)該技術(shù)的道德使用。企業(yè)應(yīng)起草或修訂企業(yè)政策,納入新技術(shù)的道德使用立場(chǎng),概述其業(yè)務(wù)模式所特有的問責(zé)措施。公司還需在組織的各個(gè)層面建立明確的期望,使AI倫理成為整個(gè)公司討論中的一部分,從董事會(huì)會(huì)議和員工績效評(píng)估,到非正式管理和員工簽到。
在政府層面,官員應(yīng)該注意監(jiān)管機(jī)構(gòu)在指導(dǎo)實(shí)施AI倫理方面的作用。決策者應(yīng)直接與行業(yè)專家合作,熟悉人工智能的技術(shù)構(gòu)成、潛在的安全風(fēng)險(xiǎn)和現(xiàn)實(shí)世界的應(yīng)用程序,然后再啟動(dòng)正式的調(diào)研方案。
2: 揭開人工智能的神秘面紗和關(guān)于其責(zé)任的問題
為了揭開人工智能的神秘面紗和圍繞問責(zé)制,企業(yè)應(yīng)該首先承認(rèn)實(shí)施該技術(shù)的任何潛在風(fēng)險(xiǎn),并制定在部署之前和使用之后進(jìn)行AI測(cè)試的戰(zhàn)略。在制定這些策略時(shí),公司應(yīng)該與外部專家一起探討人工智能的問責(zé)制如何適用于特定的企業(yè)目標(biāo)和客戶需求。
政府官員應(yīng)該認(rèn)識(shí)到在采取措施促進(jìn)問責(zé)制和允許人工智能創(chuàng)新之間的動(dòng)態(tài)平衡。找到這種平衡將有助于保持技術(shù)及其用戶的誠實(shí)和透明度,因?yàn)樾抡呷匀辉谥贫ㄖ小?/p>
3: 建立人們對(duì)企業(yè)人工智能的信任
作為一個(gè)企業(yè),在使用人工智能時(shí),必須盡可能保持透明。在向利益相關(guān)者介紹這一想法時(shí),企業(yè)必須分享技術(shù)的預(yù)期目的以及認(rèn)為在他們的組織中采用這一想法的重要原因。商業(yè)領(lǐng)袖需要通過制定培訓(xùn)和認(rèn)證方案,明確界定使用人工智能的標(biāo)準(zhǔn),并應(yīng)公開說明為界定這些最佳實(shí)踐而采取的措施,特別是為檢驗(yàn)技術(shù)缺陷而采取的任何步驟。
政府可以通過尋找機(jī)會(huì),讓公眾參與正在進(jìn)行的討論,解決民眾關(guān)注的問題,并介紹今后的考慮因素,從而建立對(duì)企業(yè)AI的信任。此外,通過政府來提高民眾的認(rèn)識(shí),政府可以努力減少公眾對(duì)于在工作和日常生活中使用AI的某些抑制。
4: 將人工智能引入勞動(dòng)力隊(duì)伍
為了鼓勵(lì)將人工智能納入勞動(dòng)力隊(duì)伍,企業(yè)應(yīng)投資于對(duì)自動(dòng)化技術(shù)相互作用的工作人員進(jìn)行再培訓(xùn)。為了最大限度地利用這種培訓(xùn),公司可以給人力資源部門提供未來技能需求所需的數(shù)據(jù),這樣他們就能準(zhǔn)確地知道什么樣的工具可以武裝當(dāng)前和未來的員工隊(duì)伍,從而取得成功。
5: 需要為年輕學(xué)生制定數(shù)字教育方案
最后,企業(yè)和政府都應(yīng)該支持針對(duì)年輕學(xué)生的AI教育項(xiàng)目,幫助確保下一代人能夠運(yùn)用人工智能,理解更廣泛的倫理問題。在一個(gè)理想的世界里,學(xué)生完成教育后,預(yù)測(cè)圍繞人工智能技術(shù)的使用的道德框架和原則,他們將理解問責(zé)制,并反過來期望公司具有透明度。只要企業(yè)、政府和行業(yè)參與者共同努力,為AI倫理奠定適當(dāng)?shù)幕A(chǔ),這一切就可以實(shí)現(xiàn)。
AI倫理學(xué),可能還處于一知半解的狀態(tài)里,都在路上。