過去一年,全球關于人工智能倫理有了這些思考
在一月底結束的2019年國際消費電子產品展會上(CES 2019),LG總裁兼***技術官帕克(I.P.Park)發(fā)表了關于AI如何促進“自我進化”產品的主旨演講。“人工智能與倫理”的討論,成為了這場原本與嚴肅話題不太相關的消費技術盛會的序幕。
從自動駕駛到智能家居,無論是討論頻率還是技術創(chuàng)新,人工智能都已經(jīng)滲透在人們追求更好生活的方方面面。
據(jù)麥肯錫估計,到2030年,人工智能會在全球范圍內創(chuàng)造近130億美元的額外經(jīng)濟產值,占世界GDP增長的1.2%[1]。同時,各國政府也注意到這一技術對人類社會的深入,在加拿大一家國際智庫發(fā)布的《建設人工智能的世界——國家和區(qū)域人工智能政策報告》[2]中,全球已有18個主要國家發(fā)布了關于人工智能的針對性戰(zhàn)略和政策,包括科技、法規(guī)、倫理、社會治理等多個方面。
然而,隨著人工智能的井噴式發(fā)展,關于人工智能為整個社會帶來的影響,也從科幻作品中走進現(xiàn)實。
撇開科幻作品中炫酷而強大的終結者不談,僅僅簡單的自動駕駛技術,當真正投入使用后也會面臨“電車悖論”的困擾。人類社會生活的復雜性在于其不僅追求工作的效率和精確,更追求選擇的公正與合理。
隨著技術的不斷發(fā)展,當人工智能真正嵌入人們的日常生活,這些倫理選擇便也真實地擺在面前,成為人工智能設計者們需要解決的問題。
那么具體來看,人工智能究竟引發(fā)了哪些討論?我們需要關注哪些問題呢?在過去的一年里,大家關注了這些問題:
人工智能不應該傷害人
早在機器人誕生之時,人們便為這種本為幫助人類而設計的機器制定了倫理規(guī)范。上世紀50年代,著名科幻小說家阿西莫夫便在《我,機器人》一書中提出了“機器人學的三大法則”。
法則***條便規(guī)定:“機器人不得傷害人類個體,或者目睹人類個體將遭受危險而袖手不管”。保護至高的人類生命是一切行動的前提。從字面上看,這應是一條被普遍承認與遵守的規(guī)則,但現(xiàn)實并非科幻作品中那樣簡單。
2018年4月,谷歌與美國五角大樓達成了Maven項目的合作,通過機器學習技術和先進的計算機視覺技術,在無人機拍攝的視頻中辨別物體,自動探測和識別38種類別的目標,從而減輕軍事分析員的工作負擔。此外,該技術也可以用于追蹤目標人員的行動。
此舉引發(fā)眾多項目相關員工辭職,也有將近4000名員工簽名請愿谷歌取消該項目。6月,谷歌發(fā)表聲明,強調其不會進行任何武器開發(fā)或以傷害人類為目的的人工智能研究,但項目并未終止。最終在員工們“拒絕為軍方研究人工智能”的壓力下,谷歌最終確認該項目2019年3月到期后將不再續(xù)約。
這場在人工智能界由普通員工發(fā)起的“反戰(zhàn)運動”的勝利提醒我們——毫無疑問,人工智能技術有極為廣闊的應用領域,在技術高速發(fā)展的今天,人形“終結者”并不會出現(xiàn),但可能會以另一種形式悄悄到來。
然而,技術發(fā)展需要倫理與規(guī)則的限制。畢竟,正是這些最基本的規(guī)制保持著人類社會在不斷的摩擦、碰撞與沖突中的正常前行。
也許人工智能的去武器化已經(jīng)在社會大部分達成共識,谷歌的項目也在世界眾多和平主義者的聲討中敗下陣來。
然而,除了自動化武器這種“主動傷人”之外,當人工智能深入到我們生活中不同場景時,一些人工智能“被迫傷人”的場景如何處理也成為了重要的議題。
自動駕駛便是一例。
2018年10月,麻省理工學院在Nature上發(fā)表了一篇將自動駕駛牽涉入“電車難題”的論文[3]。
研究人員通過其開發(fā)的“道德機器”(moral machine)向來自200多個國家的200多萬在線參與者提出了一系列自動駕駛汽車在緊急情況時面對不同生命如何選擇的問題。
結果顯示了人類間選擇的多樣性——不同群體的選擇偏好有很大不同,如一些集群傾向于保護動物,一些集群傾向于保護老人。這些特殊性可以在人類的不同集群中出現(xiàn),但對于需要提前規(guī)定好程序,按唯一特定模式選擇的自動駕駛汽車,要么少數(shù)人的偏好被***放大,與大多數(shù)產生沖突,要么少數(shù)人的偏好在多數(shù)人的壓倒性優(yōu)勢下完全湮滅。
如果按照研究的普遍性結果制定自動駕駛規(guī)則,那么多數(shù)人與青年人會被保護,而少數(shù)人與老年人則被犧牲。可以想象,若如此規(guī)則被全面推廣,老年人是否還敢出現(xiàn)在車水馬龍的街頭。
“一方面,我們希望為公眾提供一種簡單的方式進行重要的社會討論,”媒體實驗室媒體藝術與科學副教授Iyad Rahwan說。 “另一方面,我們希望收集數(shù)據(jù),以確定人們認為哪些因素對于自動駕駛汽車在解決道德權衡方面的重要性。”討論并未結束,人們也在不斷的討論中進一步認識自動駕駛的真正影響,并為其制定規(guī)則。
人工智能不應該歧視人
在麻省理工學院的調查中,除了對生命的選擇,更值得關注的是人工智能算法對人類偏好差異性的放大。若不注意,這些不同很有可能通過算法開發(fā)被擴大為偏見,并實在地影響人們的選擇。
比如亞馬遜的人工智能雇員系統(tǒng)。這一試驗性的雇員系統(tǒng)通過對之前員工簡歷的機器學習,在實際操作中會給女性技術員的簡歷評分較低。在無數(shù)爭議后,亞馬遜終于在2018年11月關閉了這一系統(tǒng)。
就在亞馬遜關閉人工智能簡歷篩選系統(tǒng)的同一個月,八名美國國會議員向亞馬遜的CEO寄出了聯(lián)名簽名信,抗議其人臉識別系統(tǒng)也存在種族歧視的問題。盡管這次亞馬遜頂住壓力給予回擊,但來自全世界的平權者仍不買賬。雙方的爭吵尚未停止。
通過大量、迅速且精確的重復計算,機器學習能夠解決效率問題,在許多領域都大有發(fā)展空間。但在高效的同時,細觀人類提供的機器學習的樣本,在摒除誤差、尋找規(guī)律時,自然以樣本中的多數(shù)為樣例,運用到現(xiàn)實時,便成為人們所指責的“歧視”。這并非開發(fā)者故意的行為,也并非人工智能本身的問題。
只能說,在人類歷史的發(fā)展中,人工智能幫我們指出了曾經(jīng)沒有意識到的問題,當我們堅信人工智能應當為所有人服務時,我們需要思考如何克服曾經(jīng)的偏見,這是人與人工智能共同的任務。
人工智能不應該“操縱”人
除了已有數(shù)據(jù)的不同偏好,在人工智能的數(shù)據(jù)與推薦方面,人們也有許多擔心。
當人工智能不斷展示其強大的數(shù)據(jù)處理能力時,許多評論者認為人工智能是中心化的,由于極強的數(shù)據(jù)攫取能力,巨大的信息不對稱帶來社會的恐慌。2018年的Facebook隱私泄露事件將數(shù)據(jù)安全推到了風口浪尖。對人工智能和算法的不信任也上升到從未有過的高度。
同時,算法推薦類產品也被重新審視。
一方面,算法推薦背后強力的數(shù)據(jù)抓取與分析令人們覺得自己在人工智能面前仿佛赤身裸體,沒有一點隱私;另一方面,算法推薦,一味滿足人們喜好造就的“知識繭房”也令人們恐懼人工智能強大到可以操控人類的“自我意識”。
2018年12月,谷歌旗下的視頻社交網(wǎng)站YouTube又被指出向客戶推送極端主義、假新聞等內容。YouTube立刻道歉并刪除了視頻,但如何糾偏算法推薦系統(tǒng)各方討論的問題。
人類的道德觀,是在歷史漫長的社會實踐活動中天然形成的,而對于沒有經(jīng)歷過這些社會實踐的計算機來說,并不能自然形成道德約束。
但顯然,算法需要價值觀已經(jīng)成為人工智能界的一種主流共識。
要將符合人類價值的約束加于算法中,公開算法只是***步,如何通過社會討論確立規(guī)則、通過想象力和創(chuàng)造力設計更符合人類倫理價值的算法,還需要在人工智能技術開發(fā)的路上不斷探索。
人工智能不應該完全取代人
如果說算法使消費者與人工智能之間出現(xiàn)了裂痕,那么人工智能在生產端對人的碾壓性優(yōu)勢則帶來更多恐慌。從機械臂到機器人,從自動化生產到人工智能寫新聞,能夠替代人類勞動的人工智能產品層出不窮。
2016年12月,美國白宮發(fā)布了《人工智能、自動化與經(jīng)濟報告》[4],指出人工智能生產正在顛覆勞動力市場。在當時這似乎還略顯“多慮”,但之后的這兩年中,人們也切身感受到人工智能給勞動力市場帶來的壓力。
2019年初,布魯金斯研究中心的報告指出[5],大約3600萬美國人面臨被人工智能替代的危險,不僅在農業(yè)和制造業(yè),服務業(yè)也受到威脅。但也有經(jīng)濟學家指出,自動化生產與服務能夠創(chuàng)造新的職位,同時,一些對創(chuàng)造力要求很高的職位也并不能被替代。
事實上,每一次技術的飛躍與變革,都會帶來相應社會的陣痛,但社會總能在陣痛中實現(xiàn)轉型。或以教育提升個人素質,躋身于更具挑戰(zhàn)性也更具價值的工作中;或通過人工智能創(chuàng)造新的職位,實現(xiàn)勞動轉型;或加入創(chuàng)業(yè)創(chuàng)新大潮,為社會創(chuàng)新注入更多活力。
我們看到,這些富有創(chuàng)造力的人們,正是在“抗爭”人工智能的過程中與其合作,在犧牲中實現(xiàn)社會的不斷向前。
警醒而不忘科技向善之初心
面對技術帶來的問題與社會討論,治理者與實業(yè)家們都以自己的方式給出了回應。
在美國2019年的國防部財政預算中,人工智能國家安全委員會***次出現(xiàn)。委員會聘請包括谷歌、微軟在內的人工智能巨頭公司的專家,專門評估人工智能、機器學習相關的技術創(chuàng)新,保證對其的運用在法律框架內,并符合倫理價值。
無獨有偶,2018年12月,歐盟的52位各領域專家發(fā)布了《人工智能發(fā)展和運用的倫理指導》[6],希望在倫理方面對人工智能技術進行規(guī)制。他們認為,人工智能首先應當尊重基本人權、倫理規(guī)則和社會價值,即追求“倫理目標”;在保持技術創(chuàng)造性的同時,需要反思和加強人工智能的可靠性。
在2018年的人工智能發(fā)展規(guī)劃中,英國也建立了數(shù)據(jù)倫理中心,試圖管理難以捉摸的大數(shù)據(jù)。
政府以外,各大公司也主動發(fā)出自己關于人工智能的倫理倡議,以保證人工智能的合理發(fā)展。在2018年世界移動通信大會上,IBM Watson***技術官Rob High提出了IBM人工智能開發(fā)的三大原則——信任、尊重與隱私保護。
同時,微軟倡議政府為面部識別技術制定規(guī)制,并提出了六大原則——公平、透明、責任、無歧視、知情同意與法律控制。深陷數(shù)據(jù)泄露旋渦的Facebook也在2019年初開始行動——拿出750萬美元與慕尼黑技術大學合作建立了人工智能倫理研究所,希望在人工智能的研究中引入更多倫理思考。
騰訊董事會主席馬化騰在2018年世界人工智能大會上提到的人工智能的“四可”理念,也對人工智能的各個問題做出了完整的回應。“四可”翻譯為“ARCC”(Available, Reliable, Comprehensible, and Controllable,讀作ark),即未來人工智能是應當做到“可知”、“可控”、“可用”和“可靠”。
騰訊希望通過“四可”這樣的一個道德框架開始,去幫助AI開發(fā)者和他們的產品贏得公眾的信任。這也正是如今全世界人工智能開發(fā)者追求的目標。
騰訊公司高級副總裁郭凱天在第二屆科技向善論壇上談到:“在數(shù)字社會的背景下,從業(yè)者需要保持警醒、自省,更需要相信科技向善,相信人類有能力和智慧去駕馭和控制這次技術革命。”
從數(shù)據(jù)采集、訓練到機器學習,人工智能其實只是放大了一直存在于人類社會的問題,提醒我們在新的時代背景下發(fā)揮想象力與創(chuàng)造力,去思考與解決這些問題。
技術來自于人類對美好生活的追求,它始于人,也應控于人,無論是立法限制,還是價值原則,歸根結底,都是對人類社會倫理價值的重新探討。
人工智能的大潮仍在繼續(xù),互聯(lián)網(wǎng)時代的先鋒,應當能夠在這大潮中立足、思考,抱著向善的信念,不斷穩(wěn)重前行。