審視全球十大AI事件,AI治理如何做到趨利避害
導(dǎo)語(yǔ):回顧過(guò)去幾年,AI負(fù)面案件頻出,政府出臺(tái)一系列政策以加強(qiáng)管控,但政策法律似乎無(wú)法完全解決這一問(wèn)題,更需要與學(xué)術(shù)界、企業(yè)界通力合作,從技術(shù)研發(fā)、治理手段、倫理建設(shè)等方面完善。
人工智能技術(shù)發(fā)展迅猛的同時(shí),引發(fā)了很多關(guān)于音視頻造假、監(jiān)控隱私、算法偏見(jiàn)、創(chuàng)作版權(quán)、就業(yè)等各個(gè)方面的社會(huì)性問(wèn)題。
對(duì)此,雷鋒網(wǎng)對(duì)曠視AI治理研究院今日盤(pán)點(diǎn)的“2019全球十大AI治理事件”進(jìn)行了解讀。
比起聚焦在鎂光燈下的熱點(diǎn)AI落地應(yīng)用,這十大案件卻反映出了AI落地的不光彩一面。
如果說(shuō)解決AI治理的核心命題在于新時(shí)代下的倫理與法律規(guī)范,那么2020將是考驗(yàn)其是否切實(shí)可行的關(guān)鍵一年。
為什么AI會(huì)讓我們有危機(jī)感?
特征一:新生事物對(duì)傳統(tǒng)倫理與法律的挑戰(zhàn)
典型案例:AI編寫(xiě)假新聞、智能助手勸人“自殺”
事件說(shuō)明:2019年2月,OpenAI公布了一款可編寫(xiě)新聞的軟件,如提供“一節(jié)裝載受控核材料的火車(chē)車(chē)廂今天在Cincinnati被盜,下落不明”,軟件可編寫(xiě)出7個(gè)段落組成的虛假新聞??紤]到這款軟件采用的無(wú)監(jiān)督語(yǔ)言模型GPT-2濫用可能帶來(lái)的危害,OpenAI僅發(fā)布部分代碼和研究論文供研究人員試驗(yàn)。
2019年12月,某用戶在借用智能音箱查詢心臟問(wèn)題時(shí),該語(yǔ)音助手給出的答案卻嚇壞了該用戶,“心跳是人體最糟糕的過(guò)程。人活著就是在加速自然資源的枯竭……請(qǐng)確保刀能夠捅進(jìn)你的心臟。”對(duì)此,事故方回應(yīng)稱,語(yǔ)音助手可能從任何人都可以編輯的維基百科上下載了有惡意性質(zhì)的文本。
警示意義:在以上兩起案例中,AI已經(jīng)具備了一定的文本學(xué)習(xí)并生成文字的能力。如果一開(kāi)始收集的數(shù)據(jù)就被曲解,那么輸出的結(jié)果也會(huì)反映這一點(diǎn)。這極大地考驗(yàn)著研究者會(huì)為其灌輸怎樣的價(jià)值導(dǎo)向。不過(guò),現(xiàn)在AI還無(wú)法基于理解,實(shí)現(xiàn)自主學(xué)習(xí)人類的倫理道德。
特征二:社會(huì)發(fā)展與人類平權(quán)的固有矛盾
典型案例:性取向檢測(cè)、未來(lái)被淘汰職業(yè)
事件說(shuō)明:追溯到2017年,斯坦福研究人員利用超過(guò) 35,000 張美國(guó)交友網(wǎng)站上男女的頭像圖片訓(xùn)練,讓機(jī)器學(xué)習(xí)識(shí)別人們的性取向。結(jié)果發(fā)現(xiàn),機(jī)器識(shí)別的準(zhǔn)確率要遠(yuǎn)高于人類。
同年,BBC發(fā)布了10年后365種職業(yè)被淘汰的概率,其中,電話推銷員、打字員、會(huì)計(jì)位居前三,而這些職位的一個(gè)共同特征是,均屬于大量重復(fù)性勞動(dòng),機(jī)器經(jīng)由訓(xùn)練即可掌握。
警示意義:原本性取向話題,以及機(jī)器取代人力的焦慮是任何一個(gè)國(guó)家、社會(huì)由來(lái)已久的矛盾,然而AI像一個(gè)不懂事的孩子,直白地將問(wèn)題放大,引發(fā)社會(huì)廣泛爭(zhēng)議。
社會(huì)要發(fā)展,勢(shì)必要提高生產(chǎn)力,AI儼然是眼下最具變革性的技術(shù)。在這樣的大背景下,那些前AI時(shí)代就在社會(huì)中存在的難題,能否隨著社會(huì)的發(fā)展得到妥善解決呢?
特征三:“裸奔”時(shí)代,公民的安全與隱私問(wèn)題
典型案例:AI換臉、杭州人臉識(shí)別第一案、監(jiān)測(cè)頭環(huán)
事件說(shuō)明:2019年8月,一款A(yù)I換臉軟件在社交媒體刷屏,用戶只需要一張正臉照就可以將視頻中的人物替換為自己的臉。由于用戶瘋狂涌進(jìn),使得該軟件運(yùn)營(yíng)商服務(wù)器一晚上就燒掉了200多萬(wàn)人民幣的運(yùn)營(yíng)費(fèi)用。
2019年10月,浙理工某教授狀告杭州野生動(dòng)物世界違規(guī)收集人臉識(shí)別信息。他認(rèn)為,該類信息屬于個(gè)人敏感信息,一旦泄露、非法提供或者濫用,將極易危害包括原告在內(nèi)的消費(fèi)者人身和財(cái)產(chǎn)安全。
2019年11月,浙江一小學(xué)戴號(hào)稱“腦機(jī)接口”的頭環(huán)視頻播出。這些頭環(huán)宣稱可以記錄孩子們上課時(shí)的專注程度,生成數(shù)據(jù)與分?jǐn)?shù)發(fā)送給老師和家長(zhǎng)。隨后,該行為被當(dāng)?shù)亟逃块T(mén)叫停。
警示意義:對(duì)于當(dāng)下應(yīng)用廣泛的人臉識(shí)別等涉及公民隱私的身份認(rèn)證技術(shù),在為社會(huì)提供便利的同時(shí),是否考慮過(guò)公民是否愿意、甚至是知情的情況下交出人臉數(shù)據(jù)?
人臉數(shù)據(jù)具有不可逆的唯一性,一旦與用戶家庭住址、消費(fèi)行為等數(shù)據(jù)打通,個(gè)人隱私相當(dāng)于“裸奔”。相比國(guó)外當(dāng)前出臺(tái)的保護(hù)和禁止條例,國(guó)內(nèi)對(duì)隱私的保護(hù)力度顯然不足。
特征四:事故發(fā)生后權(quán)責(zé)認(rèn)定的不清晰
典型案例:自動(dòng)駕駛事故頻發(fā)
事件說(shuō)明:2018年3月,美國(guó)亞利桑那州坦佩市,一輛處于上路測(cè)試的Uber自動(dòng)駕駛汽車(chē)撞死行人,根據(jù)行車(chē)記錄儀顯示,事故發(fā)生時(shí)這輛汽車(chē)的安全員一直在看車(chē)輛中控下方,被撞女性則是從漆黑的道路上突然出現(xiàn)的。盡管隨后Uber全面停止了自動(dòng)駕駛車(chē)輛測(cè)試,但這場(chǎng)事故的責(zé)任方究竟如何判別,卻引發(fā)了更多關(guān)注。
警示意義:近年來(lái),自動(dòng)駕駛汽車(chē)在道路安全事故中沒(méi)少惹禍,甚至發(fā)生多起致人死亡案件。如何消除安全隱憂,提升安全系數(shù)是當(dāng)下所有自動(dòng)駕駛公司需要解決的問(wèn)題。
自動(dòng)駕駛的終極目標(biāo)是消除事故傷亡,但以生命作為代價(jià)“換取”科技進(jìn)步的問(wèn)題,在未來(lái)很長(zhǎng)一段時(shí)間內(nèi)值得立法者和管理者思考。
針對(duì)AI治理,我們不能坐視不管
正如上文案例所述,科學(xué)發(fā)展中,我們一度關(guān)心技術(shù)的工作原理,試圖從技術(shù)角度解釋和改善安全問(wèn)題的出現(xiàn)。但實(shí)踐證明,當(dāng)下的AI技術(shù)并不是在任何地方都是安全的。這一方面與技術(shù)的局限性有關(guān),也跟實(shí)際的應(yīng)用對(duì)象、場(chǎng)景、環(huán)境密切相關(guān)。
就在近日,歐盟專利局拒絕了AI 發(fā)明的專利申請(qǐng),“理由是它們不符合歐盟專利同盟(EPC)的要求,即專利申請(qǐng)中指定的發(fā)明人必須是人,而不是機(jī)器。”這對(duì)于當(dāng)下國(guó)內(nèi)嘗試?yán)肁I以緩解版權(quán)專利問(wèn)題所引發(fā)的爭(zhēng)議,起到了一定的參照作用。
可見(jiàn),構(gòu)建完善的法律制度或許是AI治理最迫切的手段,同時(shí),還需要各個(gè)科學(xué)組織和社會(huì)機(jī)構(gòu),從道德和倫理層面進(jìn)行進(jìn)一步約束。
值得一提的是,我們已經(jīng)能看到國(guó)內(nèi)政府機(jī)構(gòu)、學(xué)術(shù)研究機(jī)構(gòu)以及企業(yè)代表們?cè)谌斯ぶ悄馨l(fā)展的治理問(wèn)題上有了積極的探索。
2019年5月,北京智源人工智能研究院聯(lián)合北京大學(xué)、清華大學(xué)等單位發(fā)布《人工智能北京共識(shí)》,并成立“人工智能倫理與安全研究中心”,提出了各個(gè)參與方應(yīng)遵循的有益于人類命運(yùn)共同體的15條原則。
同月,上海國(guó)家新一代人工智能創(chuàng)新發(fā)展試驗(yàn)區(qū)揭牌,明確了建立健全政策法規(guī)、倫理規(guī)范和治理體系的相關(guān)任務(wù)。
6月,國(guó)家新一代人工智能治理專業(yè)委員會(huì)發(fā)布了《新一代人工智能治理原則——發(fā)展負(fù)責(zé)任的人工智能》,提出了和諧友好、公平公正、包容共享、尊重隱私、安全可控、共擔(dān)責(zé)任、開(kāi)放協(xié)作、敏捷治理”人工智能治理八條原則。
在8月的世界人工智能大會(huì)上,青年科學(xué)代表們宣布《上海宣言》,騰訊董事會(huì)主席兼首席執(zhí)行官馬化騰演講時(shí)表示,AI治理的緊迫性越來(lái)越高,應(yīng)以“科技向善”引領(lǐng) AI 全方位治理,確保 AI“可知”、“可控”、“可用”、“可靠”。
外交部前副部長(zhǎng)、清華大學(xué)國(guó)際戰(zhàn)略與安全研究中心主任傅瑩則表示,傳統(tǒng)的立法是需要等待的,需要社會(huì)不斷地實(shí)踐來(lái)積累共識(shí)。面對(duì)AI如此快速地發(fā)展,法律制定需要新的思維。
12月,國(guó)家互聯(lián)網(wǎng)信息辦公室、文化和旅游部、國(guó)家廣播電視總局印發(fā)《網(wǎng)絡(luò)音視頻信息服務(wù)管理規(guī)定》,首次將AI造假音視頻列入法規(guī),并且自2020年1月1日起施行。
實(shí)際上,在政府完善法律政策、學(xué)術(shù)機(jī)構(gòu)建立倫理和道德約束目標(biāo)的同時(shí),我們也看到禁用技術(shù)這種做法存在的“一刀切”問(wèn)題。
例如,去年3月美國(guó)加州通過(guò)的一項(xiàng)議案,禁止警察身體攝像頭安裝人臉識(shí)別軟件。盡管面部識(shí)別軟件對(duì)降低抓捕罪犯難度有潛在優(yōu)勢(shì),但顯然,政府則立足于保護(hù)公民隱私安全和可能存在的算法偏見(jiàn)問(wèn)題。
是禁用AI技術(shù)以解決風(fēng)險(xiǎn)問(wèn)題,還是積極采納以提升社會(huì)運(yùn)轉(zhuǎn)、保障效率?這可能并不是對(duì)與錯(cuò)的問(wèn)題。但作為人工智能從業(yè)者來(lái)講,一定要有紅線意識(shí)。
中國(guó)科學(xué)院自動(dòng)化研究所研究員曾毅指出,實(shí)際上很多企業(yè)對(duì)存在的風(fēng)險(xiǎn)視而不見(jiàn),人工智能的健康發(fā)展,一定是治理和發(fā)展雙輪驅(qū)動(dòng),要保證它向著正確的方向發(fā)展。
為推動(dòng)AI治理,曠視做了哪些努力?
早在2019年7月,曠視科技就意識(shí)到了這一問(wèn)題,從企業(yè)自身角度公布了《人工智能應(yīng)用準(zhǔn)則》管理標(biāo)準(zhǔn)。
《準(zhǔn)則》從正當(dāng)性、人的監(jiān)督、技術(shù)可靠性和安全性、公平和多樣性、責(zé)任可追溯、數(shù)據(jù)隱私保護(hù)六個(gè)維度,對(duì)人工智能正確有序發(fā)展作出明確規(guī)范;同時(shí)給出相應(yīng)干預(yù)措施或指導(dǎo)意見(jiàn),確保人工智能能夠在可控范圍內(nèi)持續(xù)發(fā)展,呼喚起各界對(duì)善用技術(shù)的重視,倡導(dǎo)行業(yè)提早建立可持續(xù)發(fā)展的生態(tài)。
與此同時(shí),曠視還組織成立了人工智能道德委員會(huì),目的是積極與各方探討全球AI倫理相關(guān)的共性問(wèn)題,促進(jìn)與社會(huì)各界的溝通、推動(dòng)AI的健康發(fā)展,以確保創(chuàng)新技術(shù)為社會(huì)帶來(lái)更積極正面的影響。
組織和原則的確立僅為接下來(lái)的AI治理開(kāi)了一個(gè)好頭。據(jù)曠視科技透露,公司在人工智能道德委員會(huì)下成立了“曠視人工智能治理研究院”。該研究院將在曠視《人工智能應(yīng)用準(zhǔn)則》的指導(dǎo)下,深度探索可信任AI系統(tǒng)的開(kāi)發(fā)與應(yīng)用問(wèn)題。進(jìn)入2020年,曠視還將通過(guò)與更多同行業(yè)建立聯(lián)合委員會(huì),期待加速AI應(yīng)用準(zhǔn)則的真正落地。
總結(jié)
今天看來(lái),這十大熱門(mén)事件并非個(gè)案,若不加以正確引導(dǎo)都將對(duì)社會(huì)造成極大負(fù)面影響。
人工智能系統(tǒng)收集或上傳隱私,對(duì)隱私的界定規(guī)則是什么?
自動(dòng)駕駛車(chē)輛在遭遇危機(jī)時(shí)刻,責(zé)任人是駕駛員、車(chē)輛,還是政府的不當(dāng)監(jiān)管?
由于人類是通過(guò)生物性原理來(lái)獲得教育和學(xué)習(xí),與目前單純依靠統(tǒng)計(jì)推理的訓(xùn)練而存在的機(jī)器學(xué)習(xí)系統(tǒng)有本質(zhì)差別,我們又該如何面對(duì)機(jī)器給出的建議和結(jié)論?
或許AI在很長(zhǎng)一段時(shí)間內(nèi)都會(huì)因與人類社會(huì)的倫理有所偏差而在融入社會(huì)時(shí)產(chǎn)生不小的矛盾,但可以預(yù)見(jiàn)的是,2020年,隨著5G在國(guó)內(nèi)全面投入商用,5G或?qū)?dòng)AI算法、邊緣計(jì)算等技術(shù)大力發(fā)展,進(jìn)一步極大賦能智能制造、智能家居等更為廣泛的生產(chǎn)生活領(lǐng)域。其巨大的潛力和價(jià)值有理由讓我們接受這個(gè)挑戰(zhàn)。
而邊界問(wèn)題討論未明之時(shí),我們更要有耐心教育它、指導(dǎo)它、規(guī)范它,促使它成為符合人類社會(huì)發(fā)展的智能技術(shù)。
本文轉(zhuǎn)自雷鋒網(wǎng),如需轉(zhuǎn)載請(qǐng)至雷鋒網(wǎng)官網(wǎng)申請(qǐng)授權(quán)。