人工智能的不良、偏頗和不道德的應用
首席信息官應了解一些個不道德人工智能的例子,并了解其在確保企業(yè)人工智能保持中立方面的作用。
如今,人工智能技術的采用正在迅速加快。調研機構Gartner公司預測,到2020年,人工智能將成為30%以上的首席信息官的五大投資重點。麥肯錫公司的一項研究估計,全球科技公司在人工智能技術方面花費了200億至300億美元,主要用于研發(fā)。
雖然人工智能技術的社會效用令人信服,但正如英國衛(wèi)報對“不平等項目”所提出的那樣,也存在著一些合理的擔憂,“當我們提供給機器的數(shù)據(jù)反映出我們自己不平等社會的歷史時,我們實際上是在要求程序學習我們自己的偏見。”
不幸的是,人工智能的不良、偏見或不道德使用的例子很常見。以及關于企業(yè)如何保持中立的建議。
1.抵押貸款
貸款歧視的模式已從人類偏見轉向算法偏見。哈斯商學院金融學教授Adair Morse共同撰寫的一項研究得出結論:“即使編寫算法的人打算創(chuàng)建一個公平的系統(tǒng),他們的程序對少數(shù)借款人也有不同的影響——換句話說,在法律下是歧視性的。”
人們可能會認為,銀行和房地產經紀人將非白人借款人系統(tǒng)地隔離到不太有利的社區(qū),這已成為過去。但令人驚訝的是,抵押貸款行業(yè)的自動化只使得在用戶界面后面隱藏紅線變得更加容易。計算機安全專家BruceSchneier在其最近出版的“DataandGoliath”一書中敘述了2000年富國銀行如何利用“社區(qū)計算器”創(chuàng)建了一個促進抵押貸款的網站,幫助買家找到合適的社區(qū)。計算器收集用戶當前的郵政編碼,根據(jù)當前社區(qū)的人口統(tǒng)計數(shù)據(jù)了解他們的種族,并且只推薦具有相似人口統(tǒng)計數(shù)據(jù)的社區(qū)。今年早些時候,美國住房和城市發(fā)展部就住房和抵押貸款廣告中的種族偏見起訴了Facebook公司。
2.人力資源
到目前為止,當路透社報道亞馬遜公司的新招聘引擎排除女性時,臭名昭著的招聘偏見問題引起了公眾的注意。
據(jù)路透社報道,亞馬遜公司在2014年組建了一個團隊,該團隊使用500多種算法自動化工程師和編碼人員的簡歷審核流程。該團隊使用亞馬遜公司軟件團隊成員的簡歷對系統(tǒng)進行了培訓,而這些團隊成員絕大多數(shù)是男性。因此,該系統(tǒng)學會了取消任何上過女子學院或在簡歷中列出女子組織人員的資格。
越來越多的企業(yè)正在人力資源流程的各個層面采用算法決策系統(tǒng)。截至2016年,72%的求職者簡歷不是由工作人員篩查的,而是完全由計算機篩選。這意味著求職者和員工與人打交道的頻率會降低——像亞馬遜公司這樣的故事可能會變得更加普遍。
然而,一好消息是一些公司正在努力消除潛在的偏見。ABBYY公司創(chuàng)始人David Yang共同創(chuàng)立了Yva.ai,這是一個專門設計的分析平臺,通過避免使用任何可能導致偏見的指標(例如性別、年齡、種族)來避免算法偏差,即使這些指標是次要的(如參與婦女的活動或體育活動),中學(如姓名或畢業(yè)日期),甚至是大學(如參加精英學院,這已被越來越多地稱為對少數(shù)群體的偏見的指示)。
在另一個例子中,現(xiàn)在由微軟公司所有的LinkedIn已經部署了系統(tǒng)來收集和利用LinkedIn檔案中的性別信息,而不是忽略這些信息。LinkedIn然后使用這些信息對任何潛在的偏差進行分類和糾正。
3.搜索領域
即使是基本的互聯(lián)網搜索也會受到偏見的影響。例如,加州大學洛杉磯分校教授薩Safiya Umoja Noble在谷歌搜索“黑人女性”后,受到啟發(fā)寫了一本名為《壓抑的算法》的菱,尋找與侄女分享的有趣網站,結果發(fā)現(xiàn)網站頁面上充斥著不良內容。同時,搜索“首席執(zhí)行官”時卻顯示了大量的白人形象。(幸運的是,首席執(zhí)行官的問題在搜索引擎上正在得到解決。)
谷歌搜索的其他功能(例如AdWords)也存在偏見。來自卡內基梅隆大學和國際計算機科學研究所的研究人員發(fā)現(xiàn),男性求職者比女性更容易看到高薪高管職位的廣告。在翻譯某些語言時,谷歌翻譯也被稱為性別歧視,例如假定護士是女人,醫(yī)生是男人。
4.引導行業(yè)
倫敦圣喬治醫(yī)院醫(yī)學院的招生主任創(chuàng)建了一個1979年的項目,該項目很可能是最早報告的受污染系統(tǒng)的案例,但最終意外地排除了幾乎所有少數(shù)族裔和女性申請人。到1986年,學校的工作人員開始關注潛在的歧視,最終發(fā)現(xiàn)每年至少有60名少數(shù)民族和女性申請人被不公平地排除在外。
人們可能想知道為什么花了這么長時間才發(fā)出警報,考慮到根據(jù)報道,只要一個非歐洲名字可以自動降低申請人的分數(shù)15分。著名的英國醫(yī)學雜志直截了當?shù)貙⑦@種偏見稱為“職業(yè)上的污點”,最終,該校受到了輕微的處罰,并提供了賠償,包括錄取一些被排除在外的申請人。
首席信息官的角色
行業(yè)領先的科技公司正在努力解決數(shù)據(jù)的道德使用問題。例如,微軟公司已經制定了一套六項道德原則,涵蓋公平、可靠、安全、隱私和安全、包容性、透明度、責任。與此同時,F(xiàn)acebook公司最近向慕尼黑技術大學撥款750萬美元,建立一個人工智能道德研究所。其他科技公司已經認同了人工智能聯(lián)盟的伙伴關系及其“匯集全球各種聲音以實現(xiàn)人工智能的承諾”的原則。
如果人工智能應用程序沒有偏見,企業(yè)必須支持人工智能技術的整體方法。人工智能只和它背后的數(shù)據(jù)一樣好,所以這些數(shù)據(jù)必須是公平的,并且代表所有人和文化。
此外,必須根據(jù)國際法制定技術原則。今年的G20峰會財長首次認同負責人工智能使用的原則。這包括以人為本的人工智能方法,該方法呼吁各國以尊重人權并分享其所提供的利益的方式使用人工智能。
在最簡單的層面上,首席信息官需要質疑他們正在構建的人工智能應用是否道德、安全和正確。問題可能包括:
1.人工智能技術背后的數(shù)據(jù)是否良好,或者是否存在算法偏差?
2.是否積極審查人工智能算法,以確保它們經過適當調整和培訓,能夠根據(jù)預先定義的測試集生成預期結果?
3.在人工智能技術如何影響組織內部以及客戶和合作伙伴利益相關者外部方面,是否堅持透明原則(如GDPR)?
4.是否設立了專門的人工智能治理和咨詢委員會,包括跨職能領導和外部顧問,以建立和監(jiān)督人工智能解決方案的治理?
歸根結底,人工智能的倫理應用應被視為一項法律和道德義務,同時也是一項商業(yè)命令。不要成為不良和有偏見的人工智能的另一個例子。企業(yè)需要從這些不道德的用例中學習教訓,以確定其人工智能工作是否保持中立。