為什么多樣性是人工智能戰(zhàn)略成功的關(guān)鍵
在機器學(xué)習(xí)和人工智能方面,不乏丑聞。在過去的幾個月中,人們已經(jīng)看到微軟公司的新聞記者用有關(guān)LittleMix樂隊成員錯誤的形象來說明有關(guān)種族主義的文章,LittleMix是英國政府的A-Level算法,根據(jù)過去學(xué)生的表現(xiàn)對學(xué)生進行懲罰,并且,最近,Twitter的人工智能驅(qū)動的圖像裁剪工具似乎更喜歡白人而不是黑人的面部。
但是,人工智能的偏見不僅限于知名公司和備受矚目的丑聞。凱捷(Capgemini)公司最近的一份報告對800個組織和2,900名消費者進行了調(diào)查,結(jié)果顯示90%的組織至少知道一個人工智能系統(tǒng)導(dǎo)致其業(yè)務(wù)出現(xiàn)道德問題的情況。
此外,調(diào)查結(jié)果顯示,雖然三分之二(68%)的消費者期望人工智能模型是公平的且沒有偏見,但只有53%的企業(yè)擁有負責(zé)人工智能系統(tǒng)道德的領(lǐng)導(dǎo)者,例如首席道德官。接受獨立審核的人工智能系統(tǒng)的道德影響甚至更少(只有46%)。
顯而易見,隨著人工智能融入我們生活的方方面面,公司需要做更多的工作來確保其系統(tǒng)不受偏見影響,甚至需要找到使用該技術(shù)來減輕有害偏見的方法,以便做出更公平的業(yè)務(wù)決策。
團隊建設(shè)
那么我們該怎么做呢?首先要建立一支多元化的團隊,而這個行業(yè)仍然無法做到。根據(jù)人工智能Now Institute發(fā)布的研究,人工智能教授中有80%是男性,F(xiàn)acebook上只有15%的人工智能研究人員,Google上只有10%的人工智能研究人員是女性。
Sopra Steria公司的數(shù)字道德與技術(shù)負責(zé)人Jen Rodvold表示:“多樣性不僅是成功實施人工智能策略的關(guān)鍵,而且對于企業(yè)的底線至關(guān)重要。多元化的員工隊伍將提供各種不同的觀點,標(biāo)記出開發(fā)過程中涉及的任何偏見,并有助于審訊可能使這種偏見永久化并以不可預(yù)見的方式影響您的技術(shù)開發(fā)方式的更廣泛的組織過程。”
Imagination科技公司的人工智能高級產(chǎn)品總監(jiān)Andrew Grant同意這種觀點,他說,確保多樣化的數(shù)據(jù)科學(xué)家對于發(fā)展符合道德的人工智能至關(guān)重要。
為了確保在建立用于訓(xùn)練人工智能的數(shù)據(jù)集時的最佳實踐,首先需要有各種各樣的數(shù)據(jù)科學(xué)家收集和分析數(shù)據(jù)。他說:“對人工智能進行培訓(xùn)的任何部分都不應(yīng)由個人來監(jiān)督,通過交叉檢查工作,可以更有效地消除個人偏見。”
使數(shù)據(jù)多樣化
還需要各種數(shù)據(jù)集。通過在歷史數(shù)據(jù)上訓(xùn)練機器學(xué)習(xí)模型(例如,顯示男性更常被提升為高級職位的數(shù)據(jù),或者大多數(shù)技術(shù)行業(yè)的工人是白人),編碼人工智能的偏見幾乎是不可避免的。
埃森哲公司負責(zé)人工智能的經(jīng)理Caryn Tan告訴表示:“組織構(gòu)建和設(shè)計人工智能的組織必須記住,它受到所提供信息的限制。一種算法無法分辨出什么時候不公平,它只是沿用了歷史模式。如果我們不采取措施緩解這種情況,可能會導(dǎo)致不良的反饋循環(huán),從而可能根據(jù)人們的出身,歷史甚至刻板印象來誘捕他們。因此,組織必須采取積極措施來解決潛在的偏見,然后才有機會表現(xiàn)出來。”
CodeFirs tGirls的首席執(zhí)行官AnnaBr人工智能lsford補充說,為了確保使用各種數(shù)據(jù)集對模型進行訓(xùn)練,至關(guān)重要的是“多樣性和包容性是業(yè)務(wù)決策基礎(chǔ)的一部分”。
她表示,“在科技行業(yè),機器學(xué)習(xí)和人工智能系統(tǒng)固有地存在偏差,這是用來訓(xùn)練其智能的數(shù)據(jù)集的結(jié)果。”“哈佛大學(xué)的研究人員發(fā)現(xiàn),公司正在使用有缺陷的歷史數(shù)據(jù)集來訓(xùn)練其人工智能以進行招聘;意味著有色人種和女性甚至在參加面試之前就已經(jīng)受到歧視。
“自上而下的方法不是解決之道,并且可能會進一步加劇現(xiàn)有的人工智能偏見。相反,企業(yè)需要將多樣性和包容性視為一個持續(xù)的學(xué)習(xí)過程。”
透明度是關(guān)鍵
當(dāng)然,企業(yè)還必須考慮人工智能準(zhǔn)則和透明度,尤其是在監(jiān)管審查日益嚴(yán)格的情況下。例如,歐洲委員會已經(jīng)發(fā)布了有關(guān)應(yīng)在設(shè)計人工智能應(yīng)用程序時使用的關(guān)鍵道德原則的指南,而美國聯(lián)邦貿(mào)易委員會(FTC)在2020年初呼吁“透明人工智能”。
后者指出,當(dāng)啟用人工智能的系統(tǒng)做出不利決定(例如拒絕信用卡申請)時,組織應(yīng)向受影響的消費者展示做出決定所使用的關(guān)鍵數(shù)據(jù)點,并賦予他們更改權(quán)任何不正確的信息。
NTTDATAUK新創(chuàng)企業(yè)和創(chuàng)新副總裁Tom Winstanley表示:“隨著人工智能在整個經(jīng)濟中的規(guī)模不斷擴大,至關(guān)重要的是,企業(yè)必須制定穩(wěn)健的道德標(biāo)準(zhǔn),并在其運營核心體現(xiàn)人工智能準(zhǔn)則。透明度至關(guān)重要:公司不能依賴'黑匣子'數(shù)據(jù)集,而應(yīng)該公開其如何訓(xùn)練人工智能以及為確保以負責(zé)任的方式使用人工智能所采用的標(biāo)準(zhǔn)。因此,NTTDATA去年公開宣布了自己的人工智能道德準(zhǔn)則。”
Rodvold補充說:“確保技術(shù)的透明度以及強大的多樣性做法,將有助于消除偏見并確保您建立公眾信任。全面的數(shù)字道德方法在人工智能開發(fā)中考慮多樣性,透明性,隱私和安全性的交集,將確保您在人工智能之旅中吸引客戶,并提供有效的,可持續(xù)的技術(shù)。”
隨著人工智能在各行各業(yè)中變得越來越普遍,并且這些系統(tǒng)中的內(nèi)置偏差問題已得到充分記錄,對于企業(yè)而言,立即采取行動以確保其軟件和流程不受偏差是至關(guān)重要的。值得慶幸的是,盡管在疫情期間它的采用率猛增,但還需要采取一些措施。
這意味著,通過戰(zhàn)略多元化努力,仍然可以更好地塑造人工智能的未來。