人工智能偏見(jiàn)是否是一個(gè)需要無(wú)偏見(jiàn)視角的開(kāi)放性問(wèn)題?
譯文【51CTO.com快譯】盡管人工智能在高度復(fù)雜的技術(shù)應(yīng)用中產(chǎn)生偏見(jiàn)令人苦惱,但在特定行業(yè)采用的人工智能工具中,仍有一些方法可以識(shí)別和緩解人工智能偏見(jiàn)。
隨著人工智能技術(shù)的廣泛應(yīng)用,其帶來(lái)的一些問(wèn)題也得到人們的關(guān)注。人工智能最初旨在幫助人類(lèi)做出更公平、更透明的決定,但現(xiàn)在已經(jīng)逐漸出現(xiàn)偏見(jiàn)和決策失誤的跡象。但是這種情況不應(yīng)歸咎于技術(shù),因?yàn)閷?dǎo)致產(chǎn)生偏見(jiàn)的是數(shù)據(jù)和場(chǎng)景出現(xiàn)的偏差。
人工智能偏見(jiàn)是怎么回事?
人工智能偏見(jiàn)通常涉及相關(guān)算法的異常輸出。此外,任何影響人工智能設(shè)置決策的因素都可能導(dǎo)致出現(xiàn)偏見(jiàn)。與人類(lèi)決策不同,人類(lèi)決策偏見(jiàn)通常是預(yù)定義概念和觀點(diǎn),而人工智能偏見(jiàn)通常更有針對(duì)性,但其起點(diǎn)相似。
眾所周知,人工智能來(lái)自人類(lèi)的設(shè)計(jì)和構(gòu)思,因此仍然容易產(chǎn)生隱藏甚至明顯的偏見(jiàn),這些偏見(jiàn)來(lái)自人類(lèi)。而在人工智能發(fā)展的多個(gè)階段,滲透到系統(tǒng)設(shè)置中的職業(yè)和社會(huì)傾向會(huì)導(dǎo)致偏見(jiàn)。
一個(gè)更精確的解釋是,人類(lèi)在設(shè)計(jì)決策算法和人工智能模型時(shí)就存在偏見(jiàn)。此外根據(jù)對(duì)人工智能模型的調(diào)查,可能有180多種偏見(jiàn)最終影響以人工智能為定義技術(shù)的決策。
人工智能偏見(jiàn)的更明確原因
對(duì)于初學(xué)者來(lái)說(shuō),當(dāng)設(shè)計(jì)設(shè)置人工智能模型時(shí)不包括受保護(hù)的類(lèi)時(shí),通常會(huì)出現(xiàn)人工智能的算法偏差。由于缺乏性別或種族等受保護(hù)的類(lèi)別,采用這樣的人工智能模型沒(méi)有足夠的時(shí)間做出清晰的決策。此外,對(duì)于地理和人口數(shù)據(jù)等不受保護(hù)的見(jiàn)解,對(duì)受保護(hù)類(lèi)別的訪問(wèn)可能會(huì)返回不符合標(biāo)準(zhǔn)的結(jié)果。
產(chǎn)生人工智能偏見(jiàn)的另一個(gè)原因是訓(xùn)練特定模型的數(shù)據(jù)集較少。例如,如果一家公司計(jì)劃推出基于人工智能的員工招聘工具,則需要在整體數(shù)據(jù)集上對(duì)其進(jìn)行建模和訓(xùn)練。如果人工智能模型已經(jīng)接受了與男性員工工作相關(guān)見(jiàn)解的訓(xùn)練,那么性別偏見(jiàn)似乎是最合乎邏輯的偏見(jiàn)形式。
語(yǔ)言偏見(jiàn)也很常見(jiàn),并且引起了很多人的關(guān)注。與谷歌翻譯(Google Translate)等翻譯平臺(tái)相關(guān)的自然語(yǔ)言處理(NLP)算法在早些時(shí)候曾經(jīng)因?yàn)樯尚詣e特定的翻譯內(nèi)容而產(chǎn)生爭(zhēng)議,這些翻譯的內(nèi)容通常返回特定于男性的術(shù)語(yǔ)。
無(wú)論出于什么原因,人工智能模型的訓(xùn)練方式都會(huì)決定偏見(jiàn)的嚴(yán)重程度或性質(zhì)。此外,某些數(shù)據(jù)科學(xué)家甚至可能最終排除特定條目、采樣不足或采樣過(guò)多,從而由于不均衡導(dǎo)致出現(xiàn)人工智能偏見(jiàn)。
不同類(lèi)型的偏見(jiàn)
(1)選擇偏見(jiàn)
當(dāng)訓(xùn)練數(shù)據(jù)的代表性不足或達(dá)到隨機(jī)化水平時(shí),這種形式的偏見(jiàn)就會(huì)出現(xiàn)。一個(gè)很好的例子是一份對(duì)人物進(jìn)行分類(lèi)的研究報(bào)告,其中使用了三種識(shí)別圖像的人工智能產(chǎn)品對(duì)來(lái)自非洲和歐洲國(guó)家的1200多名人物進(jìn)行分類(lèi)。這項(xiàng)研究表明,對(duì)于男性的識(shí)別效果更好、更準(zhǔn)確,而對(duì)女性則更為公平。對(duì)于較深膚色的人物識(shí)別只有66%的準(zhǔn)確率,從而揭示了選擇偏見(jiàn)的影響。
(2)報(bào)告偏見(jiàn)
報(bào)告偏見(jiàn)通常是未經(jīng)培訓(xùn)、不準(zhǔn)確或不精確的人工智能模型造成的,這些模型的數(shù)據(jù)集很難反映現(xiàn)實(shí)。此外,大多數(shù)顯示報(bào)告偏見(jiàn)的模型都是數(shù)據(jù)科學(xué)家設(shè)想出來(lái)的,他們希望通過(guò)貶低相同的歷史假設(shè)和較小的樣本空間定義一些特定區(qū)域。
(3)隱性偏見(jiàn)
數(shù)據(jù)科學(xué)家未經(jīng)完善且不嚴(yán)格的個(gè)人推斷不應(yīng)該應(yīng)用于人工智能模型,否則可能會(huì)遇到隱性偏見(jiàn)。
(4)群體歸因偏見(jiàn)
這是一種特定類(lèi)型的偏見(jiàn)導(dǎo)致傾向性人工智能模型的類(lèi)型。依賴(lài)通用外推方法而不是隨機(jī)抽樣的數(shù)據(jù)科學(xué)家最終會(huì)將這種形式的偏見(jiàn)混入其中。
如何管理人工智能偏見(jiàn)?
典型的人工智能模型仍然可以幫助企業(yè)實(shí)現(xiàn)所需的目標(biāo),但在醫(yī)療保健、刑事司法和金融服務(wù)等一些更敏感領(lǐng)域的人工智能模型實(shí)施中,人工智能偏見(jiàn)成為一個(gè)更緊迫的問(wèn)題。
因此,消除人工智能偏見(jiàn)變得更加重要,因?yàn)槿藗冃枰捎迷诜N族、年齡和性別范圍內(nèi)更加準(zhǔn)確的人工智能工具。雖然發(fā)布的一些人工智能相關(guān)法規(guī)為認(rèn)證人工智能供應(yīng)商鋪平了道路,在將人工智能偏見(jiàn)降至最低方面可能提供一些幫助,但減少人工智能偏見(jiàn)需要更有針對(duì)性的方法,其中包括:
(1)包容性設(shè)計(jì)
如果企業(yè)打算設(shè)計(jì)人工智能模型,最好將人類(lèi)的判斷排除在范圍之外。需要遵循包容性方法,訓(xùn)練數(shù)量應(yīng)該包括與將使用該工具的行業(yè)相關(guān)的大樣本量。
(2)場(chǎng)景考察
人工智能模型正變得越來(lái)越智能。但是,如果計(jì)劃將其引入特定行業(yè),則必須依賴(lài)決策的場(chǎng)景,而不僅僅是前提。
(3)有針對(duì)性的測(cè)試是關(guān)鍵
無(wú)論如何,人工智能模型仍應(yīng)分為子組以改進(jìn)指標(biāo)聚合。此外,執(zhí)行壓力測(cè)試以處理復(fù)雜案例的方法變得更加容易。簡(jiǎn)而言之,需要跨多個(gè)階段進(jìn)行詳細(xì)測(cè)試以確保減少人工智能偏見(jiàn)。
(4)使用綜合數(shù)據(jù)訓(xùn)練模型
如果企業(yè)計(jì)劃開(kāi)發(fā)一個(gè)人工智能工具,必須重視數(shù)據(jù)的收集、采樣和預(yù)處理,還必須整理出人工智能偏見(jiàn)的相關(guān)性,這將進(jìn)一步擴(kuò)大準(zhǔn)確性的范圍。
除了采取這些措施之外,還需要進(jìn)一步推動(dòng)人類(lèi)決策,因?yàn)樗鼈兇蠖嗍侨斯ぶ悄艿南闰?qū),并且顯現(xiàn)出很多差異。最后,消除人工智能偏見(jiàn)的最佳建議是通過(guò)了解人工智能模型來(lái)預(yù)測(cè)和做出決策,從根本上提高人工智能模型的可解釋性。
結(jié)語(yǔ)
盡管人工智能偏見(jiàn)幾乎存在于每個(gè)特定行業(yè)領(lǐng)域中,但仍依賴(lài)負(fù)責(zé)任的實(shí)踐來(lái)確保更公平的模型和算法。此外,采用人工智能技術(shù)的企業(yè)需要不斷進(jìn)行審計(jì)和評(píng)估,以進(jìn)一步改進(jìn)決策質(zhì)量。
原文標(biāo)題:Is AI Bias an Open-Ended Issue that needs an Unbiased Perspective?,作者:Ananda Banerjee
【51CTO譯稿,合作站點(diǎn)轉(zhuǎn)載請(qǐng)注明原文譯者和出處為51CTO.com】