人工智能倫理的曙光
從平等代表到人工智能立法提高人工智能道德標(biāo)準(zhǔn)需要技術(shù)和新法律的平等代表,例如歐盟提議的人工智能立法道德人工智能需要付諸實(shí)踐,新的立法將有助于執(zhí)行這一點(diǎn)。
人工智能(AI)的使用激增,因?yàn)榻M織希望利用該技術(shù)的潛力來(lái)顯著改善運(yùn)營(yíng)和客戶體驗(yàn)。如果不加以控制,這種人工智能使用的增長(zhǎng)可能是危險(xiǎn)的。
彈劾人民的權(quán)利,影響他們的生計(jì),甚至制造戰(zhàn)爭(zhēng)威脅。
人工智能倫理——一套價(jià)值觀、原則和技術(shù),是公認(rèn)的正確與錯(cuò)誤標(biāo)準(zhǔn),用于指導(dǎo)人工智能技術(shù)開發(fā)和使用中的道德行為——以及更高水平的技術(shù)多樣性和人工智能算法的創(chuàng)建,代表了對(duì)未經(jīng)檢查的人工智能威脅的解決方案。
本文將探討如果不加控制人工智能會(huì)如何造成破壞、平等代表在人工智能創(chuàng)造中的重要性和教育系統(tǒng)的作用、通過(guò)透明度建立信任的重要性、歐盟委員會(huì)最近的人工智能立法提案以及這對(duì)人工智能意味著什么歐盟和世界其他地區(qū)的行業(yè),以及組織如何實(shí)施符合道德的人工智能。
人工智能歧視
人工智能在醫(yī)療保健等行業(yè)的使用正在創(chuàng)造巨大的、前所未有的好處,例如癌癥的早期檢測(cè)。但是,該技術(shù)會(huì)造成大量傷害,尤其是與歧視有關(guān)的傷害。以人工智能招聘為例,CliffordChanceTechGroup的合伙人兼聯(lián)席主管JonathanKewley解釋說(shuō),在某些情況下,算法會(huì)根據(jù)他們的宗教、種族、教育或地理位置解雇合格的候選人。
“問(wèn)題在于,一些公司(使用人工智能招聘服務(wù)的)不了解技術(shù)是如何運(yùn)作的,他們沒(méi)有看到內(nèi)在的偏見(jiàn),這是內(nèi)在的偏見(jiàn)。突然之間,他們遇到了一個(gè)無(wú)形的大問(wèn)題,”他說(shuō)。問(wèn)題并不止于招聘過(guò)程。優(yōu)步司機(jī),無(wú)論是在英國(guó)還是最近在荷蘭,都聲稱優(yōu)步的算法不公平地解雇了他們。
“[這些人工智能算法]可以從根本上損害某人的生活前景、他們找到工作的能力、他們獲得醫(yī)療服務(wù)的能力、他們購(gòu)買產(chǎn)品或獲得抵押貸款的能力。我認(rèn)為公眾還沒(méi)有完全意識(shí)到這項(xiàng)技術(shù)中的某些內(nèi)容是多么陰險(xiǎn),”Kewley補(bǔ)充道。
為了克服這種AI歧視及其對(duì)人們生活的影響,AI算法需要訪問(wèn)代表產(chǎn)品試圖服務(wù)的人的正確數(shù)據(jù)集——幾乎在所有情況下,每個(gè)人口統(tǒng)計(jì)數(shù)據(jù)都應(yīng)該被代表以消除AI偏見(jiàn)。平等代表權(quán)和教育障礙從根本上說(shuō),人工智能算法是由人類構(gòu)建的。技術(shù)是社會(huì)的創(chuàng)造,它需要代表整個(gè)社會(huì)。
問(wèn)題在于,絕大多數(shù)學(xué)習(xí)STEM科目然后設(shè)計(jì)AI算法的人都來(lái)自特定的人群;白人,中產(chǎn)階級(jí)男性。技術(shù)的多樣性嚴(yán)重不足,不僅在性別方面,而且在少數(shù)族裔和弱勢(shì)背景方面。在教育和工作場(chǎng)所缺乏代表性的問(wèn)題得到解決之前,跨越性別、種族和社會(huì)經(jīng)濟(jì)背景,人工智能偏見(jiàn)和歧視問(wèn)題將繼續(xù)存在。
這方面的例子很多。一個(gè)是蘋果的信用卡,據(jù)稱它為男性和女性提供了不同的信用額度,另一個(gè)是A-Level算法崩潰,它根據(jù)學(xué)生的位置給他們?cè)u(píng)分。有一些舉措可以幫助糾正平衡。例如,CliffordChance與牛津大學(xué)赫特福德學(xué)院推出了一項(xiàng)助學(xué)金計(jì)劃,以鼓勵(lì)學(xué)習(xí)計(jì)算機(jī)科學(xué)的學(xué)生更加多元化。其目的是激勵(lì)來(lái)自弱勢(shì)群體的年輕人從事涉及技術(shù)的職業(yè),并以此減少技術(shù)偏見(jiàn)和偏見(jiàn)的持續(xù)案例。
對(duì)此,Kewley評(píng)論說(shuō):“如果你有一群來(lái)自不同背景的多元化人士主持,并且可以代表我們社會(huì)的聲音和不同觀點(diǎn),那么他們構(gòu)建的技術(shù)就不太可能有偏見(jiàn).“我們可以制定我們想要的所有法律。但實(shí)際上,我們需要從教育的基石開始,以確保我們從一開始就構(gòu)建道德技術(shù)。這意味著有一群不同的人學(xué)習(xí)計(jì)算機(jī)科學(xué),而不僅僅是享有特權(quán)的白人。”CliffordChance的高級(jí)律師HerbertSwaniker同意,在教育方面創(chuàng)造機(jī)會(huì)和機(jī)會(huì)至關(guān)重要。
他說(shuō):“政府在技術(shù)素養(yǎng)方面做了很多工作,特別是人工智能。公司的部分職責(zé)是提供有關(guān)這些技術(shù)平臺(tái)如何工作的信息,以便人們更好地信任技術(shù)。但是,至關(guān)重要的是,人們希望參與其中——擁有教育接入點(diǎn)至關(guān)重要。”
企業(yè)人工智能指南:它適合您的企業(yè)嗎?
雖然真正的人工智能還有一段路要走,但企業(yè)正在利用機(jī)器學(xué)習(xí)等智能自動(dòng)化來(lái)改善業(yè)務(wù)運(yùn)營(yíng)、推動(dòng)創(chuàng)新和改善客戶體驗(yàn)。
人工智能立法
將更多多樣化的人才帶入技術(shù)領(lǐng)域?qū)⒂兄诮鉀Q人工智能偏見(jiàn)和歧視問(wèn)題。但是,監(jiān)管情況也必須得到批準(zhǔn);需要更加明確。
目前,圍繞人工智能的發(fā)展和應(yīng)用有一層無(wú)形的外衣。這就是歐盟制定人工智能立法提案的原因,Kewley稱其為“20年來(lái)最激進(jìn)的法律框架”,也是未來(lái)道德人工智能的必要“安全標(biāo)準(zhǔn)”。如果它生效,該提案將要求人工智能系統(tǒng)的提供者和用戶遵守有關(guān)數(shù)據(jù)透明度、治理、記錄保存和文檔的具體規(guī)則。它還需要對(duì)高風(fēng)險(xiǎn)區(qū)域進(jìn)行人工監(jiān)督,并在穩(wěn)健性、準(zhǔn)確性和安全性方面制定標(biāo)準(zhǔn)。
AI供應(yīng)商和用戶需要滿足這些要求,才能在歐盟市場(chǎng)上提供或投入使用。如果不遵守該立法,如果獲得批準(zhǔn),將面臨與GDPR類似的罰款,外加更高的罰款:3000萬(wàn)歐元或上一財(cái)政年度總年?duì)I業(yè)額的6%,以嚴(yán)重違規(guī)者為準(zhǔn)。在某些情況下,這些規(guī)則也適用于歐盟以外的公司。與其他地區(qū)相比,歐盟在這項(xiàng)人工智能立法方面做得很大膽。相比之下,美國(guó)不會(huì)像歐盟那樣對(duì)新監(jiān)管采取如此激進(jìn)的立場(chǎng),因?yàn)樗麄儞?dān)心這會(huì)對(duì)創(chuàng)新產(chǎn)生抑制作用。根據(jù)Kewley的說(shuō)法,“美國(guó)將采取更自由的方法。他們認(rèn)為現(xiàn)有的框架,如FTC,足以規(guī)范這一領(lǐng)域。”
放眼東方,可以說(shuō)是世界人工智能強(qiáng)國(guó),人工智能不應(yīng)被用于針對(duì)、利用或傷害人類。歐盟提出的人工智能立法是最全面的。然而,這不僅僅是一個(gè)地區(qū)。需要就這個(gè)問(wèn)題進(jìn)行全球性的多邊辯論。通過(guò)透明度信任至關(guān)重要的是,當(dāng)涉及到他們的數(shù)據(jù)和人工智能的力量時(shí),這項(xiàng)新法律可能有助于為公眾帶來(lái)一個(gè)新的啟蒙時(shí)代,類似于劍橋分析公司的丑聞。對(duì)其工作保持透明的組織將有助于在他們所服務(wù)的人群中建立信任。“企業(yè)現(xiàn)在有機(jī)會(huì)超越這一點(diǎn)并擁抱透明度,而不僅僅是成為下一個(gè)合規(guī)問(wèn)題,”Swaniker說(shuō)。
執(zhí)法Swaniker表示,正如執(zhí)行GDPR所面臨的挑戰(zhàn)一樣,執(zhí)行擬議的人工智能立法將會(huì)很有趣。
“在最終規(guī)則到位之前,我們還有一些路要走。但很明顯,整個(gè)框架是基于風(fēng)險(xiǎn)的,這將鼓勵(lì)公司必須有意義地評(píng)估特定產(chǎn)品是否在潛意識(shí)地試圖操縱人們。
“毫無(wú)疑問(wèn),這將難以執(zhí)行,因此需要對(duì)概念進(jìn)行銳化,以使其更適合目的,”他說(shuō)。Swaniker還指出,與世界其他地區(qū)相比,該法規(guī)采用了一種非常歐洲的方法,因?yàn)樵摲ㄒ?guī)基于歐洲基本權(quán)利概念,這些概念基于歐盟法律,但在其他司法管轄區(qū)并不相同。他補(bǔ)充說(shuō),如上所述,其他國(guó)家/地區(qū)都有現(xiàn)行法律,無(wú)論它們?nèi)绾危麄兌枷M緦?duì)他們?nèi)绾问褂萌斯ぶ悄茇?fù)責(zé)。
“說(shuō)歐洲正在做某事而沒(méi)有其他國(guó)家關(guān)心是不公平的。對(duì)于如何監(jiān)管這種人工智能和技術(shù)的使用,只有不同的區(qū)域方法。”“這是關(guān)于如何使用人工智能的規(guī)定,而不是人工智能本身,這是一個(gè)重要的細(xì)微差別,因?yàn)樗婕敖M織實(shí)際上考慮他們使用人工智能是否具有高風(fēng)險(xiǎn)”
實(shí)施人工智能道德標(biāo)準(zhǔn)歐盟人工智能立法的主要原則之一是要求在高風(fēng)險(xiǎn)領(lǐng)域進(jìn)行人工監(jiān)督。采用和實(shí)施該技術(shù)的提供商和組織需要謹(jǐn)慎控制該技術(shù)的使用方式,并進(jìn)行嚴(yán)格的審查,以確保其在繼續(xù)之前是安全的。與目前的做法不同,當(dāng)組織部署該技術(shù)時(shí),他們必須對(duì)其進(jìn)行檢查。
在實(shí)踐中,Kewley建議組織在實(shí)施人工智能道德標(biāo)準(zhǔn)時(shí)需要進(jìn)行取證。
他說(shuō):“企業(yè)已經(jīng)習(xí)慣了會(huì)計(jì)準(zhǔn)則和財(cái)務(wù)審計(jì),并圍繞這些實(shí)踐建立了完整的團(tuán)隊(duì)和方法論。它已成為他們DNA的一部分,這將是部署道德AI的最佳實(shí)施方式,這可以有效地準(zhǔn)確了解您正在使用的內(nèi)容、正在使用的環(huán)境以及結(jié)果是什么。了解產(chǎn)品生命周期、它是如何部署的、在哪些國(guó)家/地區(qū)以及它正在做出哪些決策也很重要。”
在未來(lái),組織還需要部署人員團(tuán)隊(duì)來(lái)監(jiān)督人工智能以及“機(jī)器人”的工作方式。任其發(fā)展,這項(xiàng)技術(shù)可能很危險(xiǎn),因此需要?jiǎng)?chuàng)建全新的團(tuán)隊(duì)和工作方式。