AI作惡?我們必須思考人工智能中的道德了!
本文轉(zhuǎn)載自公眾號(hào)“讀芯術(shù)”(ID:AI_Discovery)。
很多人對(duì)AI充滿熱情,因?yàn)樗梢詫?shí)現(xiàn)自動(dòng)化、可以在游戲中打敗人類、還能提高人們的整體生活水平。 這當(dāng)然是不爭(zhēng)的事實(shí),但AI仍存在缺陷甚至是危險(xiǎn),有可能是人為帶來(lái)的,也可能不是。即便在今天,仍有無(wú)數(shù)起AI擾民或危害生命的事件,這是怎樣發(fā)生的?以后AI會(huì)越來(lái)越普及,它的哪些潛在特性會(huì)給社會(huì)造成毀滅?
AI算法中的道德缺陷
AI有許多瑕疵,它們會(huì)滋生出道德問(wèn)題。很多是因?yàn)橛?xùn)練數(shù)據(jù)存在偏差,為了建立信息反饋循環(huán)模式。舉些例子看一看這些小錯(cuò)誤會(huì)如何影響現(xiàn)實(shí)中的人。
1. 面部識(shí)別的訓(xùn)練數(shù)據(jù)存在偏差
想象有一天,你從學(xué)校往家走,警察出現(xiàn)并出示了拘捕令,給你戴上手銬,要把你帶到拘留中心。你完全不知道自己犯了什么錯(cuò),而家人和鄰居都在一旁看著。到警局后,他們搜索全身,取指紋,拍照片,讓你在一個(gè)臟兮兮的牢房里待一晚上。你就坐在那兒等,想為什么被抓。
羅伯特·威廉和他的家人 | 圖源:DetroitFree Press
這就是發(fā)生在羅伯特身上的真事。他是個(gè)黑人,在美國(guó)法明頓希爾斯無(wú)緣無(wú)故遭逮捕。警方在對(duì)他進(jìn)行盤問(wèn)時(shí),拿出了一張照片,上面有一個(gè)黑人男子在店內(nèi)偷商品。威廉否認(rèn)自己去過(guò)那里而且照片中并非他本人。 另一張照片是行竊者的近距離照片,怎么看都不像威廉,他說(shuō):“不,這不是我。你認(rèn)為所有的黑人都長(zhǎng)一個(gè)樣子么?” 警察為何會(huì)抓錯(cuò)?這就是算法的問(wèn)題了。警方通過(guò)人工智能搜尋犯罪嫌疑人,但很明顯這是錯(cuò)的。AI怎么會(huì)出錯(cuò),它不應(yīng)該非常準(zhǔn)確嗎? 沒(méi)錯(cuò),AI通常很精準(zhǔn),但前提是訓(xùn)練不存在問(wèn)題。導(dǎo)致威廉被當(dāng)成嫌疑人的最主要原因就是訓(xùn)練數(shù)據(jù)中存在偏差。面部識(shí)別系統(tǒng)對(duì)白人相當(dāng)?shù)墓剑蓪?duì)于少部分群體就沒(méi)那么精確了。因?yàn)椴捎玫臄?shù)據(jù)集主要是白人面孔和少數(shù)其他群體的面孔,因此對(duì)黑人的識(shí)別度偏低。
面部識(shí)別的精確度差距 | 圖源:Lesson 5 ofFastAI
盡管“深色皮膚男性”辨識(shí)度高,深色與淺色皮膚的辨識(shí)還是存在很大差距,特別是“深色皮膚女性”。這些成果屬于前沿科技公司的,也許不是那些警察用的。
2. YouTube的反饋系統(tǒng)
大家肯定都看過(guò)這個(gè)網(wǎng)站,在首頁(yè)會(huì)看到一個(gè)有意思的視頻或者流行視頻,一小時(shí)以后你仍然在這一頁(yè),只是在不知不覺(jué)中看了更多的視頻。這就是推薦系統(tǒng)的作用,它會(huì)提供能留你在頁(yè)面更久的視頻,從而獲得更多的廣告利潤(rùn)。 你也許會(huì)想:“在那個(gè)平臺(tái)待得更久一點(diǎn)又怎樣呢?又不會(huì)損害何人?!辈唬@個(gè)推薦算法會(huì)導(dǎo)致反饋里出現(xiàn)危害性內(nèi)容。 YouTube的AI反饋循環(huán)就出現(xiàn)過(guò)一次非常可怕的問(wèn)題:“網(wǎng)站的推薦算法讓那些戀童癖更容易在特定視頻的評(píng)論區(qū)尋找或分享兒童淫穢作品。這一發(fā)現(xiàn)令人恐怖的點(diǎn)有很多。不只是視頻被商業(yè)化,它的推薦系統(tǒng)正不斷給成千上萬(wàn)的用戶推廣兒童視頻?!? 反饋循環(huán)系統(tǒng)也會(huì)造成一種單一模式,觀看者可能看到的一直是他們排斥的內(nèi)容。進(jìn)而會(huì)有一些人永遠(yuǎn)都不聽(tīng)對(duì)立的聲音,促成兩極分化。 再者,這種系統(tǒng)會(huì)為陰謀論做宣傳。跟造成兩極分化一樣,它會(huì)讓對(duì)陰謀論稍稍感興趣或半信半疑的人相信這些話。推薦給你看的視頻越來(lái)越多,而它們都傳遞了同一個(gè)信息。
圖源:unsplash
3. AI導(dǎo)致醫(yī)護(hù)時(shí)長(zhǎng)縮短
2016年,一個(gè)新的算法被應(yīng)用到了阿肯色州的醫(yī)療系統(tǒng)。該算法是為了更好地給醫(yī)護(hù)人員分配資源和時(shí)間,它會(huì)綜合好幾個(gè)因素來(lái)決定每位病人需要多少幫助。但醫(yī)護(hù)效率提高的同時(shí)也就意味著許多人的醫(yī)護(hù)時(shí)長(zhǎng)會(huì)減少,可這些人往往最需要幫助。
圖源:TheVerge
軟件不會(huì)服務(wù)到糖尿病患者或大腦麻痹性患者,這個(gè)問(wèn)題是源于一個(gè)漏洞和一些錯(cuò)誤代碼。隨之而來(lái)的就是道德問(wèn)題,我們是否該使用AI 來(lái)決定病者的健康呢?為什么這個(gè)州在未知或未檢測(cè)錯(cuò)誤的情況下就使用該算法? 有個(gè)一目了然的、能夠體現(xiàn)算法影響人生活的例子來(lái)自泰米·道博。泰米·道博多年受大腦麻痹纏身,2008年搬到了阿肯色州。她需要非常多的幫助,無(wú)法靠自己挪動(dòng)到輪椅,雙手僵硬。正因此,該州的醫(yī)護(hù)機(jī)構(gòu)給她分配了最長(zhǎng)的照顧時(shí)間,每周56個(gè)小時(shí)。
圖源:TheVerge
阿肯色州的醫(yī)療系統(tǒng)應(yīng)用了AI算法后,這一切改變了。道博的醫(yī)護(hù)時(shí)間從原先的56小時(shí)縮到了32個(gè)小時(shí)!只有原先的56%!這一削減明顯對(duì)她的生活造成了巨大的影響。
AI的不當(dāng)使用
還有一些例子講了AI是如何被有意用作不道德的操作,這比非人為的代碼錯(cuò)誤還瘆人!
1. IBM與屠殺
沒(méi)錯(cuò),IBM在二戰(zhàn)中使用。你也許會(huì)好奇:“二戰(zhàn)有AI當(dāng)后盾?”可以說(shuō)類似吧,IBM當(dāng)時(shí)研發(fā)了一套用于分類的制表功能。它不只是拆分卡片進(jìn)行分類的簡(jiǎn)單算法,而是更冗雜、需要大量維護(hù)的工具,不是平常所想的人工智能。雖是這么說(shuō),筆者依舊認(rèn)為探討技術(shù)被不當(dāng)使用很重要,無(wú)論是否是AI。
首先回顧這個(gè)機(jī)器如何運(yùn)作:你會(huì)拿到一張穿孔卡,需要把它插進(jìn)去;機(jī)器會(huì)讀信息,保存,最終輸出數(shù)字;這些數(shù)字代表人們會(huì)去哪個(gè)集中營(yíng),囚犯的類型以及他們會(huì)如何死。 一位名叫霍華德·卡特的經(jīng)濟(jì)戰(zhàn)首席調(diào)查官這樣寫(xiě)道:“希特勒的經(jīng)濟(jì)戰(zhàn),我們的一家(美)企業(yè)也這么做過(guò)。所以IBM跟納粹是一類人,整個(gè)世界都被國(guó)際怪物打壓?!?/p>
2. 換臉
換臉也是一種人工智能。它生成的圖像、視頻甚至是音頻極其真實(shí),利用的就是對(duì)抗式生成網(wǎng)絡(luò),這是一個(gè)深度學(xué)習(xí)模型。僅僅是為了娛樂(lè)而使用換臉無(wú)傷大雅,但換臉存在真實(shí)的危險(xiǎn)性,同時(shí)也帶來(lái)了道德問(wèn)題。 借助換臉制造危害的一種方式就是在政治領(lǐng)域。如果一篇推特都會(huì)導(dǎo)致局勢(shì)越來(lái)越緊張,那一個(gè)視頻或一段語(yǔ)音呢?一段辱罵其他政治大亨的錄音會(huì)在網(wǎng)上像病毒一樣擴(kuò)散,兩極分化加深,人們?nèi)羰切乓詾檎婢謩?shì)會(huì)更緊張。 另一種擾亂社會(huì)的方式就是用大量的虛假內(nèi)容淹沒(méi)網(wǎng)絡(luò)。無(wú)論什么時(shí)候上網(wǎng),怎么才能知道所見(jiàn)皆為真?如果網(wǎng)絡(luò)和媒體上的換臉?shù)佁焐w地,永遠(yuǎn)都不會(huì)有人知道什么是事實(shí)什么是真的。就連文本都能生成虛假的,你怎么知道讀的是不是我寫(xiě)的,還是機(jī)器人在誤導(dǎo)你。
圖源:MITTechnology Review
最后一種會(huì)造成傷害的是淫穢作品。據(jù)2019年9月的一份報(bào)告顯示,網(wǎng)上96%的換臉應(yīng)用都與淫穢作品相關(guān)。福布斯的一篇文章中是這樣說(shuō)的:換臉型淫穢作品往往未經(jīng)他人允許,會(huì)人工合成有明星或個(gè)人聯(lián)系人的視頻。
浮現(xiàn)出的道德問(wèn)題
雖然聽(tīng)起來(lái)很嚇人,但也許更糟糕的在后面。 AI和技術(shù)發(fā)展日新月異,我們最終會(huì)面對(duì)一種奧威爾主義局面。政府會(huì)有更多的授權(quán),他們會(huì)通過(guò)AI了解我們何時(shí)在何地在做什么。相機(jī)里安裝的面部識(shí)別會(huì)監(jiān)視你的每一個(gè)動(dòng)作,麥克風(fēng)會(huì)識(shí)別誰(shuí)在講話,在說(shuō)什么,預(yù)測(cè)算法會(huì)判斷你下一步的動(dòng)作。
圖源:Contexture
這又帶來(lái)了另一個(gè)問(wèn)題,政府越容易追蹤你,就越容易擺脫他們討厭的人。下一個(gè)“希特勒”的工作會(huì)更高效,無(wú)需找討厭的人,因?yàn)橐呀?jīng)知道他們?cè)谀?,隨時(shí)都可以找到。政府也可以查到誰(shuí)在反對(duì)他們,然后更容易懲罰這些對(duì)立者。 有說(shuō)服力的虛假文本和視頻會(huì)淹沒(méi)網(wǎng)絡(luò),傳遞的是最不可信、無(wú)價(jià)值的信息。我們必須對(duì)AI保持警惕。