自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

人工智能如何增強現(xiàn)有的人類偏見?

人工智能
人工智能驅動的系統(tǒng)的決策僅反映用于模型訓練的輸入數(shù)據(jù)的類型。因此,如果 AI 模型吸收的數(shù)據(jù)集具有歧視性,則輸出推薦或決策將遵循相同的趨勢。

根據(jù)定義,人工智能 (AI) 旨在模擬人腦的工作機制以優(yōu)化組織活動。 

[[421223]]

不幸的是,雖然我們已經(jīng)能夠更接近于人工地重新創(chuàng)造人類智能,但人工智能也表現(xiàn)出另一種獨特的人類特征——基于種族、民族或性別對某人的偏見。人工智能中的偏見并不是一個新概念。最近和過去都發(fā)現(xiàn)了醫(yī)療保健、執(zhí)法和招聘行業(yè)中存在偏見的算法示例。

因此,幾個世紀以來的不容忍和歧視不斷以一種或另一種形式出現(xiàn),即使世界似乎正在朝著對所有人包容的方向發(fā)展。要了解人工智能如何強化長期存在的人類偏見,我們需要找出偏見潛入人工智能模型和神經(jīng)網(wǎng)絡的方式。

用于訓練 AI 模型的有偏數(shù)據(jù)集

人工智能驅動的系統(tǒng)的決策僅反映用于模型訓練的輸入數(shù)據(jù)的類型。因此,如果 AI 模型吸收的數(shù)據(jù)集具有歧視性,則輸出推薦或決策將遵循相同的趨勢。在初始機器學習階段,可以通過兩種方式創(chuàng)建有偏差的 AI 模型。首先,如前所述,用于訓練 AI 模型的數(shù)據(jù)(總體上)是狹窄且有偏見的。其次,由于給定數(shù)據(jù)集中的樣本存在偏差,因此創(chuàng)建了判別算法。由于疏忽或因為從事訓練過程的數(shù)據(jù)科學家本身保守、心胸狹窄,有偏見,輸入數(shù)據(jù)可能很窄。

歧視性人工智能的最佳例子之一是臭名昭著的 COMPAS 系統(tǒng),該系統(tǒng)在美國多個州使用。人工智能驅動的系統(tǒng)使用歷史監(jiān)獄數(shù)據(jù)庫和回歸模型來預測被釋放的罪犯將來是否有可能再次犯罪。正如預期的那樣,該系統(tǒng)的預測表明,與白種人相比,非洲裔美國人的再犯人數(shù)幾乎翻了一番。這種偏見的主要原因之一是,網(wǎng)絡管理員在分析其預測時從未嘗試檢測系統(tǒng)的歧視性暗示。通常,人工智能偏見的受害者是女性、特定地區(qū)的少數(shù)族裔或有移民背景的人。正如他們所說,人工智能的模型不會引入新的偏見,而只是反映社會中已經(jīng)存在的偏見。

如上所述,機器訓練的數(shù)據(jù)收集過程也可能存在偏差。在這種情況下,指定的 AI 治理官員會意識到所收集數(shù)據(jù)中的偏差,但仍會選擇忽略它。例如,在收集與招生背景相關的數(shù)據(jù)時,學校可能只選擇白人候選人。此外,學??赡苤皇蔷芙^為其他孩子提供學習機會。在可能是一個循環(huán)中,AI 模型可能會密切觀察學校選擇專門選擇白人學生的做法。稍后,該模型將繼承種族主義傳統(tǒng),因為其模式分析僅表明這是學校招生期間的正確行動方案。因此,盡管存在處理這一過程的尖端技術,但種族主義仍被多次強化。

除了種族或性別歧視,人工智能中的偏見甚至可能以對富人的優(yōu)惠待遇的形式存在。因此,窮人在 AI 數(shù)據(jù)集中的代表性可能不足。在正在進行的 COVID-19 時代,甚至可以想象出一個這樣的假設例子。一些國家開發(fā)了自己的移動應用程序,可用于跟蹤感染病毒的人,并提醒任何特定區(qū)域的其他人與這些人保持距離。雖然該計劃可能具有崇高的目的,但沒有智能手機的個人將在應用程序中完全不可見。雖然這種類型的偏見不是任何人的錯,但它首先違背了設計此類應用程序的目的。

綜上所述,歧視性的訓練數(shù)據(jù)和操作實踐會直接導致人工智能系統(tǒng)和模型的偏差。

由于代理相關原因導致的人工智能偏見

偏見滲入人工智能模型的另一種方式可能是通過代理。用于機器訓練的一些細節(jié)和信息可能與受保護的特征相匹配。由此產生的偏差實例可能是無意的,因為用于做出理性和校準決策的數(shù)據(jù)可能最終作為類成員的代理。

例如,假設一家金融機構使用人工智能系統(tǒng)來預測哪些貸款申請人可能難以還款。用于訓練 AI 系統(tǒng)的數(shù)據(jù)集將包含跨越三個多世紀的歷史信息?,F(xiàn)在,此輸入數(shù)據(jù)不包含與申請人的膚色或性別相關的詳細信息。然而,假設系統(tǒng)預測居住在特定地點(與某個郵政編碼相關聯(lián))的人將拖欠他們的貸款分期還款。此預測僅根據(jù)歷史記錄生成。當銀行因居住地而決定不批準他們的貸款申請時,居住在該地區(qū)的人可能會感到受到了歧視。人工智能中的這種偏見可以通過讓人類官員參與來消除,他們可以根據(jù)實際事實而不僅僅是歷史記錄推翻人工智能系統(tǒng)的決定。

除此之外,還有其他幾種產生偏見的人工智能的方式,然后在當今時代繼續(xù)強化古老的偏見。有幾種方法可以徹底消除人工智能中的偏見,或者至少在很大程度上減少偏見。

選擇更具代表性的數(shù)據(jù)集

人工智能如何增強現(xiàn)有的人類偏見?

組織中的每個人都需要努力降低其 AI 系統(tǒng)在工作中存在偏見的可能性。正如我們所見,人工智能的偏見完全源于它為機器訓練或其日常操作接收的數(shù)據(jù)類型。收集大量培訓和運營數(shù)據(jù)的數(shù)據(jù)科學家和其他專家需要使用各種數(shù)據(jù),其中包括屬于所有種族和少數(shù)種族的人。在此類數(shù)據(jù)集中,女性必須與男性一樣多。此外,僅當數(shù)據(jù)專家向類似分割的模型提供輸入數(shù)據(jù)時,才應存在 AI 模型中的分割。

此外,使用人工智能應用的組織不得針對不同的種族和民族多樣性使用不同的模型。如果單個人群的數(shù)據(jù)不足,組織可以使用加權等技術來平衡其相對于其他人群的重要性。如果每個數(shù)據(jù)組沒有得到謹慎和同等權重的處理,就有可能在 AI 模型中產生偏見。

識別潛在的偏見觸發(fā)因素或來源

檢測某些類型的偏見可能進入 AI 系統(tǒng)的區(qū)域和操作是任何組織中 AI 治理團隊和執(zhí)行級別員工的主要責任。理想情況下,必須在將 AI 納入組織之前執(zhí)行此過程。組織可以通過檢查數(shù)據(jù)集并檢查它們是否會導致 AI 模型具有狹隘的“觀點”來減輕偏見。經(jīng)過徹底檢查后,組織必須進行試運行,以查看其 AI 系統(tǒng)是否在工作中表現(xiàn)出偏見。最重要的是,組織必須列出涵蓋所有有偏見的人工智能領域的問題。然后,他們必須不斷尋找解決方案,以便一個接一個地回答這些問題。

實施嚴格的人工智能治理指南

AI 治理團隊在防止 AI 系統(tǒng)隨著時間的推移變得歧視方面發(fā)揮著關鍵作用。為了避免人工智能的偏見,治理團隊必須定期更新人工智能模型。更重要的是,團隊應該制定不可協(xié)商的法規(guī)和指南,以檢測和消除或至少減輕用于機器訓練的輸入數(shù)據(jù)集的偏差。

除此之外,必須建立清晰的溝通渠道,以便組織中任何級別的員工都可以在收到客戶關于人工智能歧視的投訴時通知治理團隊。即使員工自己發(fā)現(xiàn)他們組織的 AI 可能存在偏見,這些渠道也會起作用。

人工智能中的偏見對于成為其決策犧牲品的個人或團體來說可能非常痛苦。更成問題的是,有偏見的人工智能系統(tǒng)是人類歷史上不幸的受害者面臨數(shù)百年邊緣化和歧視的新一代象征。因此,我們必須通過確保模型訓練和有能力的 AI 治理的不同輸入數(shù)據(jù)集來確保將算法偏差扼殺在萌芽狀態(tài)。歧視性 AI 是每個人的問題,因此,組織中參與 AI 模型設計、實施和維護階段的所有各方都應該聯(lián)合起來解決它。

 

責任編輯:姜華 來源: 千家網(wǎng)
相關推薦

2021-03-19 10:22:03

人工智能

2022-10-24 15:43:47

人工智能語言模式機器

2021-11-11 14:49:42

人工智能AI

2023-08-30 16:04:13

人工智能AI

2024-01-03 09:47:44

2022-06-22 11:11:48

人工智能AI

2022-06-08 10:29:28

人工智能機器人

2022-07-18 10:40:29

人工智能AI

2021-09-22 14:16:36

人工智能AI

2020-06-16 17:43:57

人工智能AI

2023-11-01 06:55:05

人工智能可觀測性IT

2024-03-15 14:26:28

2021-08-19 17:25:30

人工智能機器學習自動化

2021-03-08 10:49:45

人工智能

2021-01-27 11:56:45

AIops人工智能AI

2018-05-28 11:41:39

AR

2022-07-22 18:47:30

AIOmniverse

2021-10-18 10:59:27

人工智能機器學習技術

2021-01-25 09:37:53

人工智能機器人

2019-02-14 09:10:52

人工智能AI
點贊
收藏

51CTO技術棧公眾號