自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

算法有偏見?比人強就行!

人工智能 機器學習 算法
在討伐算法導致的偏見和產生的作用時,更重要的問題是:與完全沒有使用算法的情況相比是怎樣的?我們應該比較算法的缺陷與人類的缺陷,而不是簡單地詢問算法是否存在缺陷。

[[241158]]

大數據文摘出品

編譯:倪倪、陳同學、Alieen

在討伐算法導致的偏見和產生的作用時,更重要的問題是:與完全沒有使用算法的情況相比是怎樣的?我們應該比較算法的缺陷與人類的缺陷,而不是簡單地詢問算法是否存在缺陷。

一場革命正在悄然進行。

這場革命與大部分新聞報道中出現的人工智能的進展有所不同。

新聞媒體往往聚焦于感知型機器人軍團的重大發(fā)展,而更重要的角逐是在全國各類機構傳統人為決策過程中展開,很顯然,自動化比重正在穩(wěn)步增加。

不同于AlphaGo Zero這樣占據頭條新聞的先進成果,這場革命通過相當傳統的機器學習和統計技術如普通最小二乘法、邏輯回歸、決策樹等,為許多組織創(chuàng)造了真正的價值。

這些技術應用的領域是很廣泛的,包括醫(yī)療診斷、司法判決、公共機構的專業(yè)招聘和資源分配等。

這場革命是好事嗎?

似乎有越來越多的作者、學者和記者給予否定的回答。這一類型的書包括《數學毀滅武器》,《自動化不平等》和《黑匣子協會》等。還有一連串的曝光式長篇文章,如“機器偏差”,“緊縮是一種算法”,“算法是否在構建種族主義的新基礎設施?”等。

人們關注的焦點是,算法通常是不透明、有偏差并且難以解釋的工具,而這樣的工具正在被權利組織加以利用。那么,對于算法逐漸上升的決策地位,人類需不需要感到擔憂呢?

這些批評和調查往往很具有洞察力和啟發(fā)性,并且成功地讓人們認為“算法是完全不受主觀影響”是不可能的。但是這些批評者之間存在一種模式,即他們很少會探討他們分析的系統在沒有算法參與的情況下運行得如何。

對于從業(yè)者和政策制定者而言,這是最相關的問題:算法導致的偏見和產生的作用,與完全沒有使用算法的情況相比是怎樣的?我們應該比較算法的缺陷與人類的缺陷,而不是簡單地詢問算法是否存在缺陷。

研究結果怎么說?

[[241159]]

關于算法決策的大量研究可以追溯到幾十年前。與這一主題相關的研究都得出了一個非常相似的結論:算法比他們所取代的人類更少偏見、更準確。

下面是一個研究樣本,調查了當算法控制了傳統上由人類執(zhí)行的任務時會發(fā)生什么:

2002年,一個經濟學家團隊研究了自動承保算法對抵押貸款行業(yè)的影響。他們的主要發(fā)現是“[自動承保]系統比手動承銷商更準確地預測違約”并且“提高了預測借款批準率的準確性,特別是對于通常服務不到的申請人。”在傳統的方法中,資源匱乏的消費者往往被邊緣化;但算法系統使這部分消費者受益最多。

Bo Cowgill來自哥倫比亞商學院(Columbia Business School),他在研究一家軟件公司的工作申請篩選算法的效果時得出了類似的結論。當公司通過算法來決定哪些申請人應該接受面試時,算法實際上比人類篩選者更喜歡“非傳統”候選人。與人類相比,該算法對公司中代表性不足的候選人(例如沒有個人引薦或沒有擁有名牌大學的學位)的偏見顯著偏少。

[[241160]]

在紐約市審前保釋聽證會中,一支由著名計算機科學家和經濟學家組成的團隊判定,與目前作出保釋決定的法官相比,算法有可能實現更為公平的決策,“監(jiān)禁率減少高達41.9%,犯罪率沒有增加”。他們還發(fā)現,在他們的模型中,“所有類別的犯罪,包括暴力犯罪中,都顯示出監(jiān)禁率的降低。這些成果可以在減少種族差異的過程中同時實現。”

《紐約時報》雜志最近報道了一個長篇故事來回答這個問題,“算法可以判斷孩子何時處于危險之中嗎?”

事實證明答案是肯定的,并且算法可以比人類更準確地執(zhí)行這項任務。有些政府服務加劇了種族偏見,而“阿勒格尼郡的經驗表明,它的篩選工具在權衡偏見方面不像人類篩選者那么糟糕”。

***一個例子是,一個由財務教授組成的團隊開始通過查看公開交易公司的歷史數據構建算法,為特定公司選擇***董事會成員。研究人員發(fā)現公司在由算法選擇的董事會的管理下業(yè)績更好,而且與他們提出的算法相比,“沒有算法的公司傾向于選擇擁有龐大的社交網絡與豐富的董事會經驗、目前在董事會參與更多、具有財務背景的男性董事。”

在每個案例研究中,數據科學家都做了一件看起來驚人事情:他們根據過去的數據訓練他們的算法,而這些數據肯定會受到歷史偏見的影響。所以這是怎么回事呢?

在很多不同的領域 ——信用申請、工作篩選、刑事司法、公共資源分配和公司治理 ,算法都可以減少偏見;但為什么許多評論家和批判者告訴我們的卻正好相反呢?

人類是非常糟糕的決策者

[[241161]]

我們可以看到,上述提到的算法實際上是存在偏見的,但它們正在取代的人類顯然有更大的偏差。畢竟,如果不是一直被人為控制,制度偏見從何而來?

人類是糟糕到極點了么?也不盡然。雖然存在著偏見,但在某些維度上看,我們也做過一些較好的決策。不幸的是,近幾十年來,判斷和決策方面的心理學研究已經一次又一次地證明了人類在各種背景下的判斷非常糟糕。我們至少在20世紀50年代就已經知道,在預臨床環(huán)境中的重要結果方面,非常簡單的數學模型就已優(yōu)于所謂的專家。

在上面提到的所有例子中,人類決策者的表現并不好,用算法取代他們既提高了準確性,又降低了制度偏差。這就達到了經濟學家所說的帕累托改進,即一項政策在我們關心的每一個方面上都有更優(yōu)越的表現。

雖然許多批評者喜歡暗示前沿公司以犧牲公平和公正為代價來追求運營效率和更高的生產力,但當前的證據都表明其實沒有這樣的讓步。算法可以提供更高效,更公平的結果。

如果有什么事情會讓你感到驚恐,那么應該是這樣一個事實:我們的許多重要決策是由前后矛盾的,有偏見的,非常糟糕的決策者做出的。

改善現狀

當然,我們應該盡一切努力消除制度偏見及其對決策算法的有害影響。對算法決策的批評催生了機器學習的研究的新浪潮,人們更加重視算法的社會和政治后果。

統計學和機器學習中出現了一些新技術,專門用于解決算法歧視問題。每年甚至還有一次學術會議(https://www.fatml.org),研究人員不僅討論機器學習的倫理和社會挑戰(zhàn),而且還提出了確保算法對社會產生積極影響的新模型和新方法。

隨著深度學習等不太透明的算法變得越來越普遍,這項工作可能會變得更加重要。 即使技術不能完全解決制度偏見和偏見歧視的社會弊端,這里所回顧的證據表明,在實踐中,它在改善現狀方面發(fā)揮著微小但重要的作用。

這不是在鼓吹算法絕對主義或對統計力量的盲目信仰。如果我們在某些情況下發(fā)現算法與當前的決策過程相比具有不可接受的高度偏差,那么接受這樣的結果并維持人類決策現狀也不會造成任何損害。

但是,維持現狀也是有利有弊。

我們應該承認,在某些情況下,算法將會為減少制度偏見起到一些作用。因此,下次當您讀到有關算法偏差風險的標題時,請記得冷靜下來,并想一想人類偏見帶來的危險是否會更嚴重。

相關報道:https://hbr.org/2018/07/want-less-biased-decisions-use-algorithms

【本文是51CTO專欄機構大數據文摘的原創(chuàng)譯文,微信公眾號“大數據文摘( id: BigDataDigest)”】

     大數據文摘二維碼

戳這里,看該作者更多好文

責任編輯:趙寧寧 來源: 51CTO專欄
相關推薦

2015-04-16 16:04:32

云計算微軟云Azure

2018-04-16 08:56:40

2020-12-21 06:15:15

程序員互聯網年齡

2019-01-30 10:40:46

Google Brai人工智能機器學習

2025-01-23 08:40:00

2024-01-10 08:16:08

Redis集成JMS

2016-01-14 13:34:27

互動百科網

2021-12-30 21:41:17

云計算云架構技術

2022-02-18 09:53:17

AI芯片設計

2021-03-04 13:55:51

人工智能偏見AI

2025-04-23 09:31:30

2018-05-23 09:20:12

人工智能機器學習技術

2016-09-24 22:49:31

2009-03-28 09:51:12

2021-08-22 17:32:32

工業(yè)機器人工業(yè)領域制造

2022-08-22 14:44:02

人工智能量子計算算法

2021-08-23 08:00:00

人工智能技術工具

2013-10-21 16:42:03

2022-07-18 10:40:29

人工智能AI
點贊
收藏

51CTO技術棧公眾號