自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

人力資源如何理解和減少人工智能偏見

人工智能
人工智能(AI)和機器學(xué)習(xí)(ML)提供的好處已經(jīng)得到共識。這項技術(shù)可以幫助企業(yè)實現(xiàn)流程自動化,通過數(shù)據(jù)分析獲得洞察力,并與客戶和員工建立聯(lián)系。

人工智能(AI)和機器學(xué)習(xí)(ML)提供的好處已經(jīng)得到共識。這項技術(shù)可以幫助企業(yè)實現(xiàn)流程自動化,通過數(shù)據(jù)分析獲得洞察力,并與客戶和員工建立聯(lián)系。

它可以幫助他們滿足不斷變化的市場需求,降低運營成本,并在當(dāng)下快節(jié)奏的數(shù)字世界中保持競爭力。

[[418554]]

人力資源應(yīng)用人工智能

如今,許多主要的云服務(wù)提供商已經(jīng)在其服務(wù)包中提供人工智能功能,為那些可能難以負(fù)擔(dān)昂貴的人工智能工程師和數(shù)據(jù)科學(xué)家的企業(yè)普及這項技術(shù)。

對于人力資源團隊來說,人工智能的價值是顯而易見的。一張招聘啟事就會導(dǎo)致成百上千的求職者,手動查看每個簡歷往往是一項艱巨且耗時的任務(wù)。通過利用人工智能和機器學(xué)習(xí)技術(shù),人力資源團隊獲得了大規(guī)模評估應(yīng)聘者的能力,并大大提高了招聘推薦的效率。

人工智能誘發(fā)偏見對人力資源的影響

雖然人工智能為人力資源企業(yè)或部門提供了相當(dāng)明顯的好處,但它也帶來了相當(dāng)嚴(yán)重的挑戰(zhàn)和潛在的陷阱。對于任何AI系統(tǒng),你必須正面解決最困難(但也是最關(guān)鍵)的一個問題就是確保它沒有偏見。

這對人力資源的人工智能系統(tǒng)尤其重要,因為任何人工智能引發(fā)的偏見都可能導(dǎo)致公司錯失合格的求職者——而且通常是在所有人不知情的情況下。

還記得幾年前,亞馬遜(Amazon)因為性別歧視,而不得不取消了用于篩選簡歷的人工智能系統(tǒng)嗎?(深度閱讀:人工智能的幾次著名“翻車”)這是訓(xùn)練數(shù)據(jù)力量的一個完美的例子——盡管很不幸是負(fù)面的。當(dāng)時,亞馬遜的大多數(shù)員工都是男性,因此,為人工智能系統(tǒng)提供的算法,根據(jù)公司自己的數(shù)據(jù)進(jìn)行訓(xùn)練,最終將應(yīng)用程序與男性化的詞匯聯(lián)系起來。

在這樣做的過程中,合格的女性候選人完全被模型忽略了。因此,如果用于訓(xùn)練AI模型的數(shù)據(jù)是有偏見的,那么部署的AI系統(tǒng)也會有偏見。而且它將繼續(xù)無限期地強化這種偏見。

人工智能系統(tǒng)無論是外包還是企業(yè)自建,都需要更密切關(guān)注偏見問題

在亞馬遜的案例中,用于篩選簡歷的人工智能系統(tǒng)是公司內(nèi)部構(gòu)建的,并使用該公司自己的求職者的數(shù)據(jù)進(jìn)行培訓(xùn)。但大多數(shù)公司沒有資源為其人力資源部門建立內(nèi)部人工智能系統(tǒng)。因此,越來越多的人力資源團隊將工作外包給Workday或谷歌Cloud等供應(yīng)商。 

現(xiàn)在比以往任何時候都更重要的是,人力資源團隊必須承認(rèn)外包任何人工智能所帶來的巨大責(zé)任。不要只是盲目地接受和執(zhí)行你的AI供應(yīng)商的模型。您和您的團隊需要反復(fù)審查系統(tǒng),以確保它們沒有偏見。你需要不斷地問自己:

  • 哪些數(shù)據(jù)源(或數(shù)據(jù)源的組合)被用于訓(xùn)練模型?
  • 模型使用哪些具體因素來做出決策?
  • 結(jié)果是令人滿意的,還是有什么不正確的地方?系統(tǒng)是否需要暫時關(guān)閉并重新評估?

仔細(xì)審查培訓(xùn)數(shù)據(jù)非常重要,特別是在外包人工智能系統(tǒng)中。但這并不是減輕來自偏見工作環(huán)境的偏見數(shù)據(jù)的唯一途徑。

因此,你的人力資源團隊也有責(zé)任評估公司內(nèi)部的偏見或不公平問題。例如,在公司里男性是否比女性擁有更大的權(quán)力?哪些有問題的行為長期以來被認(rèn)為是可以接受的?數(shù)據(jù)是否來自不具代表性的群體?

公司文化的多樣性、公平性和包容性在融入人工智能時是絕對相關(guān)的,因為它推動了人工智能系統(tǒng)和結(jié)果的部署。記住,人工智能并不知道它是有偏見的。這取決于我們自己。

公平且不帶偏見地利用人工智能的三個最佳實踐

最終,人力資源團隊需要了解他們的人工智能系統(tǒng)能做什么,不能做什么?,F(xiàn)在,你的人力資源團隊不必是技術(shù)專家或理解驅(qū)動人工智能模型的算法。

但他們確實需要知道,培訓(xùn)數(shù)據(jù)中反映了哪種偏見,偏見是如何融入公司文化的,以及人工智能系統(tǒng)是如何讓這些偏見延續(xù)下去的。

以下是三個策略最佳實踐,可以幫助你的人力資源團隊以公平和公正的方式利用AI技術(shù)。

定期審計人工智能系統(tǒng)。無論您的系統(tǒng)是內(nèi)部構(gòu)建的還是外包給供應(yīng)商的,例行檢查收集的數(shù)據(jù)以培訓(xùn)模型和產(chǎn)生的結(jié)果。數(shù)據(jù)集是否足夠龐大和多樣?它是否包括有關(guān)受保護(hù)群體的信息,包括種族和性別?如果結(jié)果不令人滿意,不要猶豫關(guān)閉系統(tǒng)重新改變方向。

了解數(shù)據(jù)供應(yīng)鏈。當(dāng)依賴外包的現(xiàn)成人工智能系統(tǒng)時,要認(rèn)識到培訓(xùn)數(shù)據(jù)可能反映了供應(yīng)商自己的偏見或第三方數(shù)據(jù)集的偏見。同樣需要例行檢查和定期審核。

使用AI來增強,而不是取代。人工智能的能力正在迅速發(fā)展,但現(xiàn)實是人工智能仍然需要管理。由于涉及的風(fēng)險,人力資源團隊?wèi)?yīng)該利用人工智能來增強自己的作用,而不是放任自流。最終的招聘和人力資源決策仍需要人力來做。

人力資源團隊處于一個獨特的位置,以公平和無偏見的方式利用人工智能技術(shù),因為他們已經(jīng)非常精通偏見和不公平的系統(tǒng)性問題。

認(rèn)識到人工智能系統(tǒng)所要求的責(zé)任,并始終努力了解它們是如何接受培訓(xùn)并產(chǎn)生結(jié)果的。

如果操作正確,人工智能將幫助你的人力資源團隊發(fā)現(xiàn)偏見,并及時糾正,提高人力資源職責(zé)的效率和效力,并選擇值得推薦的申請人和有價值的員工,使他們的職業(yè)生涯更加順利。

 

責(zé)任編輯:華軒 來源: 今日頭條
相關(guān)推薦

2022-04-02 21:58:09

人工智能人力資源技術(shù)

2020-12-14 19:27:20

人工智能AI人力資源

2021-06-29 09:28:29

人工智能AI

2022-03-08 23:28:35

人工智能人力資源機器學(xué)習(xí)

2021-05-24 19:27:53

人工智能AI

2023-10-10 06:54:38

人工智能技術(shù)語言模型

2021-03-19 10:22:03

人工智能

2022-06-22 11:11:48

人工智能AI

2021-03-16 11:07:06

人工智能

2022-07-18 10:40:29

人工智能AI

2021-09-02 15:01:55

人工智能AI深度學(xué)習(xí)

2020-03-02 16:47:42

物聯(lián)網(wǎng)人力資源管理IOT

2023-02-07 10:01:37

人工智能

2021-10-18 10:59:27

人工智能機器學(xué)習(xí)技術(shù)

2023-11-06 15:55:37

AI智能人力資源

2018-05-23 09:20:12

人工智能機器學(xué)習(xí)技術(shù)

2022-10-18 16:15:22

人工智能塑料廢物

2022-11-29 16:57:18

人工智能人力資源CIO

2022-06-16 11:35:05

人工智能數(shù)據(jù)ML

2023-09-27 10:23:06

人工智能語言模型
點贊
收藏

51CTO技術(shù)棧公眾號