自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

人工智能在員工招聘中可能弊大于利

人工智能
人工智能技術(shù)提供商聲稱,通過整合基于機(jī)器的決策,可以減少招聘中的偏見,但至少在其早期階段,人工智能招聘策略有可能影響企業(yè)的包容性。

近年來,隨著企業(yè)轉(zhuǎn)向自動(dòng)化評(píng)估、數(shù)字面試和數(shù)據(jù)分析來解析求職簡(jiǎn)歷和篩選應(yīng)聘者,人工智能在招聘過程中的使用有所增加。IT團(tuán)隊(duì)致力于實(shí)現(xiàn)更好的多樣性、公平性和包容性,事實(shí)證明,如果企業(yè)對(duì)如何實(shí)施人工智能技術(shù)沒有戰(zhàn)略性和深思熟慮,那么在員工招聘中采用人工智能可能弊大于利。

[[425181]]

IEEE研究員、紐約大學(xué)坦登工程學(xué)院院長Jelena Kovačević說:“人工智能的偏見通常來自數(shù)據(jù)。如果沒有一個(gè)具有廣泛代表性的數(shù)據(jù)集,那么采用人工智能系統(tǒng)難以發(fā)現(xiàn)和評(píng)估適合的應(yīng)聘者。”

人工智能用于招聘面臨的主要問題是,在美國多年來一直以男性和白人員工為主的行業(yè)領(lǐng)域中,人工智能招聘系統(tǒng)所依據(jù)的歷史數(shù)據(jù)最終將具有固有的偏見。如果沒有采用更加廣泛的數(shù)據(jù)集來訓(xùn)練人工智能算法,那么人工智能招聘工具很可能帶有自從上世紀(jì)80年代以來存在于技術(shù)招聘中的偏見。不過專家表示,人工智能的有效使用有助于創(chuàng)建一個(gè)更高效、更公平的招聘流程。

人工智能偏見的危險(xiǎn)

由于人工智能算法通常是根據(jù)過去的數(shù)據(jù)進(jìn)行訓(xùn)練的,因此人工智能的偏見始終是一個(gè)難以解決的問題。在數(shù)據(jù)科學(xué)中,偏見被定義為由于學(xué)習(xí)算法中的錯(cuò)誤假設(shè)而產(chǎn)生的錯(cuò)誤。采用不能反映當(dāng)前情況的數(shù)據(jù)來訓(xùn)練算法,就會(huì)得到錯(cuò)誤的結(jié)果。因此在招聘方面,特別是在IT這樣的行業(yè)中,根據(jù)歷史的招聘數(shù)據(jù)訓(xùn)練算法可能是一個(gè)重大的錯(cuò)誤。

美國電子隱私信息中心的人工智能和人權(quán)研究員Ben Winters表示:“很難確保一款人工智能軟件沒有天生的偏見或有偏見的影響。雖然可以采取措施避免這種情況,但許多系統(tǒng)已經(jīng)顯示出基于種族和殘疾人的偏見影響。”

Kovačević表示,如果企業(yè)的數(shù)據(jù)集沒有明顯的多樣性,那么人工智能算法就不可能知道來自代表性不足群體在過去的表現(xiàn)。與其相反,其算法將偏向于數(shù)據(jù)集所代表的內(nèi)容,并將所有未來的應(yīng)聘者與其原型進(jìn)行比較。

她說,“例如,如果黑人過去被系統(tǒng)排除在外,如果在過去沒有女性參與其中,而基于這些創(chuàng)建算法則無法正確預(yù)測(cè)未來。如果只從‘常春藤盟校’招聘,那么真的不知道來自一個(gè)鮮為人知的學(xué)校的申請(qǐng)者會(huì)如何表現(xiàn),所以將會(huì)產(chǎn)生多重偏見。”

BMC Software公司的企業(yè)社會(huì)責(zé)任、多元化、公平和包容性負(fù)責(zé)人Wendy Rentschler敏銳地意識(shí)到了人工智能可能給招聘過程帶來的潛在負(fù)面影響。她以亞馬遜公司試圖開發(fā)人工智能招聘工具的案例遭到失敗為例:該公司不得不中止這個(gè)項(xiàng)目,因?yàn)樵撍惴ㄆ缫暸郧舐氄摺?/p>

Rentschler說:“如果最大和最偉大的軟件開發(fā)商不能做到這一點(diǎn),我就會(huì)對(duì)所有人力資源技術(shù)人員聲稱能夠做到這一點(diǎn)感到疑慮。”

雖然一些人工智能招聘軟件的開發(fā)商宣稱他們的軟件提供了強(qiáng)大的功能,但是否可以幫助確定合適的求職者還有待觀察。人工智能技術(shù)可以幫助企業(yè)簡(jiǎn)化招聘流程,并找到使用人工智能識(shí)別合格求職者的新方法,但重要的是不要被這些軟件開發(fā)商的宣傳影響其判斷力。

如果正在嘗試改善企業(yè)中的包容性,人工智能似乎是一種快速解決方案或靈丹妙藥,但如果對(duì)在招聘過程中使用人工智能缺乏策略性,它可能會(huì)適得其反。關(guān)鍵是企業(yè)要確保其招聘流程和使用的工具不排除傳統(tǒng)上代表性不足的群體。

人工智能的歧視

企業(yè)有責(zé)任確保他們?cè)谡衅高^程中盡可能合乎道德地使用人工智能,不是成為這些工具功能被夸大的受害者。美國民主與技術(shù)中心員工隱私問題高級(jí)政策顧問Matthew Scherer指出,由于企業(yè)人力資源部門并不創(chuàng)造收入并且通常被貼上支出部門的標(biāo)簽,因此企業(yè)領(lǐng)導(dǎo)者有時(shí)渴望引入可以提供幫助的自動(dòng)化技術(shù)削減開支。然而,這種渴望會(huì)導(dǎo)致忽視他們正在使用的軟件的潛在負(fù)面影響。Scherer還指出,人工智能招聘軟件公司的許多說法即使不是完全錯(cuò)誤的,也往往言過其實(shí)。

他說,“特別是那些聲稱可以分析人們的面部表情、語氣、任何衡量個(gè)性方面的工具,而這樣的工具其實(shí)是一種萬金油式的工具。”

在視頻面試中,聲稱評(píng)估語氣、表情和應(yīng)聘者個(gè)性的工具可以評(píng)估應(yīng)聘者在文化上的“正常”程度,這最終可能會(huì)排除殘疾人應(yīng)聘者或任何不符合算法的應(yīng)聘者。這些工具也會(huì)讓殘疾人應(yīng)聘者處于尷尬的境地,不得不在面試前決定是否披露其所患?xì)埣?。殘疾人?yīng)聘者可能會(huì)擔(dān)心如果不披露,他們將無法獲得應(yīng)聘所要求的條件,因此不愿意在招聘過程的早期披露殘疾的事實(shí),或者根本不披露。

正如Rentschler指出的那樣,黑人和有色人種(BIPOC)、女性和殘疾人應(yīng)聘者通常習(xí)慣于在面試中進(jìn)行“代碼轉(zhuǎn)換”的做法——即這些代表性不足的群體對(duì)他們的說話、外表或行為方式進(jìn)行某些調(diào)整,在這種情況下,人工智能系統(tǒng)可能會(huì)意識(shí)到這一點(diǎn),錯(cuò)誤地將其行為認(rèn)定為不真實(shí)或不誠實(shí),從而拒絕潛在的優(yōu)秀應(yīng)聘者。

Scherer將這種歧視分為兩類:具有不同的影響是無意歧視;區(qū)別對(duì)待是故意歧視。因此很難設(shè)計(jì)一種可以避免不同影響的工具,而不明確偏袒來自特定群體的應(yīng)聘者,這將構(gòu)成法律規(guī)定的不同待遇。

人工智能招聘規(guī)定

人工智能是一種相對(duì)較新的技術(shù),在涉及隱私和貿(mào)易實(shí)踐的立法、政策和法律時(shí)缺乏監(jiān)管。Winters提到了EPIC公司在2019年向美國聯(lián)邦貿(mào)易委員會(huì)提出的申訴,指控HireVue公司在其招聘軟件中使用與面部識(shí)別相關(guān)的欺騙性商業(yè)行為。

HireVue聲稱提供的軟件可以跟蹤和分析應(yīng)聘者的言語和面部動(dòng)作,以便能夠分析適合度、情商、溝通技巧、認(rèn)知能力、解決問題的能力等等。HireVue公司最終撤回了其面部識(shí)別聲明以及這種技術(shù)在其軟件中的使用。

但Winters指出,也有類似的技術(shù)衡量主觀行為屬性并與組織適合度相匹配,或者使用人工智能在互聯(lián)網(wǎng)上搜索關(guān)于應(yīng)聘者陳述的公開信息,然后分析潛在的危險(xiǎn)信號(hào)或匹配。

人們還擔(dān)心人工智能在分析應(yīng)聘者的視頻面試、評(píng)估、簡(jiǎn)歷、LinkedIn個(gè)人資料或其他公共社交媒體個(gè)人資料時(shí)可以收集的有關(guān)應(yīng)聘者的數(shù)據(jù)量。在通常情況下,應(yīng)聘者甚至可能不知道他們?cè)诿嬖囘^程中被人工智能工具分析,并且很少有關(guān)于如何管理這些數(shù)據(jù)的規(guī)定。

Winters說,“總的來說,目前對(duì)人工智能招聘工具的監(jiān)管很少。美國已經(jīng)出臺(tái)了一些州或地方法案。但是,這些法案中有許多存在重大漏洞。人工智能技術(shù)的應(yīng)用應(yīng)該具有高度的透明度。因此需要對(duì)這些工具的應(yīng)用進(jìn)行控制,嚴(yán)格限制數(shù)據(jù)的收集、使用和保留,以及自由發(fā)布的獨(dú)立第三方測(cè)試。”

在招聘中負(fù)責(zé)任地使用人工智能

Rentschler和她的團(tuán)隊(duì)專注于尋找使用人工智能技術(shù)來幫助企業(yè)人力資本更具戰(zhàn)略性的方法。他們已經(jīng)實(shí)施了一些工具,可以使用基于技能的評(píng)估來快速篩選應(yīng)聘者,以了解他們申請(qǐng)的職位,并安排面試以與招聘人員聯(lián)系。BMC軟件公司還使用人工智能來識(shí)別其職位描述中的有問題的語言,確保它們對(duì)每個(gè)應(yīng)聘者都是中性和包容的。BMC公司還使用該軟件在入職過程中將新員工與其福利和內(nèi)部組織信息聯(lián)系起來。Rentschler的目標(biāo)是找到實(shí)施人工智能和自動(dòng)化的方法,以幫助其團(tuán)隊(duì)中的人員更有效地完成工作,而不是取代他們。

雖然人工智能算法可能會(huì)根據(jù)歷史的招聘數(shù)據(jù)帶來固有的偏見,但避免這種情況的一種方法是更多地關(guān)注基于技能的招聘。Rentschler的團(tuán)隊(duì)僅使用人工智能工具來識(shí)別具有他們希望添加到員工隊(duì)伍中的特定技能組合的應(yīng)聘者,而忽略其他標(biāo)識(shí)符,例如教育、性別、姓名和其他可能在歷史上將應(yīng)聘者排除在外的潛在識(shí)別信息過程。Rentschler說,通過這樣做,BMC軟件公司聘請(qǐng)了背景出乎意料的應(yīng)聘者,其中包括一名敘利亞難民,他原本是一名牙醫(yī),但也有一些編碼經(jīng)驗(yàn)。由于該系統(tǒng)只專注于尋找具有編碼技能的應(yīng)聘者,這位前牙醫(yī)通過了篩選并被該公司聘用。

采取的其他道德策略包括建立制衡機(jī)制。Scherer表示,有一家公司設(shè)計(jì)了一種工具,可以將潛在應(yīng)聘者的簡(jiǎn)歷發(fā)送給招聘人員,然后招聘人員會(huì)審查他們的簡(jiǎn)歷,并決定他們是否適合這份工作。即使那名招聘人員拒絕了簡(jiǎn)歷,應(yīng)聘者的簡(jiǎn)歷仍然會(huì)再次通過算法發(fā)送給其他的招聘人員。如果它被標(biāo)記為一名良好的潛在應(yīng)聘者,它會(huì)被發(fā)送給另一名不知道已經(jīng)被其他人審查過的招聘人員。這確保了簡(jiǎn)歷由人工復(fù)核,并且他們不完全依賴人工智能系統(tǒng)來確定合格的應(yīng)聘者,還確保招聘人員不會(huì)忽視合格的應(yīng)聘者。 

Scherer說,“重要的是,人類需要保持判斷力,而不僅僅依賴機(jī)器。這就是很難進(jìn)行訓(xùn)練的事情,因?yàn)閷?duì)于招聘人員來說,最容易做的事情就是,‘如果公司希望我使用這個(gè)工具,我將按照機(jī)器告訴我的任何事情去做。”

 

責(zé)任編輯:華軒 來源: 企業(yè)網(wǎng)D1Net
相關(guān)推薦

2022-09-08 14:17:44

人工智能AI

2009-02-12 14:54:00

虛擬化虛擬化技術(shù)

2012-05-19 22:45:21

手機(jī)

2021-06-15 15:39:50

人工智能AI

2020-08-14 16:28:51

人工智能

2021-11-05 09:56:36

人工智能AI指數(shù)

2020-07-01 07:20:58

人工智能機(jī)器人技術(shù)

2020-07-24 20:54:28

人工智能邊緣計(jì)算

2023-06-07 17:20:19

人工智能攝影

2019-11-04 09:24:27

人工智能技術(shù)數(shù)據(jù)

2022-08-18 14:37:39

人工智能社交媒體數(shù)字化

2020-12-16 10:14:37

人工智能物聯(lián)網(wǎng)AI

2023-07-10 18:33:32

人工智能

2024-04-22 07:00:00

人工智能

2021-07-21 10:24:28

人工智能AI深度學(xué)習(xí)

2021-11-23 18:12:00

人工智能AI

2019-11-06 09:44:55

人工智能數(shù)據(jù)德勤

2023-05-09 13:56:33

2017-04-18 09:12:06

人工智能SEO技術(shù)

2022-10-08 23:54:26

人工智能垃圾分揀機(jī)器人
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)