自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

盤點近十年七大數(shù)據(jù)分析和人工智能災難事件

大數(shù)據(jù) 數(shù)據(jù)分析 人工智能
根據(jù)2022年CIO狀況調查報告,有35%的受訪IT領導者提到,數(shù)據(jù)和業(yè)務分析將是今年推動他們組織最大的一項IT投資,有20%的受訪IT領導者則提及了機器學習/人工智能。

2017年《經濟學人》宣布,數(shù)據(jù)(而非石油)已經成為世界上最有價值的資源,后來這個觀點被廣為流傳。如今,各行各業(yè)的企業(yè)組織已經在、還將繼續(xù)數(shù)據(jù)和分析方面投入大量資金。但是和石油一樣,數(shù)據(jù)和分析也有它陰暗的一面。

根據(jù)2022年CIO狀況調查報告,有35%的受訪IT領導者提到,數(shù)據(jù)和業(yè)務分析將是今年推動他們組織最大的一項IT投資,有20%的受訪IT領導者則提及了機器學習/人工智能。從機器學習算法驅動的分析和行動中獲得的洞察力可以為企業(yè)組織帶來競爭優(yōu)勢,但在聲譽、收入甚至生命方面如果發(fā)生錯誤的話,可能要付出高昂的代價。

理解你的數(shù)據(jù)以及數(shù)據(jù)給你傳遞了什么信息,這一點很重要,但了解你的工具、了解你的數(shù)據(jù)、牢記企業(yè)組織的價格也同樣重要。

下面是過去十年發(fā)生的一些備受關注的數(shù)據(jù)分析和人工智能災難事件,可以說明在采用這些技術時可能遇到的問題。

1. AI算法發(fā)現(xiàn)了一切,卻沒能預測COVID-19

自COVID-19新冠疫情大爆發(fā)以來,很多企業(yè)組織都在尋求通過使用機器學習算法來幫助醫(yī)院更快地診斷或者分類患者。但根據(jù)英國國家數(shù)據(jù)科學和人工智能中心圖靈研究所的說法,這些預測工具幾乎沒有帶來什么影響。

《麻省理工科技評論》記錄了很多失敗事件,其中大部分源于工具訓練或測試方法出現(xiàn)了錯誤,其中,使用了標記錯誤的數(shù)據(jù)或者數(shù)據(jù)來自未知來源是常見的罪魁禍首。

劍橋大學機器學習研究員Derek Driggs和他的同事在《Nature Machine Intelligence》上發(fā)表了一篇論文,探討了使用深度學習模型對病毒進行診斷。該論文最后明確,深度學習技術不適合臨床使用。例如Driggs的團隊發(fā)現(xiàn),他們自己的模型存在缺陷,因為模型訓練采用的數(shù)據(jù)集中,包括了掃描操作時躺著的患者和站立的患者的掃描文件。躺著的患者患重病的可能性更大,于是該算法學會了根據(jù)掃描中患者的位置來發(fā)現(xiàn)新冠風險。

類似的例子還包括使用含有健康兒童胸部掃描的數(shù)據(jù)集對算法進行訓練,該算法最后卻學會了識別哪個是兒童,而不是高?;颊?。

2. 購房算法失準導致Zillow損失數(shù)百萬美元、大幅裁員

2021年11月,在線房地產交易巨頭Zillow向股東表示,將在未來幾個季度結束Zillow Offers業(yè)務,并裁員25%,也就是約2000名員工,而這主要歸咎于Zillow因為用于預測房價的機器學習算法出現(xiàn)錯誤而導致了一系列后果。

Zillow Offers是一個程序,Zillow通過該程序根據(jù)機器學習算法得出的房屋價值“Zestimate”指數(shù)對房產進行現(xiàn)金報價,這么做是為了對房產快速進行翻新轉售。但是Zillow公司的一位發(fā)言人告訴CNN,該算法的中位錯誤率為1.9%,對于市場交易之外的房屋評估錯誤率可能更高,高達6.9%。

CNN報道稱,Zillow自2018年4月上線以來通過Zillow Offers買入了27000套房屋,但到2021年9月底僅售出17000套。新冠疫情大爆發(fā)和家庭裝修勞動力短缺等黑天鵝事件,導致了算法的準確性問題。

Zillow稱,該算法導致公司無意中以高于當前估價的價格買入房屋,導致2021年第三季度的庫存價格減記為3.04億美元。

Zillow公司聯(lián)合創(chuàng)始人、首席執(zhí)行官Rich Barton在公告發(fā)布后與投資者舉行的電話會議上表示,或許他們可以調整算法,但最終風險太大。

3. Excel表格數(shù)據(jù)限制導致英國數(shù)千新冠病例未被上報

2020年10月,負責統(tǒng)計新增新冠病毒感染數(shù)量的英國政府機構英國公共衛(wèi)生部(PHE)透露,在9月25日至10月2日期間,有近16000例新冠病毒病例并未上報。罪魁禍首是誰?答案是微軟Excel中的數(shù)據(jù)限制問題。

英國公共衛(wèi)生部使用自動化流程將新冠病毒陽性的實驗室結果作為CSV文件傳輸?shù)紼xcel模板中,用于報告儀表板和密接追蹤。然而不幸的是,Excel電子表格每個工作表最多支持1048576行和16384列。而且,英國公共衛(wèi)生部是按照列而不是按行輸出信息的,所以當?shù)搅?6384列限制的時候,Excel就會自動切斷剩下的15841條記錄。

雖然這個“故障”并沒有妨礙接受檢測的個人收到檢測結果,但確實妨礙了密切接觸者的追蹤工作,使英國國家衛(wèi)生服務部(NHS)更難發(fā)現(xiàn)和通知與感染患者密切接觸的個人。英國公共衛(wèi)生部臨時首席執(zhí)行官Michael Brodie在10月4日的一份聲明中表示,英國國家衛(wèi)生服務部測試和追蹤系統(tǒng)以及英國公共衛(wèi)生部迅速解決了這個問題,并將所有重大記錄立即轉移到該系統(tǒng)中。

英國公共衛(wèi)生部采取了一項“快速解決”措施,先是把大文件進行拆分,然后對所有系統(tǒng)進行了全面端到端的審查,以防止未來再發(fā)生類似事件。

4. 美國國內醫(yī)療算法未能標記黑人患者

2019年發(fā)表在《科學》雜志上的一項研究顯示,美國各地的醫(yī)院和保險公司都使用一種醫(yī)療預測算法,來識別那些需要“高風險護理管理”計劃的患者,但這種算法不太可能單獨挑出黑人患者。

這項高風險護理管理計劃旨在為慢性病患者提供訓練有素的護理人員以及初級保健監(jiān)測服務,以防止嚴重并發(fā)癥的發(fā)生。但該算法將白人患者推薦給該計劃的幾率,要高于黑人患者。

研究發(fā)現(xiàn),該算法使用醫(yī)療支出作為確定個人醫(yī)療需求的依據(jù)。但根據(jù)《科學美國人》的說法,那些病情較重的黑人患者所花費的醫(yī)療費用,與健康的白人所花費的醫(yī)療費用是差不多的,這意味著即使黑人患者的醫(yī)療需求更高,但他們的風險評分卻很低。

研究人員認為,可能有幾個因素,首先,有色人種收入較低的幾率更高,即使他們有保險,也不太可能獲得相應的醫(yī)療服務。隱性偏見也可能導致有色人種接受的護理服務質量較低。

雖然該研究并沒有公開具體的算法或者開發(fā)人員,但有研究人員告訴《科學美國人》,他們正在與開發(fā)人員合作解決這個問題。

5. 數(shù)據(jù)集訓練出的微軟聊天機器人發(fā)布種族主義推文

2016年3月,微軟發(fā)現(xiàn),使用推特交互功能作為機器學習算法的訓練數(shù)據(jù),可能會產生令人失望的結果。

微軟在推特平臺上發(fā)布了AI聊天機器人“Tay”,并將其描述為一項有關“對話理解”的實驗。微軟給這個聊天機器人設計了一個少女的角色,結合使用機器學習和自然語言處理,通過推特與用戶進行互動。微軟用匿名的公共數(shù)據(jù)和喜劇演員預先編寫的一些材料輸入到機器人中,然后讓它從社交網絡上的互動信息中進行自我學習和自我發(fā)展。

這個聊天機器人在16個小時內發(fā)布了95000多條推文,迅速變成了公然的種族主義、厭女主義和反猶太主義。微軟迅速叫停了并進行調整,但最終還是終止了該服務。

事件發(fā)生后,微軟研究與孵化部門企業(yè)副總裁Peter Lee(后來擔任了微軟醫(yī)療企業(yè)副總裁)在微軟官方博客上的一篇文章中寫道:“我們對來自Tay的無意冒犯和傷害性推文深表歉意,這些推文并不代表我們的立場,也不能代表我們設計Tay的方式?!?/p>

Lee指出,Tay的前身是微軟2014年在中國發(fā)布的小冰,在Tay發(fā)布前的兩年時間里,它已經成功地與超過4000萬人進行了對話。微軟沒有考慮到的是,一群推特用戶會立即開始向Tay發(fā)起種族主義和厭惡女性的評論,而機器人Tay也迅速地從這些信息中學習,并最終整合到自己的推文中。

“盡管我們已經為很多系統(tǒng)濫用情況做好了準備,但我們卻對這種特定的攻擊行為嚴重失察。結果就是,Tay在推特上發(fā)布了非常不恰當、應受譴責的文字和圖片?!?/p>

6. 亞馬遜AI招聘工具只推薦男性

和很多大企業(yè)一樣,亞馬遜也渴望擁有一些能夠幫助人力資源部門篩選出并找到最佳候選人的工具。2014年,亞馬遜開始開發(fā)AI招聘軟件來實現(xiàn)這一點。但有一個問題:這個非常偏愛男性候選人。2018年,路透社爆料亞馬遜取消了該項目。

亞馬遜的系統(tǒng)給候選人從1到5的星級評分,但系統(tǒng)核心的機器學習模型是根據(jù)提交給亞馬遜近10年的簡歷進行訓練的——其中大部分都是男性。因為使用這些數(shù)據(jù)進行訓練,導致系統(tǒng)開始對簡歷中包含“女性”一詞的短語給出較低評級,甚至是來自女子大學的候選人。

當時亞馬遜公司表示,亞馬遜招聘人員從未使用該工具來評估候選人。

亞馬遜試圖調整該工具以保持中立,但最終決定,無法保證該工具不會學習其他一些歧視性的候選人排序方式,而結束了該項目。

7. 零售巨頭Target分析項目侵犯隱私

2012年,零售巨頭Target的一個分析項目,展示了Target是如何從數(shù)據(jù)中洞察顧客的。據(jù)《紐約時報》報道,2002年,Target營銷部門開始思考如何確定顧客是否懷孕,最終誕生了一個預測分析項目,導致Target無意中向一名少女的家人透露她已經懷孕了。反過來,各種文章和營銷博客都開始引用該事件,建議人們避免那些“令人毛骨悚然的因素”。

Target營銷部門想要識別出懷孕的顧客,因為在懷孕這種特殊時期人們很有可能改變他們的購物習慣。這樣如果Target可以這期間觸及到這些顧客,培養(yǎng)這些顧客新的購物行為,讓他們轉向去Target購買百貨、衣服或其他商品。

和其他所有大型零售商一樣,Target一直通過購物者代碼、信用卡、調查等方式收集顧客數(shù)據(jù),然后結合購物者的人口統(tǒng)計數(shù)據(jù)和第三方數(shù)據(jù),對所有這些數(shù)據(jù)進行處理之后,Target的分析團隊就能確定,通過分析Target大約25款在售商品就能生成“懷孕預測”評分。然后,營銷部門就可以針對評分較高的顧客提供優(yōu)惠券和營銷信息。

進一步的研究表明,對顧客生育情況的研究會讓其中一些顧客感到毛骨悚然。據(jù)《泰晤士報》報道,Target沒有放棄有針對性的營銷手段,但確實開始在廣告中混入那些他們明知孕婦不會購買的東西,例如在紙尿褲廣告展示割草機廣告,通過這種廣告組合的方式讓顧客覺得沒那么刻意。

責任編輯:華軒 來源: 至頂網
相關推薦

2010-01-01 20:32:31

互聯(lián)網

2010-01-05 10:28:35

2019-10-24 07:50:52

勒索病毒勒索軟件網絡安全

2019-11-17 16:09:45

勒索病毒網絡攻擊網絡安全

2022-12-12 12:34:47

2022-11-24 18:29:33

數(shù)據(jù)中心

2020-04-26 09:35:22

人工智能IT技術數(shù)據(jù)

2015-06-11 09:39:18

災難恢復數(shù)據(jù)中心數(shù)據(jù)中心災難

2021-12-13 14:36:31

人工智能AI

2023-11-07 07:13:12

2022-02-07 14:14:42

人工智能

2020-01-10 08:36:30

數(shù)據(jù)泄露漏洞信息安全

2019-01-08 10:26:19

人工智能 Python技術

2022-05-11 09:52:16

人工智能大數(shù)據(jù)金融行業(yè)

2017-12-21 11:08:18

2018-03-18 16:10:24

2021-11-23 14:04:58

人工智能大數(shù)據(jù)技術

2018-12-28 14:48:04

2022-01-04 14:30:51

數(shù)據(jù)安全數(shù)據(jù)隱私泄露網絡安全

2022-04-06 17:48:44

數(shù)據(jù)分析梳理數(shù)據(jù)業(yè)務
點贊
收藏

51CTO技術棧公眾號