2020年的5次AI和分析的災難(事故)
在當今隨著新技術的進步,我們都知道數據的重要性。數據是新的石油。它已成為數字生態(tài)系統(tǒng)中最重要的支柱之一。組織依賴于有助于實現業(yè)務目標的數據。每枚硬幣都有兩個方面,每一項積極的技術都會帶來一些負面影響,這些負面影響可能會使組織在收入和聲譽方面付出沉重的代價。
處理數據很重要。跟蹤數據,理解數據并隨其增長是至關重要的。但是同樣重要的是,了解數據,了解最合適的工具并牢記公司目標至關重要。
在此文章中,我們將討論對IT市場產生負面印象的5種分析和AI錯誤。
1. 因為超過電子表格數據限制導致丟失病例
2020年10月,負責清點新的COVID-19感染的英國政府機構英國公共衛(wèi)生(PHE)透露,在9月25日至10月2日之間未報告近16,000例冠狀病毒病例。Microsoft Excel中的數據限制。但是,由于Excel數據限制,僅在一個工作表中列出了16,384列和1,048,576行。PHE以列格式列出,最終丟失了記錄轉換成的記錄。即使發(fā)現了數據,然后將報告發(fā)送給了患者,這種技術故障也扼殺了合同的追蹤工作。
"小故障"并沒有阻止接受測試的人接收其結果,但是它確實阻礙了聯(lián)系追蹤的工作,使英國國家衛(wèi)生局(NHS)難以識別并通知與感染患者密切聯(lián)系的個人。
2. 亞馬遜AI招聘工具僅推薦男性
亞馬遜在其招聘流程中使用基于AI的招聘工具,該工具可以輕松篩選成千上萬張簡歷和個人資料,以找到最適合該職位的候選人,同時給出1到5的評分。該工具的缺點是訓練數據集基于AI的工具中使用的大多數男性候選人。因此,該系統(tǒng)對女性申請人和首選男性申請人進行了處罰。
該公司試圖編輯該工具以使其中立,但最終決定不能保證它不會學習其他分類候選人的歧視性方式,從而結束了該項目。
3. 訓練有素的微軟對話機器人發(fā)出種族主義推文

在2016年,微軟使用Twitter交互來訓練Chatbot機器學習算法,結果證明這是一場災難。AI聊天機器人Tay是根據具有自然語言處理和機器學習功能的少女角色開發(fā)的,但最終發(fā)現超過95,000條推文,表明他們是厭惡,種族主義和反猶太人的推文。
微軟研究與孵化公司副總裁彼得·李(Peter Lee)表示:"對于泰伊(Tay)的無意冒犯性和令人發(fā)指的推文,我們深表歉意。這些推文并不代表我們是誰,我們代表什么,也不代表我們如何設計泰伊(Tay)。事件發(fā)生后,在Microsoft官方博客上的帖子中寫道。
機器學習和人工智能如何改變電子商務的面貌?|數據驅動…如今,這家電子商務開發(fā)公司整合了先進技術,將客戶體驗提升到了一個新的高度……
4. 醫(yī)療算法忽略了黑人患者
2019年,《科學》雜志的一項研究表明,保險公司和醫(yī)院使用的醫(yī)療保健預測算法最有可能在確定高風險護理管理計劃的同時將黑人患者拒之門外。該計劃的動機是培訓初級保健和護理人員以監(jiān)測慢性病患者,以降低嚴重并發(fā)癥的發(fā)生率。但是,該算法建議白人患者,而黑人患者則處于高風險中。此算法包含一些因素,使其代表這樣的結果,包括保險,低收入,醫(yī)療保健等。
研究發(fā)現,該算法使用醫(yī)療保健支出作為確定個人醫(yī)療保健需求的代理。但是根據《科學美國人》的報道,較病的黑人患者的醫(yī)療保健費用與較健康的白人的醫(yī)療費用相當,這意味著即使他們的需求更大,他們的風險評分也較低。
該研究的研究人員認為,可能有一些因素在起作用。首先,有色人種的收入較低的可能性更高,即使有保險,也可能使他們獲得醫(yī)療服務的可能性降低。內隱的偏見也可能導致有色人種獲得較低質量的護理。
5. Target 分析程序侵犯了隱私
深入了解客戶世界的最簡單方法是借助數據。借助預測分析,可以深入了解用戶的狀況。但是,Target的營銷部門使用此算法來找到懷孕的客戶。由于家庭中有關懷孕少女的最新消息導致令人毛骨悚然的結果,結果很快成為災難。使用該算法的動機是分析用戶的習慣,但結果卻完全不同。
與所有其他大型零售商一樣,塔吉特(Target)一直通過購物者代碼,信用卡,調查等收集有關其客戶的數據。它將數據與所購買的人口統(tǒng)計數據和第三方數據混合在一起。通過處理所有數據,Target的分析團隊可以確定Target出售的大約25種產品可以一起分析以產生"懷孕預測"得分。然后,營銷部門可以通過優(yōu)惠券和營銷信息來針對高分客戶。
原文鏈接:
https://medium.com/datadriveninvestor/5-ai-and-analytics-disasters-in-2020-efcc8848bf78)