如何確保人工智能實施的道德部署?
自動化和機器技術(如人工智能和機器學習)的顯著增長無疑為以組織帶來了全新的規(guī)模和服務水平。
我們可能都期望人工智能的優(yōu)勢之一是有機會消除人為主導的偏見并改善對少數(shù)群體的歧視。然而,如果管理不善,人工智能可以通過在其算法中嵌入偏見來進一步強化歧視。
今天,機器通常會決定我們是否有資格獲得抵押貸款或受到執(zhí)法機構或尋求打擊欺詐的保險公司的監(jiān)視。他們的影響力甚至延伸到決定您在網(wǎng)上看到哪些廣告——包括高薪職位的招聘廣告。
有許多組織的自動化系統(tǒng)中的人工智能沒有得到很好的記錄或理解。是時候讓自動化決策走出陰影并承擔責任了。
當自動化決策直接或間接影響人們的生活,并且機器可能以有害的方式進行歧視時,企業(yè)組織必須站起來,注意并采取行動,以確保盡可能合乎道德地實施人工智能。
第一步
企業(yè)和政府組織都應該努力獲得最高水平的保護,以免受他們部署的任何機器技術的傷害。在任何自動化項目開始時,組織必須進行法律、隱私和道德影響評估,以確認風險得到充分理解并且可以得到令人滿意的緩解。這也確保選擇最合適的解決方案來建立可接受的風險水平,同時提供價值。
這些評估的簽署應由一個多學科的客觀審查小組進行,該小組對項目的任何問題方面擁有否決權,包括部署方式、自動化水平和追索機會。部署必須是數(shù)據(jù)/技術團隊和業(yè)務領導團隊之間的協(xié)作過程,以在數(shù)據(jù)和分析中實施最佳實踐道德規(guī)范。
部署
監(jiān)察員報告中概述了有關設計和實施機器技術的良好做法的一些強有力的建議。盡管如此,我們認為所有組織都有義務至少考慮以下最佳實踐:
- 公平、透明、非惡意、隱私、尊重自主權和問責制的倫理考慮要求任何實施任何機器技術的組織都必須確保其對所有受影響群體的執(zhí)行達到最高水平的準確性;
- 有一種機制可以根據(jù)模型或系統(tǒng)的輸出來解釋任何決策;
- 有檢測和減輕有害結果的流程
- 人們可以給予知情同意以參與該過程
- 有機制來質疑任何被認為是不公正的結果。
任何機器技術的開發(fā)和部署都應該是迭代的,首先是根據(jù)歷史數(shù)據(jù)對準確性進行倫理審查,確保整個樣本群體的性能保持一致。如果某些組的表現(xiàn)明顯較差,則必須尋找更多數(shù)據(jù)以確保所有組的充分代表性。
在識別出有害后果的風險時,部署應該同樣是迭代和謹慎的,從人在環(huán)解決方案開始,以確保在獲得對模型或系統(tǒng)性能的信心的同時進行人工監(jiān)督。
這并不是說人類的決策過程是萬無一失的。它只是提供了一個在部署前了解和詢問輸出的機會。此過程應與最受信任的操作員一起完成,以減少將人為偏見重新引入該過程的可能性。此外,參與該過程的每個人都應該進行無意識的偏見培訓。
一旦投入生產,任何機器技術的持續(xù)精度和性能都必須持續(xù)測量和監(jiān)控。與現(xiàn)有 KPI 一起,該績效應在整個組織中可報告和可見。
審查
任何實施算法決策的組織都需要有一個客觀的倫理審查過程,包括定量和定性的考慮。應根據(jù)這些道德指標監(jiān)控模型性能,以了解少數(shù)群體的性能異常以及性能隨時間的任何變化。然后,作為運營過程的一部分,該模型可以持續(xù)進行調整和調整。
雖然實施似乎令人生畏,但組織必須在其人工智能和機器學習項目中提高對道德考慮的理解和實施。企業(yè)應采用“問題-審查-衡量-改進”的方法來管理其自動化決策的績效和影響,以確保道德結果。