自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

負責任地部署人工智能的四項原則

人工智能
在本文中,Seldon的機器學習工程總監(jiān)Alejandro Saucedo分享了使用人工智能的最佳實踐。

人工智能 (AI) 正在改變每個行業(yè),超過三分之一的組織現(xiàn)在廣泛或有限地生產(chǎn)人工智能。但與任何技術一樣,人工智能也伴隨著巨大的經(jīng)濟和社會風險,例如不道德偏見的擴散、責任的淡化和數(shù)據(jù)隱私的侵犯。

為了避免這些風險并負責任地部署人工智能,監(jiān)管政策和行業(yè)都有責任為圍繞該技術工作的從業(yè)者和用戶制定流程和標準。為此,道德 AI 和 ML 研究所的團隊匯總了負責任的 AI 原則,以授權從業(yè)者確保這些原則通過設計嵌入到圍繞生產(chǎn) AI 和機器學習系統(tǒng)的基礎設施和流程中。

本文對八項原則中的四項進行了細分:偏見評估、可解釋性、人工增強和可重復性。

偏見評估

在某種意義上,人工智能模型帶有固有的偏見,因為它們被設計用來區(qū)別對待相關的答案。這是因為智能的核心是識別我們在世界上看到的模式并對其采取行動的能力。在開發(fā)人工智能模型時,我們試圖復制這種準確的能力,并鼓勵人工智能在輸入的數(shù)據(jù)中發(fā)現(xiàn)模式,并產(chǎn)生相應的偏見。例如,一個研究蛋白質(zhì)化學數(shù)據(jù)的模型會天生地對那些結構可以以某種方式折疊的蛋白質(zhì)產(chǎn)生相關的偏見,從而發(fā)現(xiàn)哪些蛋白質(zhì)在醫(yī)學的相關用例中有用。

因此,我們在公開反對人工智能偏見時應該小心謹慎。圍繞人工智能偏見的話題,我們通常指的是實際上不受歡迎或不合理的偏見,例如基于受保護特征(如種族、性別或國籍)的偏見。

但為什么人工智能模型會產(chǎn)生不道德的偏見呢?答案取決于它輸入的數(shù)據(jù)。模型最終會反映出它們在部署之前使用的訓練數(shù)據(jù)中存在的偏見,所以如果訓練數(shù)據(jù)不具有代表性或合并了預先存在的偏差,那么生成的模型最終將反映它們。就像他們在計算機科學里說的“無用輸入無用輸出”。

團隊還必須創(chuàng)建一系列流程和程序,以正確識別圍繞 AI 訓練數(shù)據(jù)、模型本身的訓練和評估以及模型本身運營生命周期的有效性的任何不良偏差。如果您正在部署 AI,則值得關注的一個很好的例子是道德 AI 和機器學習研究所的eXplainable AI 框架,接下來我們將對此進行更詳細的介紹。

可解釋性 

為了確保AI模型符合目的,相關領域?qū)<业膮⑴c也很重要。這些人可以幫助團隊確保AI模型使用正確的性能指標,而不僅僅是統(tǒng)計數(shù)據(jù)和準確性驅(qū)動的性能指標。值得強調(diào)的是,領域?qū)<也粌H包括技術專家,還包括與用例相關的社會科學和人文學科專家。

不過,要使其發(fā)揮作用,確保模型的預測能夠由相關領域?qū)<医忉屢彩呛苤匾?。然而,先進的人工智能模型通常使用最先進的深度學習技術,這可能不能簡單地解釋為什么會做出特定的預測。

為了克服這一困難,組織傾向于利用多種技術和工具來實現(xiàn)機器學習的可解釋性,這些技術和工具可用于破譯 AI 模型的預測。

在可解釋性之后是人工智能模型的操作化。這是由相關利益相關者進行調(diào)查和監(jiān)控的時候。此類 AI 模型的生命周期只有在正確部署到生產(chǎn)環(huán)境后才開始。一旦啟動并運行,模型才會因為外部壓力而遭受性能下降,無論是概念漂移還是模型運行環(huán)境的變化。

人類增強

在部署AI時,首先評估原始非自動化流程的當前需求至關重要,包括概述不良結果的風險。這將允許對過程有更深入的理解,并有助于確定哪些領域可能需要人工干預來降低風險。

例如,向職業(yè)運動員推薦膳食計劃的人工智能的高影響風險因素遠少于為銀行自動化后端貸款審批流程的人工智能模型,這表明對前者而言,人工干預的必要性要小于后者。當團隊確定AI工作流的潛在風險點時,他們可以考慮實施“ 人機回圈 ”的審查過程(HITL)。

HITL確保在流程自動化之后,仍然存在各種接觸點,其中需要人工干預來檢查結果,從而更容易在必要時提供糾正或撤銷決策。這個過程可以包括技術專家和行業(yè)專家團隊(例如,銀行貸款的承銷商,或膳食計劃的營養(yǎng)師),以評估人工智能模型做出的決定,并確保它們遵守最佳實踐。

可重復性

可重復性是指團隊在數(shù)據(jù)點上重復運行算法并每次都得到相同結果的能力。這是負責任的 AI 的核心組成部分,因為它對于確保模型之前的預測在稍后階段重新運行時重新發(fā)布至關重要。

自然地,再現(xiàn)性很難實現(xiàn),這主要是由于人工智能系統(tǒng)內(nèi)在的困難。這是因為 AI 模型的輸出可能會因各種背景情況而異,例如:

  • 用于計算 AI 干擾的代碼
  • 從使用的數(shù)據(jù)中學習到的權重
  • 運行代碼的環(huán)境、基礎架構和配置
  • 提供給模型的輸入和輸入結構

這是一個復雜的問題,尤其是當一個 AI 模型被大規(guī)模部署并需要考慮無數(shù)其他工具和框架時。為此,團隊需要開發(fā)穩(wěn)健的實踐來幫助控制上述情況,并實施工具來幫助提高可重復性。

關鍵要點

借助上述高級原則,行業(yè)可以確保遵循最佳實踐來負責任地使用人工智能。采用此類原則對于確保人工智能充分發(fā)揮其經(jīng)濟潛力至關重要,并且不會削弱弱勢群體的權力、強化不道德的偏見或削弱問責制。相反,它可以成為我們可以用來推動增長、生產(chǎn)力、效率、創(chuàng)新和為所有人帶來更大利益的技術。

責任編輯:華軒 來源: 千家網(wǎng)
相關推薦

2023-07-11 14:41:04

2021-12-08 23:26:11

人工智能企業(yè)技術

2023-04-03 15:37:25

人工智能首席信息官

2023-09-22 14:57:56

人工智能

2024-02-28 08:49:17

人工智能數(shù)字化戰(zhàn)略性

2023-04-10 07:03:38

人工智能商業(yè)問題技術問題

2022-03-15 09:31:10

元宇宙人工智能

2021-09-13 16:07:02

人工智能AI深度學習

2022-08-17 10:26:41

AI人工智能

2024-10-11 09:12:15

2019-05-31 09:00:00

2023-10-18 13:21:24

2022-05-26 09:22:37

惡意技術負責任技術技術

2022-08-05 08:00:00

機器學習數(shù)據(jù)API

2023-07-27 06:15:07

OpenAI人工智能

2023-07-30 16:08:06

人工智能開發(fā)

2015-05-28 10:44:18

小米影響

2015-06-04 10:13:56

DCIM運維管理

2022-01-18 10:55:36

云計算CIODevSecOps
點贊
收藏

51CTO技術棧公眾號