負責任地使用AI如何創(chuàng)造更安全的在線空間
- 人工智能算法對人類生活和更廣泛的社會有著巨大的影響。
- 圍繞人工智能的倫理困境包括數(shù)字差異及其武器化。
- 自治應該與人類監(jiān)督相平衡,同時應該提高對人工智能的負責任使用,以便可以利用它來解決歧視問題。
在計算機進步、數(shù)據(jù)科學和龐大數(shù)據(jù)集的可用性的推動下,人工智能 (AI) 已成為強大的日?,F(xiàn)實和商業(yè)工具。大型科技公司如谷歌、亞馬遜和Meta現(xiàn)在正在開發(fā)基于人工智能的系統(tǒng)。該技術可以模仿人類語言、檢測疾病、預測犯罪活動、起草法律合同、解決可訪問性問題,并比人類更好地完成任務。對于企業(yè)而言,人工智能有望預測業(yè)務成果、改進流程并以大幅節(jié)省成本的方式提高效率。
但人們對人工智能的擔憂仍在增加。
人工智能算法已經(jīng)變得如此強大,一些專家將人工智能標記為有感知能力以至于任何腐敗、篡改、偏見或歧視都可能對組織、人類生活和社會產(chǎn)生巨大影響。
數(shù)字鑒別
人工智能決策越來越大規(guī)模地影響和改變?nèi)藗兊纳?。不負責任地使用它們會加劇現(xiàn)有的人類偏見和歧視性措施,例如種族定性、行為預測或性取向識別。之所以會出現(xiàn)這種固有的偏見,是因為 AI 的好壞取決于我們可以提供的訓練數(shù)據(jù)量,而這很容易受到人類偏見的影響。
當機器學習算法在未充分代表某些族群(例如女性、有色人種或特定年齡人口統(tǒng)計數(shù)據(jù)的人)的數(shù)據(jù)上進行訓練和測試時,也會出現(xiàn)偏差。例如,研究表明,有色人種特別容易受到面部識別技術算法偏差的影響。
使用中也會出現(xiàn)偏差。例如,為特定應用設計的算法可能會用于非預期目的,這會導致對輸出的誤解。
驗證 AI 性能
人工智能主導的歧視可能是抽象的、不直觀的、微妙的、無形的和難以察覺的。源代碼可能會受到限制,或者審計人員可能不知道算法是如何部署的。進入算法以查看其編寫方式和響應方式的復雜性不容小覷。
當前的隱私法依賴于通知和選擇;因此,很少有人閱讀由此產(chǎn)生的要求消費者同意冗長的隱私政策的通知。如果將此類通知應用于人工智能,將對消費者和社會的安全和隱私產(chǎn)生嚴重后果。
人工智能作為武器
雖然真正的人工智能惡意軟件可能還不存在,但假設人工智能惡意軟件會增強攻擊者的能力并不牽強。可能性是無窮無盡的——從環(huán)境中學習以識別和利用新漏洞的惡意軟件、針對基于人工智能的安全性進行測試的工具或可以用錯誤信息毒害人工智能的惡意軟件。
由人工智能操縱的數(shù)字內(nèi)容已經(jīng)被用于實時創(chuàng)建超逼真的個人合成副本(也稱為深度偽造)。因此,攻擊者將利用深度偽造來制造針對性很強的社會工程攻擊、造成經(jīng)濟損失、操縱輿論或獲得競爭優(yōu)勢。
“人工智能主導的歧視可能是抽象的、不直觀的、微妙的、無形的和難以察覺的。源代碼可能會受到限制,或者審計人員可能不知道算法是如何部署的?!薄?nbsp;Steve Durbin,信息安全論壇首席執(zhí)行官
減輕與人工智能相關的風險
由于人工智能決策越來越大規(guī)模地影響和影響人們的生活,企業(yè)有道德、社會和信托責任以合乎道德的方式管理人工智能的采用。他們可以通過多種方式做到這一點。
1、將道德轉化為指標
道德 AI 遵守明確定義的道德準則和基本價值觀,例如個人權利、隱私、非歧視,重要的是,非操縱。組織必須建立明確的原則來識別、衡量、評估和減輕人工智能主導的風險。接下來,他們必須將它們轉化為實用的、可衡量的指標,并將其嵌入日常流程中。
2、了解偏見的來源
擁有正確的工具來調(diào)查偏見的來源并了解決策中公平的影響對于開發(fā)道德人工智能絕對至關重要。識別使用機器學習的系統(tǒng),確定它們對業(yè)務的重要性,并針對 AI 引起的偏差實施流程、控制和對策。
3、平衡自主權與人工監(jiān)督
組織應建立一個跨領域倫理委員會,監(jiān)督組織和供應鏈中人工智能系統(tǒng)引入的風險的持續(xù)管理和監(jiān)控。委員會必須由來自不同背景的人組成,以確保對所有道德問題的敏感性。
算法的設計必須考慮到專家的意見、情境知識和對歷史偏見的認識。必須在關鍵領域(例如在金融交易中)強制執(zhí)行人工授權流程,以防止它們被惡意行為者破壞。
4、賦予員工權力并提升負責任的人工智能
培育一種文化,使個人能夠在不扼殺創(chuàng)新的情況下提出對人工智能系統(tǒng)的擔憂。通過透明地處理角色、期望和責任來建立對 AI 的內(nèi)部信任和信心。認識到對新角色的需求并積極提升技能、重新技能或雇用。
如果需要,可以通過提供更好的控制權和對追索權的訪問來授權用戶。強大的領導力對于賦予員工權力和將負責任的人工智能提升為業(yè)務必要性也至關重要。
5、利用人工智能解決歧視問題
程序化檢查是評估人類公平性的傳統(tǒng)方法,可以通過在人類決策過程中運行算法、比較結果并解釋機器主導決策背后的原因來從人工智能中受益。另一個例子是麻省理工學院關于打擊系統(tǒng)性種族主義的研究計劃,該計劃致力于開發(fā)和使用計算工具在社會的許多不同部門創(chuàng)造種族平等。