人工智能技術(shù)開發(fā)人員應(yīng)遵循的7條道德準則
人工智能在過去的幾年中取得了長足的進步。用人工智能技術(shù)創(chuàng)建的解決方案是無法想象的。但是,人工智能系統(tǒng)有可能發(fā)展到可以完全自主地在幾秒鐘內(nèi)做出復(fù)雜決策的地步。這種進步的陰暗面是,AI技術(shù)將獲得完全的自主權(quán),超越人類的決定,并可能對人類造成傷害。
如果不檢查這項技術(shù),在人工智能系統(tǒng)變壞的電影中,如《終結(jié)者》、《 Wall-E,2001年:太空漫游》和《復(fù)仇者聯(lián)盟:奧創(chuàng)紀元》等電影中演示的場景可能成為現(xiàn)實。因此,調(diào)節(jié)人工智能技術(shù)的潛在無限能力變得必要。
為此,開發(fā)人員需要滿足一些特定的AI原則,以確保在AI系統(tǒng)的生命周期內(nèi)不會違反道德規(guī)范。這樣可以確保AI系統(tǒng)不會傷害任何個人。這些原則可以幫助降低安全風險,提高用戶之間的信任度,并有助于通過AI解決方案更好地采用和取得成果。
在開發(fā)AI解決方案時,開發(fā)人員需要遵循某些原則,以確保軟件的安全性不會受到損害,并且該軟件將一勞永逸。開發(fā)人員可以關(guān)注的一些原則包括:
開發(fā)人員需要遵循的道德AI原則
1. 以人為本
在概念化AI解決方案時,只有AI系統(tǒng)在整個生命周期中對個人、企業(yè)和整個人類都有利的情況下,開發(fā)人員才應(yīng)該繼續(xù)開發(fā)。開發(fā)AI解決方案,應(yīng)該以主要造福和改善人類生活,而不是達到破壞性的目的。
人工智能系統(tǒng)應(yīng)與人類價值觀保持一致,促進人權(quán),尊重個人意見,提高生活水平,挽救生命,甚至保護環(huán)境。教育和醫(yī)療保健部門是兩個最重要的部門,可以從以人為本的AI技術(shù)中受益。人工智能解決方案可以幫助提高教育質(zhì)量,這將幫助學生找到更好的工作機會,進而幫助改善此類人的生活質(zhì)量。
同樣,在醫(yī)療保健行業(yè)中使用AI技術(shù)可以潛在地挽救生命。但是,人工智能技術(shù)的使用不應(yīng)僅限于這兩個領(lǐng)域,而可以在企業(yè)資源規(guī)劃、石油和天然氣運營、娛樂和環(huán)境保護等其他領(lǐng)域得到利用。
2. 風險警覺
創(chuàng)建AI系統(tǒng)時應(yīng)采用基于風險的方法。開發(fā)人員應(yīng)確定與特定AI系統(tǒng)相關(guān)的所有風險。并且,只有在風險很小或不存在的情況下,他們才應(yīng)著手開發(fā)AI系統(tǒng)。
例如,當開發(fā)人員使用面部識別技術(shù)時,他們應(yīng)該評估該技術(shù)可能出錯的所有方面。他們應(yīng)確保面部識別技術(shù)不會傷害任何個人。例如,面部識別技術(shù)并不是萬無一失的,它會導致錯誤的定罪。因此,開發(fā)人員在創(chuàng)建這樣的系統(tǒng)時,應(yīng)確保該技術(shù)具有盡可能少的風險。所以,開發(fā)人員在使用AI技術(shù)時不應(yīng)對風險意識,評估和管理視而不見。
3. 可靠性
如上所述,人工智能系統(tǒng)應(yīng)盡可能減少與之相關(guān)的風險。開發(fā)人員應(yīng)致力于創(chuàng)建高度可靠的AI解決方案。解決方案應(yīng)在其整個生命周期內(nèi)按預(yù)期工作。它包括確保解決方案在每個階段都是高度準確、可靠和可預(yù)測的。它們不應(yīng)給可能受到這些系統(tǒng)影響的用戶帶來風險。
因此,開發(fā)人員應(yīng)確保定期監(jiān)視和測試系統(tǒng),以檢查AI解決方案是否正常運行。如果發(fā)現(xiàn)任何缺點,則應(yīng)立即解決。最重要的是,開發(fā)人員必須在整個生命周期中確保AI系統(tǒng)的穩(wěn)定性和安全性。
4. 問責制
無論自主和自力更生的人工智能技術(shù)如何發(fā)展,人工監(jiān)督和監(jiān)控仍然絕對必要。無論AI系統(tǒng)多么可靠或先進,都應(yīng)啟用人工監(jiān)督功能。負責開發(fā)各個階段的個人必須是可識別的,并且應(yīng)對AI系統(tǒng)導致的結(jié)果負責。必須建立確保責任和責任的機制。它包括監(jiān)視所有涉及的過程,從概念到開發(fā),再到部署到運營階段。如果發(fā)現(xiàn)個人對AI系統(tǒng)的不正確使用負責,則應(yīng)采取適當?shù)拇胧?/p>
5. 合規(guī)性
人工智能系統(tǒng)的設(shè)計應(yīng)足夠靈活,以適應(yīng)新的政府法規(guī),反之亦然。 AI系統(tǒng)的開發(fā)方式應(yīng)使其無需進行許多更改即可符合新法規(guī)。同樣,政府應(yīng)以不嚴重影響AI系統(tǒng)的方式起草新的法律和法規(guī)。在創(chuàng)造新的AI技術(shù)的自由與政府的規(guī)則,法規(guī)和合規(guī)性之間需要保持平衡。這可以通過相關(guān)各方之間的相互理解,伙伴關(guān)系和溝通來實現(xiàn)。
此外,當AI系統(tǒng)對個人、企業(yè)、社區(qū)或環(huán)境產(chǎn)生重大影響時,應(yīng)制定相關(guān)規(guī)定,使人們可以質(zhì)疑相關(guān)AI系統(tǒng)的采用,可用性和結(jié)果。
6. 隱私權(quán)
至少可以說,可用于開發(fā)AI系統(tǒng)的公共和私有數(shù)據(jù)量令人擔憂。開發(fā)人員在使用AI系統(tǒng)時必須確保尊重隱私和數(shù)據(jù)保護。它包括確保適當?shù)毓芾砗凸芾鞟I系統(tǒng)在其生命周期中生成和使用的數(shù)據(jù)。開發(fā)人員必須確保保持數(shù)據(jù)和信息的自主權(quán),以免被黑客或詐騙者濫用。因此,應(yīng)該有適當?shù)臄?shù)據(jù)安全措施來保護用戶數(shù)據(jù)并確保隱私。
7. 成本效益
開發(fā)的AI系統(tǒng)應(yīng)為企業(yè)和最終用戶負擔得起。開發(fā)人員應(yīng)確保AI系統(tǒng)價格合理,即使該技術(shù)是專有技術(shù)也可以使很多人受益。開發(fā)人員甚至可以免費提供該技術(shù),或者在開源平臺上共享源代碼,以供其他用戶改進和利用。 AI系統(tǒng)的維護成本也應(yīng)該是最低的。
近年來,關(guān)于AI的倫理學提出了一些問題。是的,在某些情況下,人工智能技術(shù)被濫用或自行做出可疑的決定。不僅是普通人,而且包括領(lǐng)導人和科學家,如斯蒂芬·霍金,比爾·蓋茨和埃隆·馬斯克,都對AI技術(shù)表示了擔憂。
因此,需要檢查AI系統(tǒng)。作為朝這個方向邁出的一步,白宮提出了自己的一套AI原則,需要遵循。這些措施包括鼓勵公眾參與,確??茖W完整性和信息質(zhì)量,透明度和許多其他原則。開發(fā)人員必須確保AI系統(tǒng)遵守白宮概述的道德和原則,并遵守上述規(guī)定,以確保其解決方案在道德上合理。