CIO如何解決實(shí)施AI過程中面臨的倫理問題
AI幾乎滿足了幾乎每個(gè)行業(yè)組織的胃口。隨著AI試點(diǎn)轉(zhuǎn)向?qū)嶋H應(yīng)用,關(guān)于道德AI必要性的討論也在增加,同時(shí)也出現(xiàn)了“公平”、“隱私”、“透明”、“責(zé)任”和最大的術(shù)語——“偏見”。
隨著AI成為人們工作和開展業(yè)務(wù)的不可或缺的一部分,確保這些措施和其他措施得到考慮是CIO們將努力應(yīng)對(duì)的一項(xiàng)艱巨任務(wù)。
對(duì)于許多CIO來說,實(shí)施可能還處于萌芽階段,但減輕AI模型中的偏見并平衡創(chuàng)新與倫理考慮已經(jīng)是他們面臨的最大挑戰(zhàn)之一,他們發(fā)現(xiàn),在技術(shù)進(jìn)步和確保AI不會(huì)導(dǎo)致有害結(jié)果之間的界限很窄。
全球咨詢企業(yè)Egon Zehnder服務(wù)和AI實(shí)踐小組成員Christoph Wollersheim指出了大多數(shù)企業(yè)在實(shí)施AI時(shí)需要關(guān)注的五個(gè)關(guān)鍵領(lǐng)域:準(zhǔn)確性、偏見、安全、透明度和社會(huì)責(zé)任。
Wollersheim最近與人合著了《董事會(huì)成員監(jiān)督AI指南》一書,他說,不幸的是,用AI實(shí)現(xiàn)100%的準(zhǔn)確率是不可能的?!罢嬲膫惱韱栴}在于企業(yè)如何防范錯(cuò)誤信息。如果向客戶提供虛假數(shù)據(jù),或者如果關(guān)鍵決策基于不準(zhǔn)確的AI響應(yīng),該怎么辦?企業(yè)的回應(yīng)既需要一個(gè)切實(shí)可行的計(jì)劃,也需要一個(gè)透明的溝通策略?!?/p>
他指出,當(dāng)AI根據(jù)歷史數(shù)據(jù)進(jìn)行訓(xùn)練時(shí),偏見可能會(huì)在不經(jīng)意間持續(xù)存在。
“執(zhí)行管理層和董事會(huì)都必須確保公平使用AI,并防止歧視。”他說,糾正偏見的研究正在進(jìn)行中,使用合成數(shù)據(jù)來處理性別、種族和民族等屬性,“但總有必要應(yīng)用以人為中心的原則。”
Wollersheim說,保護(hù)敏感信息的需要對(duì)于符合道德的AI部署來說是至關(guān)重要的,因?yàn)锳I對(duì)數(shù)據(jù)的嚴(yán)重依賴增加了入侵和未經(jīng)授權(quán)訪問的風(fēng)險(xiǎn)?!捌髽I(yè)必須加強(qiáng)防御,防止可能誤導(dǎo)AI模型并導(dǎo)致決策失誤的攻擊。確保敏感信息的安全對(duì)于道德上的AI部署是至關(guān)重要的?!八f。
至于透明度,這不僅僅與算法有關(guān),還與建立信任有關(guān),他說,“利益相關(guān)者需要理解AI是如何做出決策和處理數(shù)據(jù)的。一個(gè)透明的AI框架是道德使用、問責(zé)和維護(hù)信任的關(guān)鍵。”
企業(yè)還必須考慮指導(dǎo)他們的價(jià)值觀,以及他們?cè)谠倥嘤?xùn)、技能提升和工作保護(hù)方面的義務(wù)。Wollersheim說:“道德AI是關(guān)于為我們的勞動(dòng)力塑造一個(gè)負(fù)責(zé)任的未來?!?/p>
Wollersheim說,為了解決這些問題,建立一個(gè)AI審查委員會(huì)和實(shí)施一個(gè)道德的AI框架是至關(guān)重要的?!耙粋€(gè)道德的AI框架為每個(gè)項(xiàng)目的監(jiān)測(cè)和批準(zhǔn)提供了明確的指導(dǎo),無論是內(nèi)部的還是外部的。由技術(shù)和商業(yè)專家組成的AI審查委員會(huì)確保倫理考慮處于決策的前沿。”
以下是CIO如何在其企業(yè)中解決道德AI的問題。
讓道德AI成為一項(xiàng)團(tuán)隊(duì)運(yùn)動(dòng)
PlexusWorldwide是一家使用AI來識(shí)別欺詐性賬戶創(chuàng)建和交易的企業(yè),這家市值5億美元的全球健康和健康企業(yè)的CIO兼首席技術(shù)官艾倫·麥金托什說。麥金托什認(rèn)為,偏見從根本上說是一個(gè)數(shù)據(jù)問題。“我們?cè)噲D通過利用和驗(yàn)證多個(gè)完整的數(shù)據(jù)源來消除偏見和不正確的結(jié)果?!彼f。
麥金托什說,PlexusIT還處于在企業(yè)的電子商務(wù)平臺(tái)中使用AI的分析階段,“以獲得更好的見解,以預(yù)測(cè)和優(yōu)化客戶體驗(yàn),并增強(qiáng)個(gè)性化。我們還看到了自動(dòng)化的機(jī)會(huì),可以消除許多傳統(tǒng)的人工和重復(fù)性任務(wù)?!?/p>
他說,為了確保遵守符合道德的AI實(shí)踐,PlexusWorldwide組建了一個(gè)由IT、法律和人力資源代表組成的團(tuán)隊(duì),負(fù)責(zé)AI治理和政策的發(fā)展和演變,該團(tuán)隊(duì)確定了企業(yè)的風(fēng)險(xiǎn)容忍度、可接受的用例和限制以及適用的披露。
麥金托什說,即使有一個(gè)專注于AI的團(tuán)隊(duì),識(shí)別風(fēng)險(xiǎn)并了解組織打算如何在內(nèi)部和公開使用AI也是具有挑戰(zhàn)性的。他說,團(tuán)隊(duì)成員還必須理解并解決AI偏見、錯(cuò)誤聲明和不正確結(jié)果的內(nèi)在可能性?!案鶕?jù)用例的不同,你的企業(yè)和品牌的聲譽(yù)可能會(huì)受到威脅,因此你必須規(guī)劃有效的治理?!?/p>
考慮到這一點(diǎn),麥金托什說,CIO們“不要急于沖到終點(diǎn)線”是至關(guān)重要的。在實(shí)施和公開技術(shù)之前,企業(yè)必須創(chuàng)建一個(gè)全面的計(jì)劃,并專注于開發(fā)治理框架和AI政策。麥金托什表示,確定合適的利益相關(guān)者,如法律、人力資源、合規(guī)和隱私以及IT,是Plexus開始其道德AI過程的地方。
“然后我們制定了一份政策草案,概述了角色和責(zé)任、范圍、背景、可接受的使用指南、風(fēng)險(xiǎn)容忍度和管理以及治理,”他說,“我們繼續(xù)迭代和演變我們的政策,但它仍在發(fā)展中。我們打算在2024年第一季度實(shí)施該計(jì)劃?!?/p>
麥金托什建議尋找第三方資源和主題專業(yè)知識(shí)。麥金托什解釋說:“它將極大地幫助加快你的計(jì)劃和框架的開發(fā)和執(zhí)行,并且,根據(jù)你當(dāng)前的計(jì)劃管理實(shí)踐,為你的AI采用計(jì)劃提供相同級(jí)別或更高級(jí)別的嚴(yán)格要求?!?/p>
腳步緩慢,這樣AI就不會(huì)“失控”
CIO Matt Richard表示,代表50多萬建筑工人、公共雇員和郵件處理員的北美勞工國(guó)際聯(lián)盟(LIUNA)已經(jīng)嘗試使用AI,主要是為了文件的準(zhǔn)確性和澄清,以及撰寫合同。
他說,隨著LIUNA在2024年擴(kuò)大AI用例,“這就產(chǎn)生了一個(gè)問題,那就是我們?nèi)绾卧趥惱砩鲜褂肁I?!痹摻M織已經(jīng)開始試行Google Duet,將撰寫和談判承包商協(xié)議的過程自動(dòng)化。
Richard說,目前,工會(huì)官員沒有使用AI來識(shí)別成員的想要和需求,也沒有梳理可能敏感的招聘數(shù)據(jù),并根據(jù)模特的培訓(xùn)方式對(duì)人們產(chǎn)生偏見。
“這些都是我感到緊張的地方:當(dāng)一個(gè)模特告訴我一個(gè)人的時(shí)候,我覺得我們還沒有準(zhǔn)備好進(jìn)入這個(gè)領(lǐng)域,因?yàn)樘孤实卣f,我不相信受過公共培訓(xùn)的模特能讓我洞察我想聘用的人?!?/p>
盡管如此,Richard預(yù)計(jì)LIUNA仍將經(jīng)歷一次“自然進(jìn)化”,即未來LIUNA可能希望利用AI來獲得對(duì)其成員的洞察,以幫助工會(huì)為他們帶來更好的利益。他說,就目前而言,“我們希望如何做到這一點(diǎn),這仍然是一個(gè)灰色地帶?!?/p>
Richard說,該工會(huì)還在努力增加其會(huì)員人數(shù),其中一部分意味著使用AI來有效地識(shí)別潛在成員,“而不是識(shí)別相同的同質(zhì)性人。我們的組織非常努力,在賦予少數(shù)族裔和女性權(quán)力方面做得很好,我們希望發(fā)展這些群體?!?/p>
這就是Richard擔(dān)心AI模型如何使用的地方,因?yàn)楸苊狻皩ふ蚁嗤目贪逵∠笕丝诘耐米佣础辈⒁肫娨馕吨祟惐仨毘蔀檫@一過程的一部分。“你不能讓模特做所有的工作,”他說,“你知道你今天所處的位置,然后我們停下來說,‘好吧,人類需要介入,看看模型告訴我們什么。’”
“你不能讓AI橫沖直撞,…沒有任何干預(yù)?!彼a(bǔ)充說,組織不應(yīng)該在AI領(lǐng)域采取“簡(jiǎn)單的解決辦法”,只研究工具能做什么。“我擔(dān)心的是,人們會(huì)購(gòu)買并實(shí)施一個(gè)AI工具,然后放手信任它…,你必須小心,這些工具沒有告訴我們我們想要聽到的。“他說。
為此,Richard認(rèn)為AI可以被用作啟動(dòng)器,但I(xiàn)T領(lǐng)導(dǎo)者必須利用團(tuán)隊(duì)的直覺,“以確保我們不會(huì)落入只相信華而不實(shí)的軟件工具的陷阱,這些工具不會(huì)給我們提供我們需要的數(shù)據(jù)?!彼f。
對(duì)AI倫理的個(gè)人看法
Group的CIO Jan Cenkr表示,與LIUNA一樣,總部位于捷克的全球消費(fèi)金融提供商Home Credit也處于AI之旅的早期,使用GitHub Copilot進(jìn)行編碼和文檔流程。
Cenkr同時(shí)也是Home Credit子企業(yè)EmbedIT的首席執(zhí)行官,他說:“它在節(jié)省時(shí)間方面提供了巨大的優(yōu)勢(shì),這反過來也有有利的成本因素。”從一開始,倫理AI就是Cenkr的首要考慮因素。
“當(dāng)我們開始推出我們的AI工具試點(diǎn)時(shí),我們也在內(nèi)部就創(chuàng)建與這項(xiàng)技術(shù)的使用相配套的倫理治理結(jié)構(gòu)進(jìn)行了深入的討論,這意味著我們有真正的檢查措施,以確保我們不會(huì)違反我們的行為準(zhǔn)則。”
Cenkr補(bǔ)充說,這些代碼會(huì)定期更新和測(cè)試,以確保它們盡可能地健壯。
他補(bǔ)充稱,數(shù)據(jù)隱私是最具挑戰(zhàn)性的考慮因素?!拔覀兿蛭覀兊腁I平臺(tái)提供的任何信息和數(shù)據(jù)都必須絕對(duì)遵守GDPR規(guī)定?!庇捎贖ome Credit在多個(gè)司法管轄區(qū)運(yùn)營(yíng),IT還必須確保所有這些市場(chǎng)的合規(guī)性,其中一些市場(chǎng)有不同的法律,這增加了復(fù)雜性。
Cenkr說,企業(yè)應(yīng)該“以一種反映你個(gè)人對(duì)道德的態(tài)度的方式”來發(fā)展他們的治理結(jié)構(gòu)?!拔蚁嘈?,如果你像在個(gè)人和日常生活中應(yīng)用的道德規(guī)范一樣用心去發(fā)展這些道德結(jié)構(gòu),這些結(jié)構(gòu)將變得更加安全?!?/p>
此外,Cenkr表示,IT應(yīng)該準(zhǔn)備好定期更新其治理政策。“AI技術(shù)每天都在進(jìn)步,要跟上它的發(fā)展步伐是一個(gè)真正的挑戰(zhàn),無論這可能有多令人興奮?!?/p>
設(shè)置護(hù)欄
聊天機(jī)器人等AI工具在UST已經(jīng)使用了幾年,但GenAI是一個(gè)全新的領(lǐng)域。這家數(shù)字轉(zhuǎn)型企業(yè)的首席戰(zhàn)略官兼CIO克里希納·普拉薩德表示,這從根本上改變了商業(yè)模式,并使倫理AI成為討論的一部分,同時(shí)也承認(rèn)“如今它更具理論性?!?/p>
普拉薩德說,在實(shí)現(xiàn)考慮中,倫理AI“并不總是出現(xiàn),但我們確實(shí)討論了…我們需要有負(fù)責(zé)任的AI和一些能力來獲得透明度,并追溯推薦是如何做出的?!?/p>
普拉薩德說,UST領(lǐng)導(dǎo)人之間的討論集中在該企業(yè)不想在AI領(lǐng)域做什么,“以及我們希望在今天理解的情況下在哪里劃定界限,我們?nèi)绾卧诓辉斐蓚Φ那闆r下忠于我們的使命。”
普拉薩德呼應(yīng)了其他人的觀點(diǎn),他表示,這意味著人類必須成為等式的一部分,因?yàn)锳I更深地植根于企業(yè)內(nèi)部。
UST提出的一個(gè)問題是,如果領(lǐng)導(dǎo)者在機(jī)器人監(jiān)聽的情況下就員工表現(xiàn)進(jìn)行對(duì)話,這是否是保密的妥協(xié)。普拉薩德說:“類似的事情已經(jīng)開始涌現(xiàn),但在這一點(diǎn)上,我們可以放心地使用[微軟]Copilot作為一種總結(jié)對(duì)話的方式。”
另一個(gè)考慮因素是如何保護(hù)圍繞該企業(yè)開發(fā)的工具的知識(shí)產(chǎn)權(quán)?!盎诮裉燔浖?yīng)商提供的保護(hù),我們?nèi)匀徽J(rèn)為數(shù)據(jù)包含在我們自己的環(huán)境中,沒有證據(jù)表明數(shù)據(jù)在外部丟失,”他說。出于這個(gè)原因,普拉薩德說,他和其他領(lǐng)導(dǎo)人對(duì)繼續(xù)使用某些AI工具沒有任何顧慮,特別是因?yàn)樗麄兛吹搅松a(chǎn)率的提高。
盡管普拉薩德認(rèn)為人類需要參與進(jìn)來,但他也對(duì)人類的投入感到擔(dān)憂?!皻w根結(jié)底,人類天生就有偏見,因?yàn)槲覀兯佑|的環(huán)境的性質(zhì)、我們的經(jīng)歷以及它是如何形成我們的思維的。”他解釋說。
他還擔(dān)心,當(dāng)壞人使用客戶的數(shù)據(jù)為自己開發(fā)新模型時(shí),他們是否會(huì)獲得某些AI工具。
普拉薩德說,隨著軟件變得更加流行,這些都是領(lǐng)導(dǎo)者必須擔(dān)心的領(lǐng)域。他表示,與此同時(shí),CIO必須帶頭,展示AI如何被永遠(yuǎn)利用,以及它將如何影響他們的商業(yè)模式,并將領(lǐng)導(dǎo)層聚集在一起,討論最佳前進(jìn)道路。
他說:“CIO必須在推動(dòng)這種對(duì)話中發(fā)揮作用,因?yàn)樗麄兛梢源蚱粕裨挘部梢詧?zhí)行?!彼a(bǔ)充說,他們還必須為那些有時(shí)變得非常困難的對(duì)話做好準(zhǔn)備。
例如,如果一個(gè)工具提供了某種功能,“我們是希望盡可能地使用它,還是應(yīng)該因?yàn)檫@是正確的事情而保留它,”普拉薩德說,“這是最難的對(duì)話,”但CIO們必須表明,一種工具“可能會(huì)超出你的想象”?!皩?duì)我來說,這一部分仍然有些模糊,那么如何對(duì)模型…施加約束呢,在選擇提供使用AI的新產(chǎn)品和服務(wù)之前?!?/p>