IT領(lǐng)導(dǎo)者應(yīng)力求避免的六大生成式AI危害
不同組織對生成式AI技術(shù)的應(yīng)用方式往往各有差異,但造成的負(fù)面效果卻頗有共性。
OpenAI最近發(fā)布了自定義版本的ChatGPT,允許各家組織更輕松地以靈活方式使用生成式AI——但辯證法告訴我們,不存在只有積極作用的事物。大西洋兩岸已經(jīng)連續(xù)數(shù)周舉行兩場AI安全峰會,這也引發(fā)人們對于AI潛在危害的擔(dān)憂。但無論是科幻小說中殺手機器人的暴力威脅,還是關(guān)于AI模型應(yīng)當(dāng)受到何種監(jiān)管指導(dǎo)的具體討論,其實都只能算是老生常談。換言之,這一切并不足以幫助那些想要大規(guī)模應(yīng)用生成式AI工具的組織找到合理的落地路徑。
目前,對生成式AI最大的反對聲音來自作家和藝術(shù)家群體,他們對自己的作品在未經(jīng)許可的情況下被用于訓(xùn)練大語言模型(LLM)而深感不滿。今年11月初,好萊塢就爆發(fā)了長達數(shù)月的編劇與演員罷工活動,要求制片廠做出讓步、限制AI工具取代人類編劇和演員的運營方式。但即使是在創(chuàng)意產(chǎn)業(yè)之外,其他組織也需要謹(jǐn)慎使用生成式AI。這不只是為了避免令人尷尬的反而效果,更是為了消解潛在的法律訴訟。
不少企業(yè)將版權(quán)視為值得關(guān)注的重要領(lǐng)域(聯(lián)邦貿(mào)易委員會似乎也有此意),意識到直接使用那種由AI“照搬”自競爭對手的商業(yè)計劃很可能惹出麻煩。但這絕不是生成式AI給我們鬧出的唯一爭議。
警惕商業(yè)聲譽受損
微軟最近與《衛(wèi)報》之間的矛盾就堪稱教科書級案例,《衛(wèi)報》方面表示這家科技巨頭的AI新聞系統(tǒng)自動生成了一項十分冷血的民意調(diào)查,邀請讀者猜測一位女性是否會死亡,并將其插入到新聞報道當(dāng)中,因而給報社造成“嚴(yán)重的聲譽損害”。如果要選出近期最需要避免的生成式AI用例,此事顯然將榜上有名。
而且這已經(jīng)不是Bing的AI新聞服務(wù)第一次在敏感報道中添加存在爭議的民意調(diào)查。同一款A(yù)I工具還生成過其他調(diào)查,詢問讀者在案件場景下是否同樣會開槍射殺某位女性、在國家公園發(fā)現(xiàn)的人體遺骸身份驗證是否屬實,某處50所房屋因火災(zāi)而被毀的地區(qū)是否應(yīng)當(dāng)執(zhí)行緊急疏散建議,以及是否支持一場本意為被燒傷兒童募捐、卻引發(fā)火災(zāi)并導(dǎo)致兩名兒童死亡的活動。
AI驅(qū)動的Bing Chat所發(fā)布的廣告甚至包含惡意軟件鏈接。這款微軟推出的AI工具建議前往渥太華的游客前往“食品銀行”(即接濟當(dāng)?shù)馗F人、發(fā)放食品的慈善組織)吃飯,高亮顯示來自無名小站關(guān)于拜登總統(tǒng)等政客的假新聞,甚至嚴(yán)重混淆新聞故事中的具體情節(jié)。例如,它暗示某位女演員襲擊了一位體育教練,但實際情況是該教練被指控虐待了一匹馬。
與ChatGPT等生成式AI模型種種匪夷所思的神奇操作相比,律師和醫(yī)療專業(yè)人員在大多數(shù)情況下至少還有機會認(rèn)真檢查一下生成結(jié)果。而粗暴插入至《衛(wèi)報》報道的民意調(diào)查似乎完全是由自動化系統(tǒng)在微軟資產(chǎn)之上直接發(fā)布,不僅直接面向數(shù)百萬讀者、而且未經(jīng)任何人工核準(zhǔn)。
微軟稱此次民意調(diào)查純屬意外失誤,并承諾開展調(diào)查。但從行動上看,微軟明顯違反了該公司自己提出的負(fù)責(zé)任AI使用原則,例如應(yīng)告知人們正在與AI系統(tǒng)交互、以及嚴(yán)格遵循人機交互方針等。微軟曾向Azure OpenAI客戶反復(fù)強調(diào)不要制作“任何主題性內(nèi)容”或者“在最新、要求信息嚴(yán)謹(jǐn)準(zhǔn)確”(當(dāng)然也包括新聞網(wǎng)站)等場合下使用AI,但他們自己根本就沒做到。
注意AI的過度使用
總的來講,Azure OpenAI的明確提示已經(jīng)證明,該服務(wù)有可能生成不當(dāng)、或者令人反感的內(nèi)容,乃至不相關(guān)、虛假或歪曲事件原貌的觀點。微軟列出了幾種需要注意避免的情況——包括政治活動和高度敏感的事件,特別是過度使用/濫用時可能影響生存機會/法律立場的各類謹(jǐn)慎情形,例如醫(yī)療保健、教育、金融及法律領(lǐng)域的高風(fēng)險領(lǐng)域。但這些僅限于特定領(lǐng)域的問題往往內(nèi)容有限、相應(yīng)的答案也比較短小簡單,不太可能覆蓋那些開放式、無限的提問形式。
微軟拒絕透露任何他們認(rèn)為不適合應(yīng)用生成式AI技術(shù)的領(lǐng)域,而是提供了一系列他們認(rèn)為客戶正在取得成功的領(lǐng)域,包括創(chuàng)建內(nèi)容、總結(jié)或改進語言表達、代碼生成以及語義搜索。但該公司發(fā)言人坦言:“我們正生活在一個AI愈發(fā)強大的世界,它能做到一些令人驚奇的事情。然而,最重要的是意識到這項技術(shù)需要發(fā)展過程,必須給予它充分的成長和發(fā)展空間。明確這一點非常重要?!?/p>
但并不是所有生成式AI的客戶都清楚這一點。由生成式AI輸出的、內(nèi)容莫名其妙且文筆荒誕詭異的內(nèi)容已經(jīng)出現(xiàn)在商業(yè)環(huán)境當(dāng)中。如果是會議紀(jì)要、博客文章或者內(nèi)部場合的演示文稿還好,但對于正式商業(yè)文書明顯還遠遠不足。越來越多的專業(yè)作家和安全教育工作者開始直接使用此類內(nèi)容,甚至還配上了AI生成的圖像——從那數(shù)量不一的手指頭就能看出端倪。這種愚蠢的胡言亂語未來可能變得更加普遍、令人不安,而企業(yè)必須對由此產(chǎn)生的聲譽威脅保持警惕。
另外,哪怕是不那么敏感的內(nèi)容也有可能引發(fā)問題。民意調(diào)查和小測驗?zāi)茏屄L的會議和團隊溝通變得不那么平淡,而生成式AI正是根據(jù)對話內(nèi)容創(chuàng)建這些素材的高效選項。但如果有人在其中提到親友患病或者寵物離世之類的具體信息,AI就可能搞出極為尷尬的鬧劇。
行業(yè)情報平臺GlobalData顛覆性技術(shù)項目副經(jīng)理Saurabh Daga就強調(diào),“生成式AI往往不具備同理心、道德判斷或者對人類之間細微差別的理解,因此在這類環(huán)境中表現(xiàn)很差。”他列出的敏感領(lǐng)域也與微軟的指導(dǎo)方針較為相似:“高風(fēng)險決策,特別是那些一旦出錯可能產(chǎn)生重大法律、財務(wù)或健康相關(guān)后果的場合,最好不要使用AI?!?/p>
另外,在使用多模態(tài)模型處理各種事務(wù)之前,首先要對這種雜糅了文本與圖像的生成AI工具保持謹(jǐn)慎,因為錯誤的標(biāo)題很可能將本來很好的內(nèi)容轉(zhuǎn)化成令人反感的圖片。另外,圖像生成模型很容量假定所有護士都是女性,而所有企業(yè)高管都是男性。
戴爾科技集團AI戰(zhàn)略高級副總裁Matt Baker警告稱,“生成式AI尤其會放大那些以往存在,但卻沒有得到認(rèn)真解決的問題。以流程管理為例,算法偏見很可能對人力資源和招聘工作產(chǎn)生影響。組織需要坦誠審視自己的數(shù)據(jù)衛(wèi)生、優(yōu)先級排序和敏感性問題,確保讓生成式AI工具產(chǎn)生最大回報、并將風(fēng)險控制在最低水平?!?/p>
別以為AI永遠是對的
盡管生成式AI工具擁有令人印象深刻的表現(xiàn),但其本質(zhì)仍然是一種概率論。也就是說它們經(jīng)常會犯錯,而危險就在于它們給出的結(jié)果可能不準(zhǔn)確、不公平或者令人反感,但又因為其措辭過于自信且有說服力,而導(dǎo)致錯誤常常被人們忽視。
問題的關(guān)鍵,就是別指望能得到可以拿來即用的結(jié)果,并意識到生成式AI并不可靠。最好是將其視為激發(fā)新思路的靈感來源,而非已經(jīng)成熟的完美結(jié)論。
正因為如此,微軟在其大多數(shù)生成式AI工具中采用的是Copilot、而非Autopilot。微軟CEO Satya Nadella在今年夏季的Inspire大會上表示,“必須讓人類參與其中,以人機協(xié)作的方式進行設(shè)計——即人類始終對強大的AI輔助工具保持掌控,再由AI幫助人類完成各項任務(wù)?!弊鳛樯墒紸I的應(yīng)用關(guān)鍵,我們必須學(xué)會使用提示詞以獲得更好的成果。目前Copilot Lab等工具已經(jīng)在幫助員工培養(yǎng)這方面技能。
同樣的,不要直接使用自動化流程,而是要親自為生成式AI工具建立工作流程,鼓勵員工實驗并評估由AI生成的內(nèi)容。請注意,一定要關(guān)注AI給出的建議具體基于哪些信息、嚴(yán)格審查結(jié)果并檢查它所引用的信息來源,而不能簡單接受給出的優(yōu)先選項。拿來就用不僅沒法節(jié)約時間,反而可能因錯誤和偏見惹出更大的麻煩。
用戶還應(yīng)充分理解自己從生成式AI處獲得的建議和決策,了解相應(yīng)的潛在皇親并向他人證明其合理性。英國信息專員辦公室警告稱,“如果你的組織不對AI輔助決策做出解釋,那就可能面臨聲譽受損、公眾批評甚至是監(jiān)管機構(gòu)的介入?!?/p>
比較可靠的處理方式,就是每次都要求AI提供多種備選方案,并對建議內(nèi)容做出具體解釋。此外,還應(yīng)使用準(zhǔn)確全面的提示詞來指導(dǎo)大語言模型當(dāng)前響應(yīng)的推理過程和判斷理由。除了讓生成式AI引用關(guān)鍵信息來源之外,還應(yīng)考慮如何突出顯示需要認(rèn)真核查的重要元素,例如日期、統(tǒng)計數(shù)據(jù)、政策和所依賴的行使等。
歸根結(jié)底,上述手段是為了建立一種新的工作文化。在這種文化中,生成式AI被視為一種有待驗證的實用工具,而非人類創(chuàng)造力和判斷力的直接替代方案。
Daga指出,“生成式AI或者任何其他形式的AI技術(shù),都應(yīng)被用于增強人類決策,而非在現(xiàn)有局限性之下、特別是可能造成傷害的場合中取代人類。人類審查員則應(yīng)接受訓(xùn)練,學(xué)會如何批判性地評估AI模型的輸出,而不僅僅是接受它那看似言之鑿鑿的結(jié)論?!?/p>
除了在流程當(dāng)中引入人工審查、鼓勵對AI建議進行實驗和全面評估之外,我們還需要設(shè)置護欄,阻止在不適用的場景下對任務(wù)進行全面自動化。Daga補充道,“例如,AI可能會為企業(yè)生成新聞發(fā)言稿,但只有人類編輯才能核準(zhǔn)并發(fā)出能夠與記者和出版社共享的最終文稿。”
生成式AI當(dāng)然也有助于提高開發(fā)人員的工作效率,包括建立新的代碼庫、填充樣板代碼、自動補全函數(shù)和生成單元測試。我們應(yīng)當(dāng)運用這種額外的生產(chǎn)力,但也要確保這部分代碼不會在未經(jīng)人工審核的情況下流入生產(chǎn)環(huán)境。
來自科羅拉多州的咨詢公司Sageable全球首席技術(shù)官兼創(chuàng)始人Andi Mann表示,企業(yè)應(yīng)對其選擇的后果負(fù)責(zé),特別是因不當(dāng)部署AI所引發(fā)的負(fù)面影響?!翱蛻艨刹粫犑裁础高@全是AI的錯」那一套,所有數(shù)據(jù)泄露責(zé)任都會被歸咎在人的身上?!?/p>
別把AI隱藏起來
為了以負(fù)責(zé)任的方式使用AI系統(tǒng),無論對于內(nèi)部員工還是外部客戶,良好的透明度都是其中一項重要前提。但令人尷尬的是,已經(jīng)有大量出版物開始使用AI生成的內(nèi)容,而其糟糕的質(zhì)量往往容易被讀者一眼識破。即使是高質(zhì)量的內(nèi)容,我們也應(yīng)該明確標(biāo)記哪些是由AI系統(tǒng)生成的,包括內(nèi)部會議摘要、營銷信息或者聊天機器人響應(yīng)等。請務(wù)必為聊天機器人等自動化系統(tǒng)設(shè)置“出口匝道”,允許用戶隨時轉(zhuǎn)接人工進行處理。
在Daga看來,“客戶應(yīng)該有拒絕與生成式AI互動的權(quán)利,特別是拒絕與其討論敏感內(nèi)容。”
AI沒有能力解決所有問題
隨著舔式AI在商業(yè)場景中的廣泛應(yīng)用,我們必須對AI建議做出更加積極、主動且嚴(yán)格的判斷。在去年的《DevOps自動化現(xiàn)狀報告》中,80%的IT從業(yè)者已經(jīng)意識到這個問題;而在2023年的《DevOps自動化與AI現(xiàn)狀研究》當(dāng)中,這一比例已經(jīng)超過了90%。
Mann表示這種謹(jǐn)慎有其道理,特別是在特定領(lǐng)域的訓(xùn)練數(shù)據(jù)較為有限的情況下,更需要保證輸出結(jié)果的可預(yù)測性、合理性和可驗證性。以IT運營為例,一旦訓(xùn)練數(shù)據(jù)不足,AI模型極易產(chǎn)出不準(zhǔn)確的結(jié)果。
他警告稱,“對于各種需要應(yīng)對新問題、邏輯鏈尚不清晰以及相關(guān)知識缺失/存量有限的用例,生成式AI的意義都非常有限。如果潛在輸入純粹是未廣泛公開的小圈子知識,那么根本無法訓(xùn)練出穩(wěn)定可靠的大語言模型?!?/p>
但他也認(rèn)可將生成式AI作為助手的意義?!八梢猿蔀轭檰柣蛘叻e極探索的專家,通過向訓(xùn)練引擎提供跨學(xué)科定義和知識庫來理解「已知良好」的IT運營情況,再據(jù)此識別已知問題、診斷已知原因、識別已知的效率低下環(huán)節(jié)并通過已知補救措施進行響應(yīng)?!辈贿^千萬不可松懈,哪怕是看似能夠用熟悉流程和方案加以解決的新興IT問題,我們也很難預(yù)先判斷其中到底存在哪些例外情況。
Mann總結(jié)道,“我們都知道,在試圖讓AI解決「未知下的未知」問題時,它們幾乎永遠不愿承認(rèn)自己無力處理,反而更傾向于拋出誤導(dǎo)性、虛假、錯誤甚至是惡意的結(jié)果?!?/p>
有時反而會增加人類的工作負(fù)擔(dān)
雖然生成式AI輸出的內(nèi)容往往有所助益,但由于部署門檻太低,有時候盲目使用也會加大審查負(fù)擔(dān)、反而給從業(yè)者帶來更多不必要的工作量。
不少休閑雜志就報告稱,他們收到了大量由AI撰寫的低質(zhì)量故事,其效果甚至達到了拒絕服務(wù)攻擊的程度。出版商一直在嘗試使用AI來做修訂和潤色,但作家和編輯紛紛表示AI建議的修改方式往往無益、無效,甚至在處理技術(shù)術(shù)語、特定文風(fēng)、復(fù)雜的句子結(jié)構(gòu)和精確用詞時完全錯誤。但對于初學(xué)者來說,這些情況其實很少遇到。所以請注意實事求是,以坦誠的態(tài)度看待生成式AI到底能夠在哪些領(lǐng)域做出積極貢獻。
采用AI工具的一大關(guān)鍵前提,就是先要建立起錯誤處理流程,而不是每次發(fā)現(xiàn)了錯誤再做個別調(diào)整。千萬別假設(shè)生成式AI能從錯誤中吸取教訓(xùn),也別以為相同的提示詞總能指出同樣的結(jié)果。對于重要內(nèi)容,一定要使用提示詞工程和過濾器對相關(guān)結(jié)果做出約束和限定。
此外,還要為計劃之外的領(lǐng)域和流程做好迎接生成式AI技術(shù)的準(zhǔn)備。新技術(shù)在這些領(lǐng)域和流程中的表現(xiàn)可能不佳,但良好的透明度往往有助于解決問題。員工需要了解企業(yè)何時允許使用生成式AI,具體如何披露可接受的使用政策。再有,我們還應(yīng)當(dāng)將生成式AI納入審計和電子取證環(huán)節(jié),具體形式依照企業(yè)聊天系統(tǒng)。
組織可能需要抓緊時間、盡快著手制定這些政策。TECHnaanalysis Research在今年春季曾對1000家美國企業(yè)進行過調(diào)查,其中88%的受訪者表示已經(jīng)在使用生成式AI,但只有7%的早期采用者為其制定了正式管理政策。
在IDC最近發(fā)表的一項關(guān)于AI技術(shù)機遇的研究中超過四分之一的企業(yè)領(lǐng)導(dǎo)者表示,缺乏AI治理與風(fēng)險管理制度是限制該技術(shù)實施/擴展的一大挑戰(zhàn)。除了擔(dān)心企業(yè)數(shù)據(jù)泄露之外,商業(yè)聲譽受損也是另一個需要優(yōu)先考慮的問題。此外,超過半數(shù)受訪者表示找不到熟練的技術(shù)人員也是一大障礙,這主要是指開發(fā)人員和數(shù)據(jù)工程師。再有,不具備理工技術(shù)背景的業(yè)務(wù)部門員工也需要接受培訓(xùn),學(xué)習(xí)如何向AI工具準(zhǔn)確提問,而后評估并驗證其給出的結(jié)果。