謹(jǐn)慎采用人工智能的最佳實(shí)踐
為了助力我們正確運(yùn)用人工智能,以下提供幾點(diǎn)建議,在實(shí)踐使用人工智能時(shí)需謹(jǐn)記這些建議,以便您能夠牢固掌舵,安全駕馭人工智能。
譯自Treading Carefully: Best Practices When Adopting AI,作者 Tim Banks 是Dell Technologies的首席開發(fā)者倡導(dǎo)者。他在技術(shù)行業(yè)擁有超過25年的經(jīng)驗(yàn)。Tim的技術(shù)之路始于美國海軍陸戰(zhàn)隊(duì),他最初加入是為了成為一名音樂家。后來他被重新分配到航空電子學(xué)......
人類創(chuàng)新的普遍特征是使我們能夠比以往更快地在更大規(guī)模上出錯(cuò)。我們可以更快地制造有缺陷的東西。我們可以開車更快。我們可以在幾分鐘內(nèi)破壞整個(gè)自然生態(tài)系統(tǒng)。我們可以用一條推文破壞世界的金融穩(wěn)定。我們可以通過按幾個(gè)按鈕消滅地球表面所有的生命。
這一認(rèn)識(shí)對(duì)于認(rèn)識(shí)使用新的 AI 項(xiàng)目的熱情可能帶來的災(zāi)難風(fēng)險(xiǎn)至關(guān)重要。我們距離實(shí)現(xiàn)真正的 AI 意識(shí)還有(希望是)一代人的時(shí)間。然而,意識(shí)的基本要素現(xiàn)在正在開發(fā)。主要的擔(dān)憂是這些要素目前充滿了偏見和錯(cuò)誤。例如,面部識(shí)別無法區(qū)分有色人種。生成式圖像 AI 在數(shù)據(jù)集中沒有此類輸入的情況下會(huì)產(chǎn)生不適當(dāng)?shù)妮敵?。大型語言模型(LLM)會(huì)編造答案,稱為“幻覺”,或產(chǎn)生包含已知錯(cuò)誤的結(jié)果。
除了技術(shù)本身的缺陷之外,我們并不是總是以安全的方式使用技術(shù)。用戶正在查詢或數(shù)據(jù)集中輸入敏感數(shù)據(jù)。用戶已經(jīng)開始依賴AI生成他們沒有經(jīng)驗(yàn)審核的答案。一些方面正在創(chuàng)建深度偽造來幫助他們進(jìn)行誤導(dǎo)性宣傳。其他人正在使用深度偽造在未經(jīng)被利用者知情或同意的情況下濫用他們的肖像。而且,由于這些技術(shù)的發(fā)展勢(shì)頭,組織正在優(yōu)先考慮提高AI的采用和變現(xiàn),而不是先解決這些問題。
我們還沒有對(duì)AI對(duì)社會(huì)或我們周圍的世界的長期影響有清晰的認(rèn)識(shí)。我們還沒有制定任何監(jiān)管標(biāo)準(zhǔn)來為這些技術(shù)的創(chuàng)造和使用設(shè)置護(hù)欄。我們無法透明地了解某些AI模型是如何做出決定的。我們尚未對(duì)日益增長和計(jì)算復(fù)雜度更高的數(shù)據(jù)集的存儲(chǔ)和計(jì)算需求的生態(tài)影響進(jìn)行充分研究。我們還沒有關(guān)于AI結(jié)果中受保護(hù)財(cái)產(chǎn)的包含的法規(guī)。我們還沒有解決濫用AI或編造結(jié)果的責(zé)任問題。當(dāng)涉及到我們當(dāng)前AI努力的長期影響和結(jié)果時(shí),我們正在闖入一個(gè)盲區(qū)。如果我們不及時(shí)踩剎車,在建立護(hù)欄之前,我們可能會(huì)看到峽谷的底部!
考慮到所有這些有效的擔(dān)憂,AI正在越來越多的領(lǐng)域和產(chǎn)品中被采用,這種情況不太可能改變。有幾家大型科技公司都在開展競爭性項(xiàng)目和產(chǎn)品,爭相成為首選的AI。無論我們?cè)趺磁?,我們都無法抵御流入AI的資金潮流。然而,我們可以通過在實(shí)踐和產(chǎn)品中思考選擇和使用AI來駕馭這種潮流。為了幫助我們導(dǎo)航,這里有一些關(guān)于你的AI實(shí)踐和使用的考慮,這些考慮應(yīng)該可以幫助你安全地駕馭這片水域:
- 永遠(yuǎn)不要向模型或聊天機(jī)器人輸入個(gè)人身份識(shí)別信息(PII)、憑據(jù)、機(jī)密或其他敏感信息: 這應(yīng)該是不言自明的,但在這方面已經(jīng)發(fā)生過事故。信息如果公開可用就視為可以輸入模型和聊天機(jī)器人。
- 使用AI照片編輯器時(shí)要謹(jǐn)慎: 要意識(shí)到潛在的風(fēng)險(xiǎn),如錯(cuò)誤信息的傳播、版權(quán)和知識(shí)產(chǎn)權(quán)問題以及數(shù)據(jù)隱私問題。
- 在使用AI工具提供的數(shù)據(jù)之前,一定要驗(yàn)證數(shù)據(jù)的準(zhǔn)確性: 一定要仔細(xì)檢查從AI工具獲得的數(shù)據(jù),以確保其準(zhǔn)確性。在未經(jīng)驗(yàn)證的情況下接受一個(gè)答案的正確性可能會(huì)對(duì)您的業(yè)務(wù)產(chǎn)生持久影響。
- 了解AI應(yīng)用程序格局: 了解AI的不同應(yīng)用,并選擇最符合您需求的應(yīng)用。AI領(lǐng)域沒有供應(yīng)商短缺的問題,選擇困難癥是真實(shí)存在的。為您的用例選擇合適的供應(yīng)商不是一個(gè)應(yīng)該輕視的決定。
- 數(shù)據(jù)準(zhǔn)備和管理: 確保您使用的數(shù)據(jù)準(zhǔn)確、相關(guān)并且是最新的。當(dāng)心將自己的錯(cuò)誤輸入模型和數(shù)據(jù)毒化。
- 為您的特定用例選擇合適的算法和模型。這將避免您在建模和呈現(xiàn)數(shù)據(jù)時(shí)“海納百川”。
- AI開發(fā)服務(wù): 使用可靠并有良好記錄的開發(fā)服務(wù)。
- 訓(xùn)練和評(píng)估: 定期訓(xùn)練和評(píng)估AI模型,以確保它們是最新和準(zhǔn)確的。它們是否一致地產(chǎn)生您想要的結(jié)果?錯(cuò)誤出現(xiàn)的頻率如何以及這些錯(cuò)誤的性質(zhì)是什么?
- 部署和可擴(kuò)展性: 確保AI模型可以有效和可持續(xù)地部署和擴(kuò)展。收集有關(guān)可持續(xù)性和建模以及AI使用的環(huán)境影響的指標(biāo),這將幫助您對(duì)其使用做出更好的決定。
- 倫理和隱私考量: 確保AI模型是道德的并尊重用戶隱私。雖然這很模糊,但如果您的組織為AI倫理建立原則來指導(dǎo)您的實(shí)踐會(huì)有所幫助。
AI來勢(shì)洶洶,我們有責(zé)任以一種安全、道德和可持續(xù)的方式將其融入我們的世界。