?譯者 | 朱先忠
策劃 | 徐杰承
與開發(fā)人員信任的其他軟件開發(fā)工具不同,AI工具在訓(xùn)練、構(gòu)建、托管和使用方式等方面都存在一些獨(dú)特的風(fēng)險(xiǎn)。
自2022年底ChatGPT發(fā)布以來,互聯(lián)網(wǎng)上便充斥著對其幾乎相同比例的支持和懷疑的論調(diào)。不管你是否喜歡它,AI正在逐步進(jìn)入你的開發(fā)組織。即使你不打算開發(fā)人工智能產(chǎn)品,也不打算利用AI工具為你編寫代碼,它仍可能被集成到用于構(gòu)建、測試和運(yùn)行源代碼的工具和平臺中。
AI工具存在一些較為特殊的風(fēng)險(xiǎn),這些風(fēng)險(xiǎn)可能會使自動化任務(wù)所帶來的生產(chǎn)力收益受到影響。而這些風(fēng)險(xiǎn)主要源于AI的訓(xùn)練、構(gòu)建、托管和使用方式,AI工具在這些方面與開發(fā)人員信任的其他工具存在諸多不同之處。了解風(fēng)險(xiǎn)是管理風(fēng)險(xiǎn)的第一步,為了幫助你了解AI工具的潛在風(fēng)險(xiǎn),我們設(shè)計(jì)了一些面向AI工具的面試問題,這些問題能夠決定該工具是否能順利“入職”你的公司。
總體而言,所有的的AI工具都存在一定的共性,無論人工智能的類型或用途如何,在選擇使用它之前,都應(yīng)提出如下問題:
- 這款A(yù)I工具的基礎(chǔ)設(shè)施在什么位置?現(xiàn)代人工智能無一不需要專用且昂貴的硬件進(jìn)行支持。除非你打算收購一個新的數(shù)據(jù)中心;否則你的AI工具將只能進(jìn)行遠(yuǎn)程工作,并需要使用遠(yuǎn)程訪問和非現(xiàn)場數(shù)據(jù)存儲,而這將造成一定的安全隱患。
- 在代碼離開處理邊界時,采取什么樣的保護(hù)措施來防止IP丟失?從智能電視到智能汽車,一切人工智能產(chǎn)品都在向其制造商貢獻(xiàn)數(shù)據(jù)。一些企業(yè)使用這些數(shù)據(jù)來優(yōu)化他們的軟件,但另一些企業(yè)會將這些數(shù)據(jù)賣給廣告商。因此,你有必要準(zhǔn)確了解AI工具將如何使用或處理其用于主要任務(wù)的源代碼或其他私有數(shù)據(jù)。
- 你的輸入能夠用于模型的訓(xùn)練任務(wù)嗎?人工智能模型的持續(xù)訓(xùn)練是模型所有企業(yè)以及模型訓(xùn)練人員非常關(guān)注的任務(wù)。例如,模型所有企業(yè)往往不希望廣告商過多介入其模型訓(xùn)練環(huán)節(jié),以達(dá)到免費(fèi)的廣告推送的目的。
- 結(jié)果的準(zhǔn)確度是多少?ChatGPT最致命的缺點(diǎn)是其結(jié)果的不準(zhǔn)確性。它在生成謊言和真理方面表現(xiàn)都很突出;這被稱為AI幻覺。了解人工智能可能產(chǎn)生錯誤的方式和場景,有助于在AI工具發(fā)生錯誤時進(jìn)行管理。
除此之外,人工智能所有企業(yè)和開發(fā)者會存在自己的一系列安全問題。這些新的擔(dān)憂包括對人工智能訓(xùn)練模型的威脅,這些威脅可能會破壞其結(jié)果,并泄露有關(guān)模型運(yùn)行方式的專有信息,以及可能會破壞模型生成結(jié)果的質(zhì)量。此外,人工智能模型必須通過API、Web訪問、移動應(yīng)用程序和其他需要安全構(gòu)建的應(yīng)用程序與傳統(tǒng)世界進(jìn)行交互。
除一般問題外,開發(fā)人員在使用AI工具時還必須提出其他方面的問題,如使用AI安全掃描程序,以便管理軟件開發(fā)過程中引入的風(fēng)險(xiǎn)。
- AI工具是否適合應(yīng)用于此類場景?了解人工智能不擅長什么是十分關(guān)鍵的。例如,如果一項(xiàng)任務(wù)可以細(xì)分為“根據(jù)學(xué)習(xí)規(guī)則做出決定”或“編寫符合學(xué)習(xí)規(guī)則的內(nèi)容”;那么,人工智能通常很擅長此類任務(wù)。如果問題的變化超越此范圍,人工智能可能會表現(xiàn)得很糟糕。
- 如果AI工具出現(xiàn)錯誤,該采取什么保護(hù)措施?千萬不要在你的過程中引入一個單一的失敗點(diǎn),尤其是一個可能產(chǎn)生幻覺的失敗點(diǎn)。推薦的做法應(yīng)當(dāng)是,依靠與深度防御相關(guān)的傳統(tǒng)做法,或管理風(fēng)險(xiǎn)的方法——即系統(tǒng)中的一層產(chǎn)生了問題,下一層也會捕獲它。
- 審查工具結(jié)果需要如何進(jìn)行監(jiān)督?其實(shí)這是一個舊事重提的問題。傳統(tǒng)的問題日志捕獲方案通常分為兩部分:第一個是獲取重要事件的數(shù)據(jù);第二個是審核日志。在人工智能進(jìn)一步成熟,其缺陷得到理解或緩解之前,人類仍需要保持對于循環(huán)的控制。
如今,越來越多的開發(fā)人員“雇傭”ChatGPT來編寫源代碼。初步報(bào)告顯示,ChatGPT能夠用多種編程語言編寫源代碼,并且能夠流利地使用所有常見的語言。由于當(dāng)前這個測試版的訓(xùn)練和模型還存在一定的局限性,所以它產(chǎn)生的代碼并不總是完美的。它通常包含可以改變軟件運(yùn)行方式的業(yè)務(wù)邏輯缺陷、可能會混合不同版本軟件的語法錯誤以及其他看似人性化的問題。
大致上來看,ChatGPT僅是一個初級程序員。那么,誰會成為它的上級?
換句話說,ChatGPT也就是一個初級開發(fā)人員水平。因此,當(dāng)使用這個初級開發(fā)人員編寫的代碼時,必須考慮如何管理它:
- 誰將成為其上級,以保障其編寫代碼的整體效果?初級開發(fā)人員通常都需要高級開發(fā)人員的協(xié)助。每一行代碼都必須經(jīng)過測試,有些代碼必須修復(fù)。然而,有報(bào)告表明,這種校對過程比從頭開始編寫代碼更加耗時、更加復(fù)雜。
- 它是將訓(xùn)練代碼注入還是重新混合到代碼庫中?一個更隱蔽的威脅是,有時像GitHub Copilot這樣的人工智能機(jī)器人會產(chǎn)生源代碼,完美地復(fù)制訓(xùn)練數(shù)據(jù)中的代碼塊。因此,需要利用反剽竊工具來確保許可證風(fēng)險(xiǎn)得到管理。
- AI工具從哪里獲得訓(xùn)練數(shù)據(jù)?一個人工智能模型的能力水平與它的訓(xùn)練數(shù)據(jù)密切相關(guān)。如果AI使用舊的或不正確的代碼進(jìn)行訓(xùn)練,那么它將產(chǎn)生舊的和不正確的結(jié)果。
- 引擎托管在哪里?分析源代碼的AI機(jī)器人需要將源代碼整合到其相應(yīng)的處理設(shè)備中。在離開公司管控后,應(yīng)特別考慮如何保護(hù)、使用和處置數(shù)據(jù)。
無論如何,2022年12月發(fā)布的ChatGPT預(yù)示著軟件開發(fā)的新時代。關(guān)注這類工具的變化而不是被它們擊敗是很重要的。在采用這些新工具時要明確,事情變化越多,就越該保持不變:預(yù)防安全事件總比發(fā)現(xiàn)意外要好。
原文鏈接:https://thenewstack.io/hiring-an-ai-tool-to-code-what-to-ask-at-the-interview/