自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

創(chuàng)建內(nèi)部大型語言模型(LLM)前必須思考的五個關(guān)鍵問題

譯文 精選
人工智能
在開始創(chuàng)建自己的內(nèi)部LLM之前,您應(yīng)該問問自己這五個關(guān)鍵問題。

譯者 | 晶顏

審校 | 重樓

業(yè)務(wù)領(lǐng)導(dǎo)者一直深感壓力,他們需要找到將生成式人工智能(GenAI)納入其戰(zhàn)略的最佳方式,以便為其組織和利益相關(guān)者帶來最佳收益。根據(jù)Gartner的調(diào)查,38%的業(yè)務(wù)領(lǐng)導(dǎo)者指出,客戶體驗和留存率是他們投資GenAI的主要目的,這對其業(yè)務(wù)的未來至關(guān)重要。然而,盡管這看起來很誘人,但在制定人工智能戰(zhàn)略之前,考慮LLM是否適合您的業(yè)務(wù)同樣至關(guān)重要。

雖然市場上的LLM選項很多且易于訪問,但有效使用現(xiàn)成的LLM卻存在諸多挑戰(zhàn)。這些問題包括缺乏個性化的客戶體驗,外包嵌入模型的成本增加,以及由于與外部共享數(shù)據(jù)而引發(fā)的隱私問題。訓(xùn)練內(nèi)部AI模型可以直接解決這些問題,同時還可以激發(fā)團(tuán)隊內(nèi)部的創(chuàng)造力和創(chuàng)新精神,以便將該模型用于其他項目。一旦您決定需要一個特定領(lǐng)域的人工智能,那么在開始創(chuàng)建自己的內(nèi)部模型之前,您應(yīng)該先問問自己以下五個關(guān)鍵問題。

問題1:您面臨的業(yè)務(wù)問題是什么?人工智能如何解決這個問題?

在深入研究基礎(chǔ)模型和LLM之前,您需要先確定自己想要解決的問題。確定這一點將幫助您更好地決定自己需要哪些自然語言任務(wù)。這些任務(wù)的示例包括摘要、命名實體識別、語義文本相似性和問題回答等。

下游任務(wù)(Downstream Task)和領(lǐng)域意識(Domain Awareness)完全是兩碼事,了解它們的區(qū)別很重要。盡管它們很流行,但像GPT、Llama和PaLM這樣的LLM模型只適用于下游任務(wù)(比如問答和總結(jié)),它們通常需要很少的提示或額外的微調(diào)。盡管基礎(chǔ)模型可以在更廣泛的上下文中很好地工作,但它們?nèi)狈υ诖蠖鄶?shù)應(yīng)用程序中運行所必需的行業(yè)或業(yè)務(wù)特定領(lǐng)域的專業(yè)知識。在下游任務(wù)中取得巨大的成果并不意味著它也將對您的特定行業(yè)具有領(lǐng)域意識。

問題2:是否已有特定于行業(yè)的人工智能工具可用?

作為人工智能戰(zhàn)略研究階段的一部分,密切評估現(xiàn)有工具非常重要,因為其中一些工具可能是針對特定行業(yè)的,但仍忽略了您業(yè)務(wù)的具體細(xì)微差別。當(dāng)審計可用的工具時,重點是確保AI模型能夠理解上下文,以及您所選語言中的單詞,以最好地掌握提示并生成與用戶相關(guān)的響應(yīng)。

舉個例子,一家公司在經(jīng)過研究和測試后發(fā)現(xiàn),缺乏專門針對第三方風(fēng)險的強(qiáng)大網(wǎng)絡(luò)安全LLM。因此,其團(tuán)隊便選擇了一個基于BERT的模型來進(jìn)行網(wǎng)絡(luò)安全微調(diào)。此外,在構(gòu)建人工智能模型時,他們注意到,當(dāng)分析網(wǎng)絡(luò)安全領(lǐng)域的各種文本時,結(jié)果始終落在一個特定的范圍內(nèi)。分析后發(fā)現(xiàn)其使用的基礎(chǔ)模型將文本視為同質(zhì)的,并將相似性歸因于其源自同一領(lǐng)域。最終,他們努力為模型提供了網(wǎng)絡(luò)安全行業(yè)的背景和細(xì)微差別,才成功解決了LLM模型缺乏領(lǐng)域意識的問題。

除此之外,上下文/情境也很重要,因為即使在今天,GenAI在特定問題上也會產(chǎn)生“幻覺”,不應(yīng)該100%信任。這也是拜登-哈里斯政府發(fā)布關(guān)于安全、可靠和值得信賴的人工智能的行政命令的眾多原因之一。在使用人工智能工具作為服務(wù)之前,政府機(jī)構(gòu)需要確保他們使用的服務(wù)是安全和值得信賴的,這一點通常并不明顯,也無法通過查看示例輸出集來捕獲。雖然行政命令不適用于私營企業(yè),但這些組織如果要采取類似的政策,也應(yīng)該考慮到這一點。

盡管與內(nèi)部模型相關(guān)的訓(xùn)練和微調(diào)過程將包括徹底的測試、弱點識別和模型分析,并且相當(dāng)漫長,但從長遠(yuǎn)來看,這是值得的。

問題3:您的數(shù)據(jù)準(zhǔn)備好了嗎?

在訓(xùn)練自己的LLM之前,組織的數(shù)據(jù)是最重要的資產(chǎn)。隨著時間的推移,那些積累了高質(zhì)量數(shù)據(jù)的公司在今天的LLM時代無疑是最幸運的,因為幾乎每個過程的每一步都需要數(shù)據(jù),包括訓(xùn)練、測試、再訓(xùn)練和beta測試。在訓(xùn)練LLM時,高質(zhì)量的數(shù)據(jù)是成功的關(guān)鍵,因此考慮這真正意味著什么很重要。答案當(dāng)然會根據(jù)任務(wù)和領(lǐng)域的不同而變化,但一般規(guī)則是,需要最少管理和更少再訓(xùn)練的數(shù)據(jù)。

一旦公司開始訓(xùn)練LLM,他們通常會發(fā)現(xiàn)數(shù)據(jù)在很多方面還沒有準(zhǔn)備好。由于專家選擇不佳或分配給專家的時間有限,數(shù)據(jù)可能會變得過于嘈雜,或無效標(biāo)記?;蛘邤?shù)據(jù)可能包含隱藏的重復(fù),這些重復(fù)對訓(xùn)練過程提供最小甚至沒有價值,并且不能完全代表領(lǐng)域或任務(wù),這可能導(dǎo)致最終的AI模型過擬合(overfit)。

數(shù)據(jù)很容易成為項目的瓶頸,這一點很重要,因為它需要花費大量的時間來組織。有時,甚至可能需要數(shù)年時間,數(shù)據(jù)才能真正為人工智能做好準(zhǔn)備。

問題4:您有足夠的專家來訓(xùn)練人工智能模型嗎?

專家在生成數(shù)據(jù)和確定數(shù)據(jù)質(zhì)量方面發(fā)揮著重要作用。因為我們?nèi)匀恍枰祟悂砩煽煽康臄?shù)據(jù),這些數(shù)據(jù)將在訓(xùn)練過程中使用。合成生成的數(shù)據(jù)集確實存在,但除非經(jīng)過人類專家的評估和鑒定,否則這些數(shù)據(jù)集是沒有用的。

在選擇專家時,建議選擇具有深厚行業(yè)知識的人內(nèi)部專家或外包專家來微調(diào)您的模型。更具體地說,您將需要專家來標(biāo)記數(shù)據(jù),給出關(guān)于數(shù)據(jù)的反饋,測試數(shù)據(jù),并根據(jù)反饋進(jìn)行再訓(xùn)練。這是通過訓(xùn)練有素的人工智能模型獲得準(zhǔn)確、可靠結(jié)果的重要部分。

問題5:您的時間限制是什么?

訓(xùn)練內(nèi)部人工智能模型是一個昂貴而漫長的過程。業(yè)務(wù)問題、現(xiàn)成可用數(shù)據(jù)的質(zhì)量以及所涉及的專家和人工智能工程師的數(shù)量都會影響項目的長度和質(zhì)量。因為這個過程依賴于試錯,所以在解決方案準(zhǔn)備好使用之前需要更長的時間。

除了可能源于數(shù)據(jù)的問題之外,在設(shè)置訓(xùn)練算法的超參數(shù)(hyperparameter)時還可能出現(xiàn)其他挑戰(zhàn),例如學(xué)習(xí)率、epoch數(shù)量和層數(shù)。這就是人工智能專家可能需要重新設(shè)計的地方,以解決在測試階段明顯出現(xiàn)的過擬合和災(zāi)難性遺忘問題,這可能會花費項目額外的時間。

盡管經(jīng)過深思熟慮的過程可以減少壓力,但始終存在出現(xiàn)新LLM解決方案淘汰舊解決方案的風(fēng)險。考慮到人工智能技術(shù)的快速發(fā)展,組織需要在時機(jī)和質(zhì)量之間尋求平衡。

與許多創(chuàng)新解決方案一樣,沒有放之四海而皆準(zhǔn)方法。在開始公司的人工智能之旅時,權(quán)衡適合您業(yè)務(wù)的模型是第一步。對于業(yè)務(wù)領(lǐng)導(dǎo)者來說,從頭開始訓(xùn)練LLM可能聽起來令人望而生畏,但如果您有通用LLM無法解決的特定領(lǐng)域的“業(yè)務(wù)問題”,那么從長遠(yuǎn)來看,這將是值得投資的選擇。

原文標(biāo)題:Is creating an in-house LLM right for your organization?,作者: Gokcen Tapkan

責(zé)任編輯:華軒 來源: 51CTO
相關(guān)推薦

2024-11-21 08:22:45

2023-06-19 16:05:22

大型語言模型人工智能

2022-05-23 13:53:55

企業(yè)網(wǎng)絡(luò)攻擊滲透測試

2009-12-22 16:32:25

無線路由安全設(shè)置

2024-08-13 08:09:34

2023-10-08 15:54:12

2024-12-23 08:03:13

2023-11-06 08:38:50

LLM語言模型ChatGPT

2020-06-12 11:51:07

工控安全網(wǎng)絡(luò)安全網(wǎng)絡(luò)攻擊

2020-05-13 13:09:21

微隔離網(wǎng)絡(luò)攻擊網(wǎng)絡(luò)安全

2019-03-27 14:42:11

零售商云端遷移

2020-09-01 10:38:49

混合云云計算

2024-04-11 13:38:19

大型語言模型

2016-02-25 10:23:31

2024-05-30 08:40:41

大型語言模型LLM人工智能

2021-10-11 09:30:21

零信任網(wǎng)絡(luò)安全網(wǎng)絡(luò)攻擊

2020-04-14 10:22:50

零信任安全架構(gòu)網(wǎng)絡(luò)安全

2022-09-13 08:47:59

CIO董事會IT

2009-07-02 17:39:46

Java未來

2021-05-14 14:04:37

數(shù)字化轉(zhuǎn)型IT技術(shù)
點贊
收藏

51CTO技術(shù)棧公眾號