企業(yè)領導者可以使用LLMs創(chuàng)造新機會的五種方式
一般而言,AIGC指的是一類ML技術,可以創(chuàng)建與人類創(chuàng)造的內(nèi)容非常相似的圖像、音樂和文本等內(nèi)容。另一方面,LLMs是具有數(shù)十億個參數(shù)的神經(jīng)網(wǎng)絡,這些參數(shù)已經(jīng)在大量文本數(shù)據(jù)上進行了訓練,這使它們能夠理解、處理和生成類似人類的語言。
總而言之,這些技術提供了一系列不同的應用,這些應用具有重塑不同行業(yè)的潛力,并提高了人與機器之間交互的效能。通過探索這些應用,企業(yè)領導者和決策者可以獲得寶貴的靈感,推動業(yè)務加速增長,并通過快速原型制作實現(xiàn)明顯改善的業(yè)務成果。AIGC的額外優(yōu)勢是,這些應用程序中的大多數(shù)只需要最低限度的專業(yè)知識,不需要進一步的模型培訓。
快速聲明:人們通常傾向于將第二代AI與ChatGPT聯(lián)系在一起,但也有許多其他供應商的產(chǎn)品可供選擇,如谷歌的T5、Meta的Llama、TII的Falcon和Anthropic的Claude。雖然本文中討論的大多數(shù)應用程序都使用了OpenAI的ChatGPT,但你可以很容易地調(diào)整和切換底層LLMs,以與你特定的預算、延遲(你需要模型生成完成的速度——較小的模型允許更快的加載并減少推理延遲)和下游任務保持一致。
1、將LLMs連接到外部數(shù)據(jù)
?在許多開箱即用的任務中表現(xiàn)出令人印象深刻的能力,例如翻譯和匯總LLMs,而不需要進行初始定制。他們之所以如此擅長這些通用任務,是因為底層基礎模型已經(jīng)在大型但通用的數(shù)據(jù)集上進行了培訓。然而,這種能力可能不會無縫地擴展到特定于領域的任務,例如,提供有關公司年度報告的答案。這就是檢索增強生成(RAG)的用武之地。
RAG是一個框架,用于構建使用外部數(shù)據(jù)源的基于LLMs的系統(tǒng)。RAG使LLMs能夠訪問它在預培訓期間不會看到的數(shù)據(jù),但這對于正確提供相關和準確的響應是必要的。RAG通過將NLP能力與外部知識相結合,使語言模型(如ChatGPT)能夠為特定領域的問題提供更好的答案,從而減少產(chǎn)生不準確信息或“幻覺”的情況。它通過以下方式實現(xiàn)這一點:
- 從外部知識來源檢索相關信息,如大規(guī)模文獻收藏、數(shù)據(jù)庫或互聯(lián)網(wǎng)。相關性基于對用戶問題的語義相似度(例如,使用余弦相似度來衡量)。
- 將檢索到的信息增加到提示中的原始問題(為回答問題提供有用的上下文),并將其傳遞給LLMs,以便它可以產(chǎn)生更知情、與上下文相關和更準確的回答。
這種方法使LLMs在不同的領域和應用程序中更加通用和有用,包括問題回答、內(nèi)容創(chuàng)建和訪問實時數(shù)據(jù)的交互式對話。播客應用Podurama也利用類似的技術來構建其AI支持的推薦聊天機器人。這些機器人熟練地根據(jù)用戶的提問推薦相關節(jié)目,從播客文字記錄中汲取見解來完善他們的推薦。
這種方法在危機管理中也很有價值。SaaS事件響應平臺PagerDuty使用LLMs來使用標題、嚴重性或其他因素等基本數(shù)據(jù)生成事件摘要,并使用內(nèi)部Slack Data?對其進行增強,響應者可以在LLMs中討論細節(jié)并共享故障排除更新,以提高摘要的質(zhì)量。
雖然RAG可能看起來很復雜,但LangChain庫為開發(fā)人員提供了實現(xiàn)RAG和構建復雜問答系統(tǒng)所需的工具。(在許多情況下,你只需要一行代碼即可開始)。LangChain是一個強大的庫,可以通過提供對外部數(shù)據(jù)源的訪問或連接到其他應用程序的現(xiàn)有API來增強和增強LLMs在運行時的性能。
當與開源LLMs(如Llama 2或Bloom)結合使用時,RAG成為處理機密文檔的一種非常強大的架構。特別有趣的是,LangChain擁有120多個集成(在撰寫本文時),支持與SQL、PDF、代碼片段甚至YouTube視頻的無縫集成。
2、將LLMs連接到外部應用程序
與利用外部數(shù)據(jù)源非常相似,LLMs可以與為特定任務量身定做的外部應用程序建立連接。當模型偶爾會因為過時的信息而產(chǎn)生不準確時,這一點尤為重要。例如,在詢問英國現(xiàn)任首相時,ChatGPT可能會繼續(xù)提到鮑里斯·約翰遜,盡管他已于2022年底離任。這一限制的產(chǎn)生是因為模型的知識是固定在其培訓前階段,并不包括培訓后事件,如Rishi Sunak的任命。
為了應對這些挑戰(zhàn),可以通過代理將LLMs與外部世界相結合來增強它們。這些代理用于緩解LLMs固有的互聯(lián)網(wǎng)接入不足,允許它們使用天氣API(用于實時天氣數(shù)據(jù))或SerpAPI(用于網(wǎng)絡搜索)等工具。Expedia的聊天機器人就是一個明顯的例子,它可以引導用戶發(fā)現(xiàn)和預訂酒店,回答有關住宿的問題,并提供個性化的旅行建議。
另一個引人入勝的應用涉及自動實時標記帶有特定屬性的推文,如情緒、攻擊性和語言。從營銷和廣告的角度來看,連接到電子商務工具的代理商可以幫助LLMs根據(jù)用戶興趣和內(nèi)容推薦產(chǎn)品或套餐。
3、鏈接LLMs
對于大多數(shù)應用程序,LLMs通常是單獨使用的。然而,最近LLMs鏈接在復雜應用中獲得了吸引力。它涉及按順序鏈接多個LLMs以執(zhí)行更復雜的任務。每個LLMs在一個特定的方面都有專長,他們相互協(xié)作,以產(chǎn)生全面和精細化的產(chǎn)出。
這種方法已經(jīng)被應用于語言翻譯中,其中連續(xù)使用LLMs將文本從一種語言轉換成另一種語言。像微軟這樣的公司已經(jīng)提議在低資源語言的情況下為翻譯服務提供LLMs鏈,從而實現(xiàn)對罕見單詞的更準確和上下文感知的翻譯。
這種方法還可以在其他領域提供幾個有價值的用例。對于面向消費者的公司,LLMs鏈接可以創(chuàng)建動態(tài)的客戶支持體驗,從而增強客戶互動、服務質(zhì)量和運營效率。
例如,第一個LLMs可以對客戶查詢進行分類并將其分類,將它們傳遞給專門的LLMs以獲得更準確的響應。在制造業(yè)中,物流鏈可以通過鏈接專門的物流鏈來優(yōu)化端到端的供應鏈流程,以進行需求預測、庫存管理、供應商選擇和風險評估。
4、使用LLMs提取實體
在LLMs出現(xiàn)之前,實體提取依賴于涉及數(shù)據(jù)收集、標記和復雜模型訓練的勞動密集型ML方法。這一過程既繁瑣又耗費資源。然而,隨著LLMs的出現(xiàn),這種模式發(fā)生了變化?,F(xiàn)在,實體提取被簡化為僅僅是提示,用戶可以毫不費力地查詢模型以從文本中提取實體。更有趣的是,當從PDF之類的非結構化文本中提取實體時,你甚至可以在提示符中定義感興趣的架構和屬性。
潛在的例子包括金融機構可以利用LLMs從新聞文章中提取關鍵的金融實體,如公司名稱、股票代碼和金融數(shù)字,從而實現(xiàn)及時和準確的市場分析。同樣,廣告/營銷機構可以使用它來管理其數(shù)字資產(chǎn),方法是采用LLMs驅(qū)動的實體提取來對廣告劇本、演員、位置和日期進行分類,從而促進高效的內(nèi)容索引和資產(chǎn)重用。
5、通過反應提示提高LLMs的透明度
雖然收到LLMs的直接回復無疑是有價值的,但黑匣子方法的不透明經(jīng)常引起用戶的猶豫。此外,當面對對復雜查詢的不準確響應時,準確地確定失敗的步驟變得具有挑戰(zhàn)性。系統(tǒng)地分解這一過程可以極大地幫助調(diào)試過程。這正是原因和行動(Reaction)框架發(fā)揮作用的地方,為這些挑戰(zhàn)提供了解決方案。
Reaction強調(diào)一步一步的推理,讓LLMs像人類一樣生成解決方案。目標是讓模型像人類一樣思考任務,并使用語言解釋其推理。人們可以很容易地操作這種方法,因為生成反應提示是一項簡單的任務,涉及人類注釋員用自然語言表達他們的想法,以及他們執(zhí)行的相應操作。只有少數(shù)幾個這樣的例子,該模型學會了很好地對新任務進行泛化。
受這一框架的啟發(fā),許多教育技術公司正在試行工具,為學習者提供個性化的課程作業(yè)和作業(yè)幫助,以及教師AI支持的課程計劃。為此,可汗學院開發(fā)了KhanMico,這是一個聊天機器人,旨在指導學生完成數(shù)學問題和編程練習。Khanmio不只是根據(jù)要求提供答案,而是通過引導學生完成推理過程來鼓勵深思熟慮的問題解決。這種方法不僅有助于防止抄襲,而且使學生能夠獨立掌握概念。
結論
雖然關于AI取代人類的潛力或最終實現(xiàn)技術奇點的辯論可能仍在進行中(正如AI教父杰弗里·辛頓所預測的那樣),但有一件事是肯定的:LLMs無疑將在加快一系列領域中各種任務的完成方面發(fā)揮關鍵作用。它們有能力提高效率、培養(yǎng)創(chuàng)造力和改進決策過程,同時簡化復雜的任務。
對于擔任各種技術角色的專業(yè)人士,如數(shù)據(jù)科學家、軟件開發(fā)人員和產(chǎn)品所有者,LLMs可以提供寶貴的工具來簡化工作流程、收集見解并釋放新的可能性。