自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

使用 BGE-M3 生成學(xué)習(xí)型稀疏嵌入,你學(xué)會了嗎?

人工智能 自然語言處理
BGE-M3 模型提供了高度的通用性和先進(jìn)的自然語言處理能力,這些能力在各個行業(yè)和部門都有應(yīng)用,可以顯著提高運營效率和服務(wù)質(zhì)量。

BGE-M3 是一種用于創(chuàng)建學(xué)習(xí)型稀疏嵌入的 ML 模型,它將精度和語義豐富度相結(jié)合,用于高級自然語言處理。

譯自Generate Learned Sparse Embeddings With BGE-M3,作者 Stephen Batifol。

有時,開發(fā)人員在選擇 LLM 檢索方法時需要做出選擇。他們可以使用傳統(tǒng)的稀疏嵌入或密集嵌入。稀疏嵌入非常適合關(guān)鍵字匹配過程。我們通常在自然語言處理(NLP) 中找到稀疏嵌入,這些高維嵌入通常包含零值。這些嵌入中的維度表示一種(或多種)語言中的標(biāo)記。它使用非零值來顯示每個標(biāo)記與特定文檔的相關(guān)性。

另一方面,密集嵌入的維度較低,但它們不包含任何零值。顧名思義,密集嵌入充滿了信息。這使得密集嵌入非常適合語義搜索任務(wù),使匹配“含義”的精神而不是精確的字符串變得更容易。

BGE-M3 是一種機(jī)器學(xué)習(xí)模型,用于創(chuàng)建一種稱為“學(xué)習(xí)型稀疏嵌入”的先進(jìn)嵌入類型。這些學(xué)習(xí)型嵌入的優(yōu)點是它們結(jié)合了稀疏嵌入的精確性和密集嵌入的語義豐富性。該模型使用稀疏嵌入中的標(biāo)記來學(xué)習(xí)哪些其他標(biāo)記可能相關(guān)或關(guān)聯(lián),即使它們沒有在原始搜索字符串中明確使用。最終,這將產(chǎn)生一個包含豐富相關(guān)信息的嵌入。

了解 BERT

來自 Transformer 的雙向編碼器表示(或BERT)不僅僅是表面上的東西。它是使 BGE-M3 和SPLADE等高級機(jī)器學(xué)習(xí)模型成為可能的底層架構(gòu)。

BERT 處理文本的方式不同于傳統(tǒng)模型。它不是僅僅按順序讀取文本字符串,而是同時檢查所有內(nèi)容,并將所有組件之間的關(guān)系考慮在內(nèi)。BERT 使用雙管齊下的方法來做到這一點。這些是模型實現(xiàn)的單獨的預(yù)訓(xùn)練任務(wù),但它們的輸出協(xié)同工作以豐富輸入的含義。

  1. 掩碼語言建模 (MLM):首先,BERT 隨機(jī)隱藏輸入標(biāo)記的一部分。然后,它使用模型來找出哪些選項對隱藏部分有意義。為此,它需要理解不僅單詞順序之間的關(guān)系,而且該順序如何影響含義。
  2. 下一句預(yù)測 (NSP):雖然 MLM 主要在句子級別起作用,但 NSP 進(jìn)一步放大。此任務(wù)確保句子和段落邏輯地流動,因此它學(xué)習(xí)預(yù)測在這些更廣泛的上下文中哪些內(nèi)容有意義。

當(dāng) BERT 模型分析查詢時,編碼器的每一層都獨立于其他層進(jìn)行分析。這允許每一層生成獨特的結(jié)果,不受其他編碼器的影響。這樣輸出的是一個更豐富、更健壯的數(shù)據(jù)集。

了解 BERT 的功能非常重要,因為 BGE-M3 基于 BERT。以下示例演示了 BERT 的工作原理。

BERT 的實際應(yīng)用

讓我們以一個基本查詢?yōu)槔?,看?BERT 如何從中創(chuàng)建嵌入:

Milvus is a vector database built for scalable similarity search.

第一步是將查詢字符串中的單詞轉(zhuǎn)換為標(biāo)記。

圖片圖片

您會注意到,模型在標(biāo)記的開頭添加了 [CLS],在結(jié)尾添加了 [SEP]。這些組件只是分別指示句子級別上句子開頭和結(jié)尾的標(biāo)記。

接下來,需要將標(biāo)記轉(zhuǎn)換為嵌入。

圖片圖片

此過程的第一部分是嵌入。在這里,嵌入矩陣將每個標(biāo)記轉(zhuǎn)換為向量。接下來,BERT 添加位置嵌入,因為單詞的順序很重要,而此嵌入保持這些相對位置不變。最后,段嵌入只是跟蹤句子之間的斷點。

我們可以看到此時嵌入輸出是單色的,以表示稀疏嵌入。為了實現(xiàn)更高的密度,這些嵌入會經(jīng)過多個編碼器。就像上面識別的獨立工作的預(yù)訓(xùn)練任務(wù)一樣,這些編碼器也這樣做。嵌入在通過編碼器時會不斷進(jìn)行修改。序列中的標(biāo)記為細(xì)化每個編碼器生成的表示提供了重要的上下文。

一旦此過程完成,最終輸出將比預(yù)編碼器輸出更密集的嵌入。當(dāng)使用單個標(biāo)記進(jìn)行進(jìn)一步處理或?qū)е聠蝹€密集表示的任務(wù)時,尤其如此。

BGE-M3 進(jìn)入聊天

BERT 為我們提供了密集嵌入,但這里的目標(biāo)是生成學(xué)習(xí)的稀疏嵌入。所以現(xiàn)在我們終于可以接觸到 BGE-M3 模型了。

BGE-M3 本質(zhì)上是一個高級機(jī)器學(xué)習(xí)模型,它通過專注于通過多功能性、多語言性和多粒度來增強(qiáng)文本表示,從而將 BERT 推向了更遠(yuǎn)。所有這些都是說,它不僅僅是通過生成學(xué)習(xí)的稀疏嵌入來創(chuàng)建密集嵌入,這些嵌入提供了兩全其美的優(yōu)勢:詞義和精確的詞語選擇。

BGE-M3 的實際應(yīng)用

讓我們從與理解 BERT 相同的查詢開始。運行查詢會生成與上面看到的相同的上下文嵌入序列。我們可以將此輸出稱為 (Q)。

圖片圖片

BGE-M3 模型深入研究這些嵌入,并試圖在更細(xì)粒度的層面上理解每個標(biāo)記的重要性。這方面有幾個方面。

  • 標(biāo)記重要性估計: BGE-M3 不會將 [CLS] 標(biāo)記表示Q[0]視為唯一可能的表示。它還會評估序列中每個標(biāo)記Q[i]的上下文嵌入。
  • 線性變換: 該模型還會獲取 BERT 輸出,并使用線性層為每個標(biāo)記創(chuàng)建重要性權(quán)重。我們可以將 BGE-M3 生成的權(quán)重集稱為W_{lex}。
  • 激活函數(shù): 然后,BGE-M3 對W_{lex}和Q[i]的乘積應(yīng)用線性整流單元 (ReLU) 激活函數(shù),以計算每個標(biāo)記的項權(quán)重w_{t}。使用 ReLU 確保項權(quán)重為非負(fù)數(shù),有助于嵌入的稀疏性。
  • 學(xué)習(xí)的稀疏嵌入: 最終的輸出結(jié)果是一個稀疏嵌入,其中每個標(biāo)記都有一個加權(quán)值,表示它對原始輸入字符串的重要性。

BGE-M3 在現(xiàn)實世界中的應(yīng)用

將 BGE-M3 模型應(yīng)用于現(xiàn)實世界的用例可以幫助證明這種機(jī)器學(xué)習(xí)模型的價值。這些是組織可以從該模型理解大量文本數(shù)據(jù)中的語言細(xì)微差別能力中獲益的領(lǐng)域。

客戶支持自動化 - 聊天機(jī)器人和虛擬助手

您可以使用 BGE-M3 為聊天機(jī)器人和虛擬助手提供動力,從而顯著增強(qiáng)客戶支持服務(wù)。這些聊天機(jī)器人可以處理各種客戶查詢,提供即時響應(yīng)并理解復(fù)雜的問題和上下文信息。它們還可以從交互中學(xué)習(xí),隨著時間的推移不斷改進(jìn)。

優(yōu)勢:

  • 全天候可用性: 為客戶提供全天候支持。
  • 成本效益: 減少對大型客戶支持團(tuán)隊的需求。
  • 改善客戶體驗: 快速準(zhǔn)確的響應(yīng)提高了客戶滿意度。
  • 可擴(kuò)展性: 可以同時處理大量查詢,確保在高峰時段提供一致的服務(wù)。

內(nèi)容生成和管理,用于營銷和媒體

您可以利用 BGE-M3 為博客、社交媒體、廣告等生成高質(zhì)量內(nèi)容。它可以根據(jù)所需的語氣、風(fēng)格和上下文創(chuàng)建文章、社交媒體帖子,甚至完整的報告。您還可以使用此模型來總結(jié)長篇文檔、創(chuàng)建摘要和生成產(chǎn)品描述。

優(yōu)勢:

  • 效率: 快速生成大量內(nèi)容。
  • 一致性: 在不同的內(nèi)容片段中保持一致的語氣和風(fēng)格。
  • 降低成本: 降低對大型內(nèi)容創(chuàng)作團(tuán)隊的需求。
  • 創(chuàng)造力: 有助于集思廣益和生成創(chuàng)意內(nèi)容想法。

醫(yī)療數(shù)據(jù)分析 - 臨床文檔和分析

醫(yī)療保健領(lǐng)域的開發(fā)人員可以使用 BGE-M3 分析臨床文檔和患者記錄,提取相關(guān)信息并幫助生成全面的醫(yī)療報告。它還可以幫助從大量醫(yī)療數(shù)據(jù)中識別趨勢和見解,從而支持更好的患者護(hù)理和研究。

優(yōu)勢:

  • 節(jié)省時間: 減少醫(yī)療保健專業(yè)人員在文檔方面花費的時間。
  • 準(zhǔn)確性: 提高醫(yī)療記錄和報告的準(zhǔn)確性。
  • 洞察力生成: 識別可以為更好的臨床決策提供信息的模式和趨勢。
  • 合規(guī)性: 有助于確保文檔符合監(jiān)管標(biāo)準(zhǔn)。

結(jié)論

BGE-M3 模型提供了高度的通用性和先進(jìn)的自然語言處理能力,這些能力在各個行業(yè)和部門都有應(yīng)用,可以顯著提高運營效率和服務(wù)質(zhì)量。

責(zé)任編輯:武曉燕 來源: 云云眾生s
相關(guān)推薦

2024-02-02 11:03:11

React數(shù)據(jù)Ref

2024-10-14 09:34:39

vue3通信emit

2024-10-14 08:31:41

泛型策略模式

2025-03-21 07:00:00

2023-10-30 07:05:31

2023-12-27 07:31:45

json產(chǎn)品場景

2023-08-08 08:23:08

Spring日志?線程池

2024-01-02 12:05:26

Java并發(fā)編程

2023-08-01 12:51:18

WebGPT機(jī)器學(xué)習(xí)模型

2023-01-10 08:43:15

定義DDD架構(gòu)

2024-02-04 00:00:00

Effect數(shù)據(jù)組件

2023-07-26 13:11:21

ChatGPT平臺工具

2024-01-19 08:25:38

死鎖Java通信

2022-11-08 08:45:30

Prettier代碼格式化工具

2023-06-15 08:00:23

2022-11-21 16:57:20

2024-08-19 10:24:14

2024-05-22 08:03:15

2024-01-02 07:04:23

2022-06-16 07:50:35

數(shù)據(jù)結(jié)構(gòu)鏈表
點贊
收藏

51CTO技術(shù)棧公眾號