微軟研究院新突破:如何讓AI在專業(yè)領(lǐng)域更靠譜? 原創(chuàng)
01、概述
在人工智能的世界里,大型語言模型(LLMs)就像是瑞士軍刀,多才多藝,幾乎無所不能。但是,當它們遇到需要特定領(lǐng)域知識的任務(wù)時,比如醫(yī)療保健、法律和金融,這些萬能的模型就顯得有些力不從心了。這是為什么呢?因為它們在訓(xùn)練時使用的數(shù)據(jù)集往往缺乏最新的專業(yè)信息,導(dǎo)致它們在回答專業(yè)問題時可能會“幻覺”——也就是說,給出的答案可能不準確,甚至是錯誤的。
問題的根源
LLMs在處理一般知識時表現(xiàn)出色,但當涉及到專業(yè)或時效性查詢時,它們的表現(xiàn)就不盡如人意了。這是因為大多數(shù)模型都是在靜態(tài)數(shù)據(jù)上訓(xùn)練的,它們的知識庫無法隨時更新。想象一下,一個醫(yī)療AI模型如果不能訪問最新的醫(yī)療指南,它又怎么能提供準確的醫(yī)療建議呢?
當前解決方案:微調(diào)和RAG
為了解決這個問題,研究人員嘗試了多種方法,其中之一就是微調(diào)。微調(diào)可以讓模型在特定領(lǐng)域的數(shù)據(jù)上重新訓(xùn)練,使其更好地適應(yīng)特定任務(wù)。但這種方法既耗時又需要大量的訓(xùn)練數(shù)據(jù),而且可能會導(dǎo)致模型過于專業(yè)化,反而在一般查詢上表現(xiàn)不佳。
另一種方法是檢索增強生成(RAG),它允許模型在生成答案的過程中實時檢索外部數(shù)據(jù)。這種方法更靈活,可以提高模型的準確性和相關(guān)性。但RAG也有它的挑戰(zhàn),比如如何處理非結(jié)構(gòu)化數(shù)據(jù),比如文本、圖像和表格等。
02、微軟研究院的新方法
微軟亞洲研究院的研究人員提出了一種新的方法,他們將用戶查詢分為四個不同的級別:明確事實、隱含事實、可解釋理由和隱藏理由。這種分類有助于定制模型檢索和處理數(shù)據(jù)的方法,確保它為特定任務(wù)選擇最相關(guān)的信息。
四個查詢級別
- 明確事實:比如“法國的首都是哪里?”這樣的問題,答案可以直接從外部數(shù)據(jù)中檢索得到。
- 隱含事實:需要更多的推理,比如結(jié)合多條信息來推斷結(jié)論。
- 可解釋理由:涉及特定領(lǐng)域的指南。
- 隱藏理由:需要深入推理,通常涉及抽象概念。
方法的優(yōu)勢
這種方法使LLMs能夠區(qū)分這些查詢類型,并應(yīng)用適當級別的推理。例如,在沒有明確答案的隱藏理由查詢中,模型可以推斷模式并使用特定領(lǐng)域的推理方法生成回答。這樣,模型在檢索所需信息和提供準確、基于上下文的回答方面變得更加高效。
實踐成果
研究還突出了這種方法的顯著成果。在醫(yī)療保健和法律分析等專業(yè)領(lǐng)域,模型的性能顯著提高。例如,在醫(yī)療保健應(yīng)用中,模型將幻覺率降低了高達40%,提供了更加可靠和有根據(jù)的回答。在法律系統(tǒng)中,模型在處理復(fù)雜文檔和提供詳細分析方面的準確性提高了35%。
03、結(jié)語
這項研究為在專業(yè)領(lǐng)域部署LLMs的一個基本問題提供了關(guān)鍵的解決方案。通過引入一個基于復(fù)雜性和類型的查詢分類系統(tǒng),微軟研究院的研究人員開發(fā)了一種方法,提高了LLMs輸出的準確性和可解釋性。這個框架使LLMs能夠檢索最相關(guān)的外部數(shù)據(jù),并有效地將其應(yīng)用于特定領(lǐng)域的查詢,減少幻覺并提高整體性能。研究表明,使用結(jié)構(gòu)化查詢分類可以提高高達40%的結(jié)果,這是AI驅(qū)動系統(tǒng)向前邁出的重要一步。通過解決數(shù)據(jù)檢索問題和整合外部知識,這項研究為各種行業(yè)的更可靠和強大的LLM應(yīng)用鋪平了道路。
參考:
?
本文轉(zhuǎn)載自公眾號Halo咯咯 作者:基咯咯
