自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

如何使用LangChain和OpenAI API分析文檔?

譯文
人工智能 開發(fā)工具
借助少許代碼和一些實(shí)用的庫,您就能構(gòu)建一個(gè)功能強(qiáng)大的文檔分析工具。

譯者 | 布加迪

審校 | 重樓

從文檔和數(shù)據(jù)中提取洞察力對(duì)于做出明智的決策至關(guān)重要。然而在處理敏感信息時(shí),會(huì)出現(xiàn)隱私問題。結(jié)合使用LangChainOpenAI API,您就可以分析本地文檔,無需上傳到網(wǎng)上。

它們通過將數(shù)據(jù)保存在本地、使用嵌入和向量化進(jìn)行分析以及在您的環(huán)境中執(zhí)行進(jìn)程來做到這一點(diǎn)。OpenAI不使用客戶通過其API提交的數(shù)據(jù)來訓(xùn)練模型或改進(jìn)服務(wù)。

搭建環(huán)境

創(chuàng)建一個(gè)新的Python虛擬環(huán)境,這將確保沒有庫版本沖突。然后運(yùn)行以下終端命令來安裝所需的庫。

pip install langchain openai tiktoken faiss-cpu pypdf

下面詳細(xì)說明您將如何使用每個(gè)庫

  • LangChain您將用它來創(chuàng)建和管理用于文本處理和分析的語言鏈。它將提供用于文檔加載、文本分割、嵌入和量存儲(chǔ)的模塊。
  • OpenAI您將用它來運(yùn)行查詢,并從語言模型獲取結(jié)果。
  • tiktoken您將用它來計(jì)算給定文本中token(文本單位的數(shù)量。這是為了在與基于您使用的token數(shù)量收費(fèi)OpenAI API交互時(shí)跟蹤token計(jì)數(shù)。
  • FAISS您將用它來創(chuàng)建和管理向量存儲(chǔ),允許基于嵌入快速檢索相似的向量。
  • PyPDF這個(gè)庫從PDF提取文本。它有助于加載PDF文件并提取其文本,供進(jìn)一步處理。

安裝完所有庫之后,您的環(huán)境現(xiàn)已準(zhǔn)備就緒。

獲得OpenAI API密鑰

當(dāng)您向OpenAI API發(fā)出請(qǐng)求時(shí),需要添加API密鑰作為請(qǐng)求的一部分。密鑰允許API提供者驗(yàn)證請(qǐng)求是否來自合法來源,以及您是否擁有訪問其功能所需的權(quán)限。

為了獲得OpenAI API密鑰,進(jìn)入到OpenAI平臺(tái)

然后在右上方的帳戶個(gè)人資料下,點(diǎn)擊“查看API密鑰,將出現(xiàn)API密鑰頁面。

點(diǎn)擊“創(chuàng)建新的密鑰”按鈕。為密鑰命名,點(diǎn)擊“創(chuàng)建新密鑰OpenAI將生成API密鑰,您應(yīng)該復(fù)制并保存在安全的地方。出于安全原因,您將無法通過OpenAI帳戶再次查看它。如果丟失了密鑰,需要生成新的密鑰。

導(dǎo)入所需的庫

為了能夠使用安裝在虛擬環(huán)境中的庫,您需要導(dǎo)入它們。

from langchain.document_loaders import PyPDFLoader, TextLoader
from langchain.text_splitter import CharacterTextSplitter
from langchain.embeddings.openai import OpenAIEmbeddings
from langchain.vectorstores import FAISS
from langchain.chains import RetrievalQA
from langchain.llms import OpenAI

注意,您從LangChain導(dǎo)入了依賴項(xiàng),這讓您可以使用LangChain框架的特定功能。

加載用于分析的文檔

先創(chuàng)建一個(gè)含API密鑰的變量。稍后,您將在代碼中使用該變量用于身份驗(yàn)證。

# Hardcoded API key
openai_api_key = "Your API key"

如果您打算與第三方共享您的代碼,不建議對(duì)API密鑰進(jìn)行硬編碼。對(duì)于打算分發(fā)的生產(chǎn)級(jí)代碼,則改而使用環(huán)境變量。

接下來,創(chuàng)建一個(gè)加載文檔的函數(shù)。該函數(shù)應(yīng)該加載PDF或文本文件。如果文檔既不是PDF文件,也不是文本文件,該函數(shù)會(huì)拋出值錯(cuò)誤

def load_document(filename):
    if filename.endswith(".pdf"):
 loader = PyPDFLoader(filename)
 documents = loader.load()
 elif filename.endswith(".txt"):
 loader = TextLoader(filename)
 documents = loader.load()
 else:
 raise ValueError("Invalid file type")

加載文檔后,創(chuàng)建一個(gè)CharacterTextSplitter。該分割器將基于字符將加載的文檔分隔成更小的塊。

text_splitter = CharacterTextSplitter(chunk_size=1000, 
   chunk_overlap=30, separator="\n")

   return text_splitter.split_documents(documents=documents)

分割文檔可確保塊的大小易于管理,仍與一些重疊的上下文相連接。這對(duì)于文本分析和信息檢索之類的任務(wù)非常有用。

查詢文檔

您需要一種方法來查詢上傳的文檔,以便從中獲得洞察力。為此,創(chuàng)建一個(gè)以查詢字符串和檢索器作為輸入的函數(shù)。然后,它使用檢索器和OpenAI語言模型的實(shí)例創(chuàng)建一個(gè)RetrievalQA實(shí)例。

def query_pdf(query, retriever):
  qa = RetrievalQA.from_chain_type(llm=OpenAI(openai_api_key=openai_api_key),
   chain_type="stuff", retriever=retriever)
  result = qa.run(query)
 print(result)

函數(shù)使用創(chuàng)建的QA實(shí)例來運(yùn)行查詢并輸出結(jié)果。

創(chuàng)建函數(shù)

函數(shù)將控制整個(gè)程序流。它將接受用戶輸入的文檔文件名并加載該文檔。然后為文本嵌入創(chuàng)建OpenAIEmbeddings實(shí)例,并基于加載的文檔和文本嵌入構(gòu)造一個(gè)量存儲(chǔ)。將該向量存儲(chǔ)保存到本地文件。

接下來,從本地文件加載持久的量存儲(chǔ)。然后輸入一個(gè)循環(huán),用戶可以在其中輸入查詢。主函數(shù)將這些查詢持久化向量存儲(chǔ)的檢索器一起傳遞給query_pdf函數(shù)。循環(huán)將繼續(xù),直到用戶輸入exit。

def main():
   filename = input("Enter the name of the document (.pdf or .txt):\n")
  docs = load_document(filename)
  embeddings = OpenAIEmbeddings(openai_api_key=openai_api_key)
  vectorstore = FAISS.from_documents(docs, embeddings)
   vectorstore.save_local("faiss_index_constitution")
  persisted_vectorstore = FAISS.load_local("faiss_index_constitution", embeddings)
  query = input("Type in your query (type 'exit' to quit):\n")

  while query != "exit":
  query_pdf(query, persisted_vectorstore.as_retriever())
  query = input("Type in your query (type 'exit' to quit):\n")

嵌入捕獲詞之間的語義關(guān)系。向量是一種可以表示一段文本的形式。

這段代碼使用OpenAIEmbeddings生成的嵌入將文檔中的文本數(shù)據(jù)轉(zhuǎn)換向量。然后使用FAISS對(duì)這些向量進(jìn)行索引,以便效地檢索和比較相似的向量。這便于對(duì)上傳的文檔進(jìn)行分析。

最后,如果用戶獨(dú)立運(yùn)行程序,使用__name__ == "__main__"構(gòu)造函數(shù)來調(diào)用函數(shù)

if __name__ == "__main__":
   main()

這個(gè)應(yīng)用程序是一個(gè)命令行應(yīng)用程序。作為一個(gè)擴(kuò)展,可以使用Streamlit為該應(yīng)用程序添加Web界面。

執(zhí)行文件分析

要執(zhí)行文檔分析,將所要分析的文檔存儲(chǔ)在項(xiàng)目所在的同一個(gè)文件夾中,然后運(yùn)行該程序。它將詢問要分析的文檔的名稱。輸入全名,然后輸入查詢,以便程序分析。

下面的截圖顯示了分析PDF的結(jié)果。

下面的輸出顯示了分析含源代碼的文本文件的結(jié)果。

確保所要分析的文件是PDF或文本格式。如果您的文檔采用其他格式,可以使用在線工具將它們轉(zhuǎn)換成PDF格式。

完整的源代碼可以在GitHub代碼庫中獲得:https://github.com/makeuseofcode/Document-analysis-using-LangChain-and-OpenAI。

原文標(biāo)題:How to Analyze Documents With LangChain and the OpenAI API,作者:Denis Kuria

責(zé)任編輯:華軒 來源: 51CTO
相關(guān)推薦

2024-05-21 09:01:00

2012-03-08 09:44:41

編程

2023-11-21 08:00:00

LangChain大型語言模型人工智能

2024-03-26 00:00:07

2024-02-18 08:00:00

PythonAI多模態(tài)模型API

2024-08-30 11:27:55

父文檔檢索RAG技術(shù)人工智能

2023-05-08 08:00:00

2023-09-20 08:00:00

大語言模型代碼庫

2009-07-26 20:36:07

EclipseJDKAPI幫助文檔

2024-11-26 08:00:00

SQLPandasPandaSQL

2023-06-26 10:51:56

開源API

2020-09-08 11:30:39

Edge DevTooWebAPI

2020-09-02 10:17:10

大數(shù)據(jù)數(shù)據(jù)分析數(shù)據(jù)

2023-12-26 18:54:22

2020-01-16 11:42:45

PyramidCornicePython Web

2023-08-07 18:55:19

2022-03-15 12:43:44

Web APIAPI

2024-06-27 10:55:21

2022-02-14 09:49:18

API微服務(wù)聚合

2023-03-03 07:34:05

點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)