自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

從0開始:用 Streamlit + LangChain 搭建個簡易ChatGPT

發(fā)布于 2025-2-18 13:22
瀏覽
0收藏

流式傳輸允許實時接收生成的文本,隨著文本的生成而接收。這樣,您就不必等到整個文本準備好后才能開始向用戶展示。我們將使用 LangChain 與LLM進行流式交互,并使用 Streamlit 創(chuàng)建應用的前端。

1. 什么是 Streamlit?

2. 什么是 LangChain?

3. 什么是流式輸出?

4. 代碼實現(xiàn)

  • 4.1 安裝依賴
  • 4.2 導入必要的庫
  • 4.3 初始化 OpenAI 語言模型
  • 4.4 創(chuàng)建 Streamlit UI
  • 4.5 實現(xiàn)流式輸出
  • 4.6 管理聊天歷史
  • 4.7 顯示聊天記錄
  • 4.8 獲取用戶輸入并生成 AI 回復

5. 運行項目

總結

流式傳輸允許實時接收生成的文本,隨著文本的生成而接收。這樣,您就不必等到整個文本準備好后才能開始向用戶展示。我們將使用 LangChain 與LLM進行流式交互,并使用 Streamlit 創(chuàng)建應用的前端。

要構建的聊天AI將具有以下功能:

  • 在生成過程中實時流式傳輸來自LLM的響應。
  • 使用 LangChain 與 LLM 進行交互。
  • 使用 Streamlit 創(chuàng)建應用的前端。
  • 記住聊天記錄并向用戶顯示。

最終效果如下:

用戶輸入問題 → LLM 實時流式回復 → 記錄歷史對話 → 支持用戶反饋(點贊/踩)

從0開始:用 Streamlit + LangChain 搭建個簡易ChatGPT-AI.x社區(qū)

1. 什么是 Streamlit? 

Streamlit 是一個快速搭建 Web 應用的 Python 庫,特別適合機器學習和 AI 相關項目。

它允許開發(fā)者僅用幾行 Python 代碼,就能創(chuàng)建交互式的用戶界面。你不需要寫 HTML、CSS 或 JavaScript,也不需要進行前端開發(fā),從而可以專注于項目的核心功能。而且,Streamlit 已經為創(chuàng)建 AI 聊天應用提供了內置支持。

從0開始:用 Streamlit + LangChain 搭建個簡易ChatGPT-AI.x社區(qū)

Streamlit 主要特點

  1. 簡潔易用:用 Python 腳本就能創(chuàng)建 Web 應用,無需 HTML、CSS 或 JavaScript。
  2. 自動刷新:修改代碼后,應用會自動更新,無需手動刷新。
  3. 支持交互組件:提供按鈕、滑塊、文件上傳等組件,方便用戶與應用交互。
  4. 數(shù)據(jù)可視化:支持Matplotlib、Plotly等數(shù)據(jù)可視化庫,直接在 Web 頁面展示圖表。

2. 什么是 LangChain? 

LangChain的核心思想是通過模塊化能設計和力抽象,將不同的組件和功能“鏈”在一起,以創(chuàng)建更復雜和多功能的語言處理系統(tǒng)。

這些組件包括模型、聊天模型、文本嵌入模、型提示模板、索引、文檔加載器、文本分割器、向量存儲、檢索器、記憶功能、鏈和代理等。

這種設計不僅提高了系統(tǒng)的靈活性和可擴展性,還使得開發(fā)者可以根據(jù)具體需求自由組合和調整各個模塊,從而實現(xiàn)更強大、更定制化的AI應用

通俗來說,LangChain 是一種幫助開發(fā)者用大模型制作“應用程序”的開發(fā)工具。它就像一個“搭建AI房子”的工具箱,里面有各種現(xiàn)成的積木,開發(fā)者只需要把這些積木拼起來,就可以實現(xiàn)很多強大的功能。

使用 LangChain,我們可以更容易地集成 OpenAI 的 GPT-4o,并專注于構建 AI 對話的核心邏輯。

相關閱讀:?從0到1開發(fā)AI Agent(智能體)(四)| LangChain 的快速入門

3. 什么是流式輸出? 

流式輸出是指在用戶輸入問題后,AI 并不是等待一段時間再一次性返回完整的答案,而是 邊生成邊顯示,逐步展示 AI 的思考過程。這種方式不僅減少了等待時間,而且讓 AI 的回答看起來更自然,仿佛它在思考時逐漸給出答案。這種交互體驗顯得更加生動、真實,用戶可以感覺到 AI “在實時作答”。

如果不使用流式輸出,模型需要等到所有文本生成完畢后才返回結果,用戶可能會感到延遲很長。而流式調用能夠逐步生成輸出,減少等待時間,提升交互體驗,類似于 ChatGPT 的打字效果。

普通 vs. 流式輸出

模式

特點

普通輸出(非流式)

用戶提交問題 → 等待幾秒 → 一次性返回完整答案

流式輸出(像 ChatGPT)

用戶提交問題 → AI 邊生成邊顯示 → 逐步輸出答案


4. 代碼實現(xiàn) 

4.1 安裝依賴

首先,我們需要安裝所需的 Python 庫。打開終端并執(zhí)行以下命令:

pip install streamlit langchain langchain-openai

安裝完成后,我們可以開始編寫代碼。

4.2 導入必要的庫

在 Python 代碼中,我們需要導入 Streamlit 和 LangChain 的相關庫。具體如下:

# 導入必要的Python庫
import os  # 用于處理操作系統(tǒng)相關的功能

# 設置OpenAI API密鑰
OPENAI_API_KEY = 'hk-iwta91e427'  
os.environ['OpenAI_API_KEY'] = OPENAI_API_KEY  # 將API密鑰添加到環(huán)境變量中

# 導入Streamlit庫用于創(chuàng)建Web界面,導入OpenAI聊天模型
import streamlit as st
from langchain_openai.chat_models import ChatOpenAI

在這里, os? 是用來處理環(huán)境變量的, streamlit? 是我們創(chuàng)建前端界面的核心庫, ChatOpenAI 則是 LangChain 中與 OpenAI 進行交互的模塊。

4.3 初始化 OpenAI 語言模型

我們將通過 LangChain 初始化 OpenAI 的 GPT 模型。以下代碼片段展示了如何配置 GPT-4o,并設置它的一些基本參數(shù):

# 初始化ChatOpenAI模型
llm = ChatOpenAI(
    model="gpt-4o-mini",  # 指定使用的模型名稱
    temperature=0,  # 設置溫度為0,使模型輸出更加確定性(不那么隨機)
    base_url="https://api.openai-hk.com/v1"  # 設置API的基礎URL地址
)

這里, model="gpt-4o-mini"? 是選擇使用 GPT-4o 的迷你版本, temperature=0? 表示我們希望模型輸出更加確定性,不那么隨機, base_url 則是一個代理 URL,適用于我們在某些地區(qū)需要通過代理訪問 OpenAI API 的情況。

4.4 創(chuàng)建 Streamlit UI

接下來,我們使用 Streamlit 創(chuàng)建一個簡單的用戶界面,允許用戶輸入問題并顯示 AI 的回答。

# 設置網頁標題
st.title("從0開始:用 Streamlit + LangChain 搭建流式聊天 AI")
st.write("輸入你的問題,AI 將實時回答!")

這段代碼會在頁面上顯示標題,并寫下提示文字。

4.5 實現(xiàn)流式輸出

為了實現(xiàn)流式輸出,我們定義一個函數(shù),使用 yield 逐步返回 AI 模型生成的回答。這是流式輸出的核心部分:

def chat_stream(prompt):
    """
    使用流式方式獲取并返回AI模型的響應。
    
    Args:
        prompt (str): 用戶輸入的提示文本
        
    Yields:
        str: AI模型響應的文本片段
    """
    for chunk in llm.stream(prompt):
        if chunk.content:
            yield chunk.content

在這個函數(shù)中,我們通過 llm.stream() 向模型發(fā)送請求,并逐步返回其生成的內容。每次返回一個小片段,直到完整的回答生成完畢。

4.6 管理聊天歷史

為了讓用戶能夠查看之前的聊天記錄,我們使用 Streamlit session_state 來存儲聊天歷史。這樣,即使刷新頁面,聊天記錄也不會丟失。

# 定義保存反饋的函數(shù)
def save_feedback(index):
    """
    保存用戶對AI回復的反饋。
    
    Args:
        index (int): 消息在歷史記錄中的索引位置
    """
    st.session_state.history[index]["feedback"] = st.session_state[f"feedback_{index}"]

# 初始化聊天歷史記錄
if "history" not in st.session_state:
    st.session_state.history = []

4.7 顯示聊天記錄

我們用以下代碼展示所有歷史對話消息。這里,用戶的消息和 AI 的回答會依次顯示,仿佛是在進行真實的對話。

# 顯示歷史對話記錄
for i, message in enumerate(st.session_state.history):
    with st.chat_message(message["role"]):  # 創(chuàng)建聊天消息氣泡
        st.write(message["content"])  # 顯示消息內容
        if message["role"] == "assistant":  # 如果是AI助手的回復
            feedback = message.get("feedback", None)  # 獲取之前的反饋(如果有)
            st.session_state[f"feedback_{i}"] = feedback  # 存儲反饋狀態(tài)
            # 添加反饋按鈕(贊/踩)
            st.feedback(
                "thumbs",
                key=f"feedback_{i}",
                disabled=feedback isnotNone,  # 如果已有反饋則禁用按鈕
                on_change=save_feedback,  # 設置反饋變化時的回調函數(shù)
                args=[i],  # 傳遞消息索引作為參數(shù)
            )

4.8 獲取用戶輸入并生成 AI 回復

當用戶輸入一個問題時,我們將觸發(fā) AI 生成回答并通過流式輸出逐步顯示。以下代碼展示了如何處理用戶輸入并展示 AI 的流式回答:

# 創(chuàng)建聊天輸入框
if prompt := st.chat_input("說出你的故事"):  # 如果用戶輸入了新消息
    with st.chat_message("user"):  # 顯示用戶消息
        st.write(prompt)

    # 將用戶消息添加到歷史記錄
    st.session_state.history.append({"role": "user", "content": prompt})

    with st.chat_message("assistant"):  # 顯示AI助手的回復
        full_response = ""# 用于存儲完整的回復內容

        # 調用大模型,使用流式輸出顯示AI的回復
        for chunk in st.write_stream(chat_stream(prompt)):
            full_response += chunk

        # 為AI回復添加反饋按鈕
        st.feedback(
            "thumbs",
            key=f"feedback_{len(st.session_state.history)}",
            on_change=save_feedback,
            args=[len(st.session_state.history)],
        )
    # 將AI的回復添加到歷史記錄
    st.session_state.history.append({"role": "assistant", "content": full_response})

在這段代碼中,當用戶輸入問題時,應用會先顯示用戶的問題,再通過流式輸出逐步展示 AI 的回答。

5. 運行項目 

最后,使用以下命令啟動應用:

streamlit run app.py

  You can now view your Streamlit app in your browser.

  Local URL: http://localhost:8501
  Network URL: http://198.18.0.1:8501

打開瀏覽器,聊天AI就會運行起來,用戶可以實時與 AI 進行對話。

總結 

我們使用 Streamlit 快速搭建了一個流式輸出的聊天應用,并結合 LangChain 實現(xiàn)了與 GPT-4o 的交互。通過流式輸出,用戶能感受到 AI 更自然、即時的反饋,而聊天歷史也被保存在會話中,確保不會丟失。

這只是一個簡單的起步,未來你可以進一步優(yōu)化 UI,添加更多功能,打造更加智能的聊天機器人!

本文轉載自 ??AI取經路??,作者: AI取經路


收藏
回復
舉報
回復
相關推薦