基于瀏覽器運(yùn)行的 Ollama WEB客戶端開源發(fā)布 原創(chuàng)
一、摘要
??LocalAPI.ai??? 是一個(gè)開源的在線調(diào)用系統(tǒng),專注于提供基于瀏覽器的 Ollama WEB UI客戶端。該系統(tǒng)致力于為用戶提供便捷、安全的 AI 服務(wù)體驗(yàn),允許用戶無需安裝第三方軟件即使用可進(jìn)行智能對話、文本生成、模型管理等功能,并且支持在移動端(手機(jī))進(jìn)行遠(yuǎn)程使用。
在線體驗(yàn): ???http://www.LocalAPI.ai??
Github地址:??https://github.com/vam876/LocalAPI.AI/??
? PC版本功能演示
? 移動端版本功能演示
二、主要功能
? 遠(yuǎn)程調(diào)用:支持通過 API 遠(yuǎn)程調(diào)用 Ollama 模型,實(shí)現(xiàn)云端計(jì)算資源的高效利用。
? 兼容移動端:優(yōu)化了瀏覽器的適配,用戶可以在手機(jī)等移動設(shè)備上流暢地訪問系統(tǒng),進(jìn)行遠(yuǎn)程模型調(diào)用和相關(guān)操作。
? 安全性增強(qiáng):提供身份驗(yàn)證和訪問控制機(jī)制,確保模型調(diào)用的安全性。
? 多模型支持:支持多種 Ollama 模型,滿足不同場景下的需求。
? 代碼高亮顯示:在交互界面中,代碼片段會自動進(jìn)行語法高亮顯示,提升代碼可讀性和編寫效率。
三、快速部署
方式一
可直接下載集成LocalAPI.ai的Nginx,修改nginx.conf配置文件中的的Ollama API地址既可以一鍵啟動 ??https://github.com/vam876/LocalAPI.AI/releases/tag/Bete??
方式二
將以下文件部署到 web 服務(wù)即可快速訪問:
index.html
assets/index-6T7dvEla.js
assets/index-Bu-ZNHg4.css
使用 Nginx 反向代理(推薦)
利用 Nginx 的反向代理功能可以無需解決跨域限制,快速啟動服務(wù)。以下是一個(gè)示例配置:
events {
worker_connections 1024;
}
http {
include mime.types;
default_type application/octet-stream;
sendfile on;
keepalive_timeout 65;
# 禁用緩沖以支持流式響應(yīng)
proxy_buffering off;
# 增大緩沖區(qū)設(shè)置,避免 502 Bad Gateway
proxy_buffer_size 256k;
proxy_buffers 4 256k;
proxy_busy_buffers_size 512k;
server {
listen 80; # 綁定80端口
server_name your_domain_or_ip;
# 代理 Ollama 服務(wù)到 /api/
location /api/ {
proxy_pass http://127.0.0.1:11434/api/; # 這里填寫Ollama API服務(wù)的地址
proxy_set_header Host $host;
proxy_set_header X-Real-IP $remote_addr;
proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
proxy_set_header X-Forwarded-Proto $scheme;
# 處理 OPTIONS 請求
if ($request_method = 'OPTIONS') {
add_header 'Access-Control-Max-Age' 1728000;
add_header 'Content-Type' 'text/plain charset=UTF-8';
add_header 'Content-Length' 0;
return 204;
}
}
# 自定義 404 錯(cuò)誤頁面,重定向到首頁
error_page 404 /;
location = / {
internal;
}
# 可選:處理其他靜態(tài)資源請求
location / {
try_files $uri $uri/ /;
}
}}
