Skip to content

LobeChat 配置教程

LobeChat 是一款开源 AI 聊天应用,支持多模型切换、自定义助手、插件、知识库和多模态输入。通过 FlyMux 可以把 LobeChat 接入统一的 OpenAI 兼容接口。

使用方式

  • 在线版本:适合快速测试,直接在界面中填写 API Key 和自定义接口地址
  • Docker 自托管:适合团队长期使用,配置固定环境变量后统一访问
  • Vercel 部署:适合希望快速上线独立实例的场景

在线版可访问 LobeChat 官方版本

Docker 部署

bash
docker run -d -p 3210:3210 \
  -e OPENAI_API_KEY=sk-你的APIKey \
  -e OPENAI_PROXY_URL=https://api.flymux.com/v1 \
  lobehub/lobe-chat

启动后访问本机的 http://localhost:3210

变量说明
OPENAI_API_KEYFlyMux API Key
OPENAI_PROXY_URLAPI 代理地址,需包含 /v1
OPENAI_MODEL_LIST自定义模型列表,可选

界面内手动配置

  1. 打开 LobeChat,进入设置。
  2. 在左侧菜单中选择“语言模型”。
  3. 找到 OpenAI 模型服务配置。
  4. 启用自定义接口或自定义代理地址。
  5. 填写以下配置:
text
API Key: sk-你的APIKey
API 代理地址: https://api.flymux.com/v1
模型列表: 留空或按控制台可用模型填写

点击“检查连接”确认配置成功。配置成功后,可以在模型列表中选择 FlyMux 当前可用的模型。

TIP

如果你的 LobeChat 版本要求填写的是“OpenAI 接口地址”或“API Proxy URL”,通常使用 https://api.flymux.com/v1

添加 Claude 模型

在设置中启用 Anthropic 提供商:

配置项
API Keysk-你的APIKey
API 代理地址https://api.flymux.com

WARNING

Anthropic 格式的 API 地址不需要 /v1 后缀,与 OpenAI 兼容接口不同。

常用能力

  • 多模型切换:适合在 Claude、GPT 等模型之间切换
  • 自定义助手:可以设置名称、角色描述和系统提示词
  • 多模态输入:使用支持视觉能力的模型时可上传图片
  • 知识库:上传文档后让 AI 基于资料回答问题
  • 插件系统:按需扩展联网、工具调用或工作流能力

推荐模型

用途模型说明
日常对话gpt-4o多模态支持
代码开发claude-sonnet-4-6代码能力强
图片分析gpt-4o视觉理解
快速响应gpt-4o-mini低延迟

常见问题

检查连接失败

优先检查以下内容:

  • API Key 是否复制完整
  • 接口地址是否为 https://api.flymux.com/v1
  • 当前 API Key 所属分组是否有对应模型权限
  • 本地或服务器网络是否能访问 FlyMux API

模型列表为空

可以先留空让 LobeChat 自动获取;如果仍为空,请手动填写 FlyMux 控制台中可用的模型名。

插件无法使用

部分插件需要模型支持 Function Calling,请使用支持工具调用的 GPT 系列模型。

图片无法解析

确保使用支持视觉的模型,如 gpt-4oclaude-sonnet-4-6

请求路径错误

  • OpenAI 格式:API 地址需要 /v1 后缀
  • Anthropic 格式:API 地址不需要 /v1 后缀

请确保 API 代理地址与所选提供商格式匹配。

对话数据是否会上传

LobeChat 在线版和自托管版的数据策略不同。若对数据控制要求较高,建议使用自托管版本,并按团队要求配置数据库、备份和访问权限。

更多资源