--- title: LobeChat 模型服务商相关环境变量配置指南 description: 了解如何配置各个模型服务商的环境变量以在 LobeChat 中使用不同的AI模型服务。 tags: - LobeChat - 模型服务商 - 环境变量 - AI模型 - 配置指南 --- # 模型服务商 LobeChat 在部署时提供了丰富的模型服务商相关的环境变量,你可以使用这些环境变量轻松定义需要在 LobeChat 中开启的模型服务商。 ## OpenAI ### `ENABLED_OPENAI` - 类型:可选 - 描述:默认启用 OpenAI 作为模型供应商,当设为 0 时关闭 OpenAI 服务 - 默认值:`1` - 示例:`0` ### `OPENAI_API_KEY` - 类型:必选 - 描述:这是你在 OpenAI 账户页面申请的 API 密钥,可以前往 [这里](https://platform.openai.com/api-keys) 查看 - 默认值:- - 示例:`sk-xxxxxx...xxxxxx` ### `OPENAI_PROXY_URL` - 类型:可选 - 描述:如果你手动配置了 OpenAI 接口代理,可以使用此配置项来覆盖默认的 OpenAI API 请求基础 URL - 默认值:`https://api.openai.com/v1` - 示例:`https://api.chatanywhere.cn` 或 `https://aihubmix.com/v1` 请检查你的代理服务商的请求后缀,有的代理服务商会在请求后缀添加 `/v1`,有的则不会。如果你在测试时发现 AI 返回的消息为空,请尝试添加 `/v1` 后缀后重试。 是否填写 `/v1` 跟模型服务商有很大关系,比如 openai 的默认地址是 `api.openai.com/v1` 。如果你的代理商转发了 `/v1` 这个接口,那么直接填 `proxy.com` 即可。 但如果模型服务商是直接转发了 `api.openai.com` 域名,那么你就要自己加上 `/v1` 这个 url。 相关讨论: - [Docker 安装,配置好环境变量后,为何返回值是空白?](https://github.com/lobehub/lobe-chat/discussions/623) - [使用第三方接口报错的原因](https://github.com/lobehub/lobe-chat/discussions/734) - [代理服务器地址填了聊天没任何反应](https://github.com/lobehub/lobe-chat/discussions/1065) ### `OPENAI_MODEL_LIST` - 类型:可选 - 描述:用来控制模型列表,使用 `+` 增加一个模型,使用 `-` 来隐藏一个模型,使用 `模型名=展示名<扩展配置>` 来自定义模型的展示名,用英文逗号隔开。模型定义语法规则见 [模型列表][model-list] - 默认值:`-` - 示例:`+qwen-7b-chat,+glm-6b,-gpt-3.5-turbo,gpt-4-0125-preview=gpt-4-turbo` 上面示例表示增加 `qwen-7b-chat` 和 `glm-6b` 到模型列表,而从列表中删除 `gpt-3.5-turbo`,并将 `gpt-4-0125-preview` 模型名字展示为 `gpt-4-turbo`。如果你想先禁用所有模型,再启用指定模型,可以使用 `-all,+gpt-3.5-turbo`,则表示仅启用 `gpt-3.5-turbo`。 你可以在 [modelProviders](https://github.com/lobehub/lobe-chat/tree/main/src/config/modelProviders) 查找到当前的所有模型名。 ## Azure OpenAI 如果你需要使用 Azure OpenAI 来提供模型服务,可以查阅 [使用 Azure OpenAI 部署](/zh/docs/self-hosting/examples/azure-openai) 章节查看详细步骤,这里将列举和 Azure OpenAI 相关的环境变量。 ### `AZURE_API_KEY` - 类型:必选 - 描述:这是你在 Azure OpenAI 账户页面申请的 API 密钥 - 默认值:- - 示例:`c55168be3874490ef0565d9779ecd5a6` ### `AZURE_ENDPOINT` - 类型:必选 - 描述:Azure API 地址,从 Azure 门户检查资源时,可在 “密钥和终结点” 部分中找到此值 - 默认值:`-` - 示例:`https://docs-test-001.openai.azure.com` ### `AZURE_API_VERSION` - 类型:必选 - 描述:Azure 的 API 版本,遵循 YYYY-MM-DD 格式 - 默认值:`-` - 示例:`2024-02-01`,查阅 [最新版本](https://docs.microsoft.com/zh-cn/azure/developer/javascript/api-reference/es-modules/azure-sdk/ai-translation/translationconfiguration?view=azure-node-latest#api-version) ### `AZURE_MODEL_LIST` - 类型:必选 - 描述:用来控制模型列表,使用 `模型名->部署名=展示名` 来自定义模型的展示名,用英文逗号隔开。支持扩展能力,其余语法规则详见 [模型列表][model-list] - 默认值:`-` - 示例:`gpt-35-turbo->my-deploy=GPT 3.5 Turbo` 或 `gpt-4-turbo->my-gpt4=GPT 4 Turbo<128000:vision:fc>` ## Google AI ### `GOOGLE_API_KEY` - 类型:必选 - 描述:这是你在 Google AI Platform 申请的 API 密钥,用于访问 Google AI 服务 - 默认值:- - 示例:`AIraDyDwcw254kwJaGjI9wwaHcdDCS__Vt3xQE` ### `GOOGLE_PROXY_URL` - 类型:可选 - 描述:如果你手动配置了 Google 接口代理,可以使用此配置项来覆盖默认的 Google API 请求基础 URL - 默认值:`https://generativelanguage.googleapis.com` - 示例:`https://api.genai.gd.edu.kg/google` ### `GOOGLE_MODEL_LIST` - 类型:可选 - 描述:用来控制模型列表,使用 `+` 增加一个模型,使用 `-` 来隐藏一个模型,使用 `模型名=展示名<扩展配置>` 来自定义模型的展示名,用英文逗号隔开。模型定义语法规则见 [模型列表][model-list] - 默认值:`-` - 示例:`-all,+gemini-1.5-flash-latest,+gemini-1.5-pro-latest` ## Anthropic AI ### `ANTHROPIC_API_KEY` - 类型:必选 - 描述:这是你在 Anthropic AI 服务中申请的 API 密钥 - 默认值:- - 示例:`sk-ant-apixx-xxxxxxxxx-xxxxxxxxxxxxxxxxx-xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx-xxxxxxxx` ### `ANTHROPIC_PROXY_URL` - 类型:可选 - 描述:如果你手动配置了 Anthropic 接口代理,可以使用此配置项来覆盖默认的 Anthropic API 请求基础 URL - 默认值:`https://api.anthropic.com` - 示例:`https://my-anthropic-proxy.com` ## AWS Bedrock ### `ENABLED_AWS_BEDROCK` - 类型:可选 - 描述:当设为 1 时启用 AWS Bedrock 服务 - 默认值:`0` - 示例:`1` ### `AWS_ACCESS_KEY_ID` - 类型:必选 - 描述:用于 AWS 服务认证的访问键 ID - 默认值:- - 示例:`AKIA5STVRLFSB4S9HWBR` ### `AWS_SECRET_ACCESS_KEY` - 类型:必选 - 描述:用于 AWS 服务认证的密钥 - 默认值:- - 示例:`Th3vXxLYpuKcv2BARktPSTPxx+jbSiFT6/0w7oEC` ### `AWS_REGION` - 类型:可选 - 描述:AWS 服务的区域设置 - 默认值:`us-east-1` - 示例:`us-east-1` ## DeepSeek AI ### `DEEPSEEK_API_KEY` - 类型:必选 - 描述:这是你在 DeepSeek AI 服务中申请的 API 密钥 - 默认值:- - 示例:`sk-xxxxxx...xxxxxx` ## OpenRouter AI ### `OPENROUTER_API_KEY` - 类型:必选 - 描述:这是你在 OpenRouter AI 服务中申请的 API 密钥 - 默认值:- - 示例:`sk-or-v1-xxxxxx...xxxxxx=` ### `OPENROUTER_MODEL_LIST` - 类型:可选 - 描述:用来控制模型列表,使用 `+` 增加一个模型,使用 `-` 来隐藏一个模型,使用 `模型名=展示名<扩展配置>` 来自定义模型的展示名,用英文逗号隔开。模型定义语法规则见 [模型列表][model-list] - 默认值:`-` - 示例:`-all,+01-ai/yi-34b-chat,+huggingfaceh4/zephyr-7b-beta` ## Github ### `GITHUB_TOKEN` - 类型:必选 - 描述:这是你在 Github 申请的 Personal access tokens - 默认值:- - 示例:`ghp_xxxxxx...xxxxxx=` ### `GITHUB_MODEL_LIST` - 类型:可选 - 描述:用来控制模型列表,使用 `+` 增加一个模型,使用 `-` 来隐藏一个模型,使用 `模型名=展示名<扩展配置>` 来自定义模型的展示名,用英文逗号隔开。模型定义语法规则见 [模型列表][model-list] - 默认值:`-` - 示例:`-all,+gpt-4o,+gpt-4o-mini` ## TogetherAI ### `TOGETHERAI_API_KEY` - 类型:必选 - 描述:这是你在 TogetherAI 服务中申请的 API 密钥 - 默认值:- - 示例:`xxxxxx...xxxxxx` ### `TOGETHERAI_MODEL_LIST` - 类型:可选 - 描述:用来控制模型列表,使用 `+` 增加一个模型,使用 `-` 来隐藏一个模型,使用 `模型名=展示名<扩展配置>` 来自定义模型的展示名,用英文逗号隔开。模型定义语法规则见 [模型列表][model-list] - 默认值:`-` - 示例:`-all,+meta-llama/Meta-Llama-3.1-8B-Instruct-Turbo,+meta-llama/Meta-Llama-3.1-70B-Instruct-Turbo` ## Fireworks AI ### `FIREWORKSAI_API_KEY` - 类型:必选 - 描述:这是你在 Fireworks AI 服务中申请的 API 密钥 - 默认值:- - 示例:`xxxxxx...xxxxxx` ### `FIREWORKSAI_MODEL_LIST` - 类型:可选 - 描述:用来控制模型列表,使用 `+` 增加一个模型,使用 `-` 来隐藏一个模型,使用 `模型名=展示名<扩展配置>` 来自定义模型的展示名,用英文逗号隔开。模型定义语法规则见 [模型列表][model-list] - 默认值:`-` - 示例:`-all,+accounts/fireworks/models/firefunction-v2,+accounts/fireworks/models/firefunction-v1` ## Ollama ### `ENABLED_OLLAMA` - 类型:可选 - 描述:默认启用 Ollama 作为模型供应商,当设为 0 时关闭 Ollama 服务 - 默认值:`1` - 示例:`0` ### `OLLAMA_PROXY_URL` - 类型:必选 - 描述:用于启用 Ollama 服务,设置后可在语言模型列表内展示可选开源语言模型,也可以指定自定义语言模型 - 默认值:- - 示例:`http://127.0.0.1:11434` ### `OLLAMA_MODEL_LIST` - 类型:可选 - 描述:用于指定自定义 Ollama 语言模型。模型定义语法规则见 [模型列表][model-list] - 默认值:- - 示例:`qwen:32B` ## Moonshot AI ### `MOONSHOT_API_KEY` - 类型:必选 - 描述:这是你在 Moonshot AI 服务中申请的 API 密钥 - 默认值:- - 示例:`Y2xpdGhpMzNhZXNoYjVtdnZjMWc6bXNrLWIxQlk3aDNPaXpBWnc0V1RaMDhSRmRFVlpZUWY=` ## Perplexity AI ### `PERPLEXITY_API_KEY` - 类型:必选 - 描述:这是你在 Perplexity AI 服务中申请的 API 密钥 - 默认值:- - 示例:`pplx-xxxxxx...xxxxxx` ### `PERPLEXITY_PROXY_URL` - 类型:可选 - 描述:如果你手动配置了 Perplexity 接口代理,可以使用此配置项来覆盖默认的 Perplexity API 请求基础 URL - 默认值:`https://api.Perplexity.ai` - 示例:`https://my-Perplexity-proxy.com` ## Minimax AI ### `MINIMAX_API_KEY` - 类型:必选 - 描述:这是你在 Minimax AI 服务中申请的 API 密钥 - 默认值:- - 示例:`xxxxxx...xxxxxx` ## Mistral AI ### `MISTRAL_API_KEY` - 类型:必选 - 描述:这是你在 Mistral AI 服务中申请的 API 密钥 - 默认值:- - 示例:`xxxxxx...xxxxxx=` ## Groq AI ### `GROQ_API_KEY` - 类型:必选 - 描述:这是你在 Groq AI 服务中申请的 API 密钥 - 默认值:- - 示例:`gsk_xxxxxx...xxxxxx` ### `GROQ_MODEL_LIST` - 类型:可选 - 描述:用来控制模型列表,使用 `+` 增加一个模型,使用 `-` 来隐藏一个模型,使用 `模型名=展示名<扩展配置>` 来自定义模型的展示名,用英文逗号隔开。模型定义语法规则见 [模型列表][model-list] - 默认值:`-` - 示例:`-all,+gemma2-9b-it,+llama-3.1-8b-instant` ### `GROQ_PROXY_URL` - 类型:可选 - 描述:如果你手动配置了 Groq 接口代理,可以使用此配置项来覆盖默认的 Groq API 请求基础 URL - 默认值:`https://api.groq.com/openai/v1` - 示例:`https://my-groq-proxy.com/v1` ## 智谱 AI ### `ZHIPU_API_KEY` - 类型:必选 - 描述:这是你在 智谱 AI 服务中申请的 API 密钥 - 默认值:- - 示例:`4582d332441a313f5c2ed9824d1798ca.rC8EcTAhgbOuAuVT` ### `ZHIPU_MODEL_LIST` - 类型:可选 - 描述:用来控制模型列表,使用 `+` 增加一个模型,使用 `-` 来隐藏一个模型,使用 `模型名=展示名<扩展配置>` 来自定义模型的展示名,用英文逗号隔开。模型定义语法规则见 [模型列表][model-list] - 默认值:`-` - 示例:`-all,+glm-4-alltools,+glm-4-plus` ## 01 AI ### `ZEROONE_API_KEY` - 类型:必选 - 描述:这是你在零一万物服务中申请的 API 密钥 - 默认值:- - 示例:`xxxxxx...xxxxxx` ### `ZEROONE_MODEL_LIST` - 类型:可选 - 描述:用来控制模型列表,使用 `+` 增加一个模型,使用 `-` 来隐藏一个模型,使用 `模型名=展示名<扩展配置>` 来自定义模型的展示名,用英文逗号隔开。模型定义语法规则见 [模型列表][model-list] - 默认值:`-` - 示例:`-all,+yi-large,+yi-large-rag` ## 通义千问 ### `QWEN_API_KEY` - 类型:必选 - 描述:这是你在阿里云百炼平台上获取的 DashScope API 密钥 - 默认值:- - 示例:`sk-xxxxx...xxxxx` ### `QWEN_MODEL_LIST` - 类型:可选 - 描述:用来控制模型列表,使用 `+` 增加一个模型,使用 `-` 来隐藏一个模型,使用 `模型名=展示名<扩展配置>` 来自定义模型的展示名,用英文逗号隔开。模型定义语法规则见 [模型列表][model-list] - 默认值:`-` - 示例:`-all,+qwen-turbo-latest,+qwen-plus-latest` ## Stepfun AI ### `STEPFUN_API_KEY` - 类型:必选 - 描述:这是你在 Stepfun AI 服务中申请的 API 密钥 - 默认值:- - 示例:`xxxxxx...xxxxxx` ## Novita AI ### `NOVITA_API_KEY` - 类型:必选 - 描述:这是你在 Novita AI 服务中申请的 API 密钥 - 默认值:- - 示例:`xxxxxx...xxxxxx` ### `NOVITA_MODEL_LIST` - 类型:可选 - 描述:用来控制模型列表,使用 `+` 增加一个模型,使用 `-` 来隐藏一个模型,使用 `模型名=展示名<扩展配置>` 来自定义模型的展示名,用英文逗号隔开。模型定义语法规则见 [模型列表][model-list] - 默认值:`-` - 示例:`-all,+meta-llama/llama-3.1-8b-instruct,+meta-llama/llama-3.1-70b-instruct` ## 百川 ### `BAICHUAN_API_KEY` - 类型:必选 - 描述:这是你在 百川智能 服务平台申请的 API 密钥 - 默认值:- - 示例:`xxxxxx...xxxxxx` ## 紫东太初 ### `TAICHU_API_KEY` - 类型:必选 - 描述:这是你在 紫东太初 服务平台申请的 API 密钥 - 默认值:- - 示例:`xxxxxx...xxxxxx` ## 360 AI ### `AI360_API_KEY` - 类型:必选 - 描述:这是你在 360智脑 服务平台申请的 API 密钥 - 默认值:- - 示例:`xxxxxx...xxxxxx` ## Siliconflow ### `SILICONCLOUD_API_KEY` - 类型:必选 - 描述:这是你在 Siliconflow 服务中申请的 API 密钥 - 默认值:- - 示例:`xxxxxx...xxxxxx` ### `SILICONCLOUD_MODEL_LIST` - 类型:可选 - 描述:用来控制模型列表,使用 `+` 增加一个模型,使用 `-` 来隐藏一个模型,使用 `模型名=展示名<扩展配置>` 来自定义模型的展示名,用英文逗号隔开。模型定义语法规则见 [模型列表][model-list] - 默认值:`-` - 示例:`-all,+deepseek-ai/DeepSeek-V2.5,+Qwen/Qwen2.5-7B-Instruct` ### `SILICONCLOUD_PROXY_URL` - 类型:可选 - 描述:如果你手动配置了 Siliconflow 接口代理,可以使用此配置项来覆盖默认的 Siliconflow API 请求基础 URL - 默认值:`https://api.siliconflow.cn/v1` - 示例:`https://my-siliconflow-proxy.com/v1` ## Upstage AI ### `UPSTAGE_API_KEY` - 类型:必选 - 描述:这是你在 Upstage AI 服务中申请的 API 密钥 - 默认值:- - 示例:`xxxxxx...xxxxxx` ## Spark AI ### `SPARK_API_KEY` - 类型:必选 - 描述:这是你在 Spark AI 服务中申请的 API 密钥 - 默认值:- - 示例:`xxxxxx...xxxxxx` ## A21 AI ### `AI21_API_KEY` - 类型:必选 - 描述:这是你在 A21 AI 服务中申请的 API 密钥 - 默认值:- - 示例:`xxxxxx...xxxxxx` [model-list]: /zh/docs/self-hosting/advanced/model-list