mirror of
https://github.com/lobehub/lobehub
synced 2026-04-21 09:37:28 +00:00
847 lines
28 KiB
Text
847 lines
28 KiB
Text
---
|
||
title: LobeHub 模型服务商相关环境变量配置指南
|
||
description: 了解如何配置各个模型服务商的环境变量以在 LobeHub 中使用不同的AI模型服务。
|
||
tags:
|
||
- LobeHub
|
||
- 模型服务商
|
||
- 环境变量
|
||
- AI模型
|
||
- 配置指南
|
||
---
|
||
|
||
# 模型服务商
|
||
|
||
LobeHub 在部署时提供了丰富的模型服务商相关的环境变量,你可以使用这些环境变量轻松定义需要在 LobeHub 中开启的模型服务商。
|
||
|
||
## OpenAI
|
||
|
||
### `ENABLED_OPENAI`
|
||
|
||
- 类型:可选
|
||
- 描述:默认启用 OpenAI 作为模型供应商,当设为 0 时关闭 OpenAI 服务
|
||
- 默认值:`1`
|
||
- 示例:`0`
|
||
|
||
### `OPENAI_API_KEY`
|
||
|
||
- 类型:必选
|
||
- 描述:这是你在 OpenAI 账户页面申请的 API 密钥,可以前往 [这里](https://platform.openai.com/api-keys) 查看
|
||
- 默认值:-
|
||
- 示例:`sk-xxxxxx...xxxxxx`
|
||
|
||
### `OPENAI_PROXY_URL`
|
||
|
||
- 类型:可选
|
||
- 描述:如果你手动配置了 OpenAI 接口代理,可以使用此配置项来覆盖默认的 OpenAI API 请求基础 URL
|
||
- 默认值:`https://api.openai.com/v1`
|
||
- 示例:`https://api.chatanywhere.cn` 或 `https://aihubmix.com/v1`
|
||
|
||
<Callout type={'warning'}>
|
||
请检查你的代理服务商的请求后缀,有的代理服务商会在请求后缀添加
|
||
`/v1`,有的则不会。如果你在测试时发现 AI 返回的消息为空,请尝试添加 `/v1` 后缀后重试。
|
||
</Callout>
|
||
|
||
<Callout type={'info'}>
|
||
是否填写 `/v1` 跟模型服务商有很大关系,比如 openai 的默认地址是 `api.openai.com/v1`
|
||
。如果你的代理商转发了 `/v1` 这个接口,那么直接填 `proxy.com` 即可。 但如果模型服务商是直接转发了
|
||
`api.openai.com` 域名,那么你就要自己加上 `/v1` 这个 url。
|
||
</Callout>
|
||
|
||
相关讨论:
|
||
|
||
- [Docker 安装,配置好环境变量后,为何返回值是空白?](https://github.com/lobehub/lobehub/discussions/623)
|
||
- [使用第三方接口报错的原因](https://github.com/lobehub/lobehub/discussions/734)
|
||
- [代理服务器地址填了聊天没任何反应](https://github.com/lobehub/lobehub/discussions/1065)
|
||
|
||
### `OPENAI_MODEL_LIST`
|
||
|
||
- 类型:可选
|
||
- 描述:用来控制模型列表,使用 `+` 增加一个模型,使用 `-` 来隐藏一个模型,使用 `模型名=展示名<扩展配置>` 来自定义模型的展示名,用英文逗号隔开。模型定义语法规则见 [模型列表][model-list]
|
||
- 默认值:`-`
|
||
- 示例:`+qwen-7b-chat,+glm-6b,-gpt-3.5-turbo,gpt-4-0125-preview=gpt-4-turbo`
|
||
|
||
上面示例表示增加 `qwen-7b-chat` 和 `glm-6b` 到模型列表,而从列表中删除 `gpt-3.5-turbo`,并将 `gpt-4-0125-preview` 模型名字展示为 `gpt-4-turbo`。如果你想先禁用所有模型,再启用指定模型,可以使用 `-all,+gpt-3.5-turbo`,则表示仅启用 `gpt-3.5-turbo`。
|
||
|
||
你可以在 [modelProviders](https://github.com/lobehub/lobehub/tree/main/src/config/modelProviders) 查找到当前的所有模型名。
|
||
|
||
## Azure OpenAI
|
||
|
||
如果你需要使用 Azure OpenAI 来提供模型服务,可以查阅 [使用 Azure OpenAI 部署](/zh/docs/self-hosting/examples/azure-openai) 章节查看详细步骤,这里将列举和 Azure OpenAI 相关的环境变量。
|
||
|
||
### `AZURE_API_KEY`
|
||
|
||
- 类型:必选
|
||
- 描述:这是你在 Azure OpenAI 账户页面申请的 API 密钥
|
||
- 默认值:-
|
||
- 示例:`c55168be3874490ef0565d9779ecd5a6`
|
||
|
||
### `AZURE_ENDPOINT`
|
||
|
||
- 类型:必选
|
||
- 描述:Azure API 地址,从 Azure 门户检查资源时,可在 “密钥和终结点” 部分中找到此值
|
||
- 默认值:`-`
|
||
- 示例:`https://docs-test-001.openai.azure.com`
|
||
|
||
### `AZURE_API_VERSION`
|
||
|
||
- 类型:必选
|
||
- 描述:Azure 的 API 版本,遵循 YYYY-MM-DD 格式
|
||
- 默认值:`-`
|
||
- 示例:`2024-02-01`,查阅 [最新版本](https://docs.microsoft.com/zh-cn/azure/developer/javascript/api-reference/es-modules/azure-sdk/ai-translation/translationconfiguration?view=azure-node-latest#api-version)
|
||
|
||
### `AZURE_MODEL_LIST`
|
||
|
||
- 类型:必选
|
||
- 描述:用来控制模型列表,使用 `模型名->部署名=展示名` 来自定义模型的展示名,用英文逗号隔开。支持扩展能力,其余语法规则详见 [模型列表][model-list]
|
||
- 默认值:`-`
|
||
- 示例:`gpt-35-turbo->my-deploy=GPT 3.5 Turbo` 或 `gpt-4-turbo->my-gpt4=GPT 4 Turbo<128000:vision:fc>`
|
||
|
||
## Google AI
|
||
|
||
### `GOOGLE_API_KEY`
|
||
|
||
- 类型:必选
|
||
- 描述:这是你在 Google AI Platform 申请的 API 密钥,用于访问 Google AI 服务
|
||
- 默认值:-
|
||
- 示例:`AIraDyDwcw254kwJaGjI9wwaHcdDCS__Vt3xQE`
|
||
|
||
### `GOOGLE_PROXY_URL`
|
||
|
||
- 类型:可选
|
||
- 描述:如果你手动配置了 Google 接口代理,可以使用此配置项来覆盖默认的 Google API 请求基础 URL
|
||
- 默认值:`https://generativelanguage.googleapis.com`
|
||
- 示例:`https://api.genai.gd.edu.kg/google`
|
||
|
||
### `GOOGLE_MODEL_LIST`
|
||
|
||
- 类型:可选
|
||
- 描述:用来控制模型列表,使用 `+` 增加一个模型,使用 `-` 来隐藏一个模型,使用 `模型名=展示名<扩展配置>` 来自定义模型的展示名,用英文逗号隔开。模型定义语法规则见 [模型列表][model-list]
|
||
- 默认值:`-`
|
||
- 示例:`-all,+gemini-1.5-flash-latest,+gemini-1.5-pro-latest`
|
||
|
||
## Vertex AI
|
||
|
||
### `VERTEXAI_CREDENTIALS`
|
||
|
||
- 类型:必选
|
||
- 描述:Google Cloud 服务账号密钥的 JSON 字符串。用于认证和授权访问 Vertex AI 服务,获取方法请参考 [这里](/zh/docs/usage/providers/vertexai)
|
||
- 默认值:-
|
||
- 示例:`{"type": "service_account", "project_id": "your-gcp-project-id", ...}`
|
||
|
||
### `VERTEXAI_PROJECT`
|
||
|
||
- 类型:可选
|
||
- 描述:你的 Google Cloud 项目 ID。如果未设置,将从 `VERTEXAI_CREDENTIALS` 中的 `project_id` 字段获取。
|
||
- 默认值:-
|
||
- 示例:`your-gcp-project-id`
|
||
|
||
### `VERTEXAI_LOCATION`
|
||
|
||
- 类型:可选
|
||
- 描述:你的 Vertex AI 模型所在的区域。
|
||
- 默认值:`global`
|
||
- 示例:`us-central1`
|
||
|
||
### `VERTEXAI_MODEL_LIST`
|
||
|
||
- 类型:可选
|
||
- 描述:用来控制模型列表,使用 `+` 增加一个模型,使用 `-` 来隐藏一个模型,使用 `模型名=展示名<扩展配置>` 来自定义模型的展示名,用英文逗号隔开。模型定义语法规则见 [模型列表][model-list]
|
||
- 默认值:`-`
|
||
- 示例:`-all,+gemini-1.5-flash-latest,+gemini-1.5-pro-latest`
|
||
|
||
## Anthropic AI
|
||
|
||
### `ANTHROPIC_API_KEY`
|
||
|
||
- 类型:必选
|
||
- 描述:这是你在 Anthropic AI 服务中申请的 API 密钥
|
||
- 默认值:-
|
||
- 示例:`sk-ant-apixx-xxxxxxxxx-xxxxxxxxxxxxxxxxx-xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx-xxxxxxxx`
|
||
|
||
### `ANTHROPIC_PROXY_URL`
|
||
|
||
- 类型:可选
|
||
- 描述:如果你手动配置了 Anthropic 接口代理,可以使用此配置项来覆盖默认的 Anthropic API 请求基础 URL
|
||
- 默认值:`https://api.anthropic.com`
|
||
- 示例:`https://my-anthropic-proxy.com`
|
||
|
||
## AWS Bedrock
|
||
|
||
### `ENABLED_AWS_BEDROCK`
|
||
|
||
- 类型:可选
|
||
- 描述:当设为 1 时启用 AWS Bedrock 服务
|
||
- 默认值:`0`
|
||
- 示例:`1`
|
||
|
||
### `AWS_ACCESS_KEY_ID`
|
||
|
||
- 类型:必选
|
||
- 描述:用于 AWS 服务认证的访问键 ID
|
||
- 默认值:-
|
||
- 示例:`AKIA5STVRLFSB4S9HWBR`
|
||
|
||
### `AWS_SECRET_ACCESS_KEY`
|
||
|
||
- 类型:必选
|
||
- 描述:用于 AWS 服务认证的密钥
|
||
- 默认值:-
|
||
- 示例:`Th3vXxLYpuKcv2BARktPSTPxx+jbSiFT6/0w7oEC`
|
||
|
||
### `AWS_REGION`
|
||
|
||
- 类型:可选
|
||
- 描述:AWS 服务的区域设置
|
||
- 默认值:`us-east-1`
|
||
- 示例:`us-east-1`
|
||
|
||
## ComfyUI
|
||
|
||
### `ENABLED_COMFYUI`
|
||
|
||
- 类型:可选
|
||
- 描述:默认启用 ComfyUI 作为模型供应商,当设为 0 时关闭 ComfyUI 服务
|
||
- 默认值:`1`
|
||
- 示例:`0`
|
||
|
||
### `COMFYUI_BASE_URL`
|
||
|
||
- 类型:可选
|
||
- 描述:ComfyUI 服务的基础 URL 地址
|
||
- 默认值:`http://localhost:8000`
|
||
- 示例:`http://192.168.1.100:8000` 或 `https://my-comfyui-server.com`
|
||
|
||
### `COMFYUI_AUTH_TYPE`
|
||
|
||
- 类型:可选
|
||
- 描述:ComfyUI 的认证类型,支持 4 种认证方式
|
||
- `none`: 无认证(默认)
|
||
- `basic`: 基础认证(用户名 + 密码)
|
||
- `bearer`: Bearer Token 认证(API 密钥)
|
||
- `custom`: 自定义请求头认证
|
||
- 默认值:`none`
|
||
- 示例:`basic`
|
||
|
||
### `COMFYUI_API_KEY`
|
||
|
||
- 类型:可选
|
||
- 描述:当认证类型为 `bearer` 时使用的 API 密钥
|
||
- 默认值:-
|
||
- 示例:`sk-xxxxxx...xxxxxx`
|
||
|
||
### `COMFYUI_USERNAME`
|
||
|
||
- 类型:可选
|
||
- 描述:当认证类型为 `basic` 时使用的用户名
|
||
- 默认值:-
|
||
- 示例:`admin`
|
||
|
||
### `COMFYUI_PASSWORD`
|
||
|
||
- 类型:可选
|
||
- 描述:当认证类型为 `basic` 时使用的密码
|
||
- 默认值:-
|
||
- 示例:`password123`
|
||
|
||
### `COMFYUI_CUSTOM_HEADERS`
|
||
|
||
- 类型:可选
|
||
- 描述:当认证类型为 `custom` 时使用的自定义请求头,需要使用 JSON 格式字符串
|
||
- 默认值:-
|
||
- 示例:`{"X-Auth-Token": "your-token", "X-Custom-Header": "value"}`
|
||
|
||
<Callout type={'info'}>
|
||
ComfyUI 支持多种认证方式,请根据您的 ComfyUI 服务配置选择合适的认证类型和相应的认证参数。如果您的
|
||
ComfyUI 服务没有设置认证,可以不配置认证相关的环境变量。
|
||
</Callout>
|
||
|
||
## DeepSeek AI
|
||
|
||
### `DEEPSEEK_PROXY_URL`
|
||
|
||
- 类型:可选
|
||
- 描述:如果您手动配置了 DeepSeek API 代理,可以使用此配置项覆盖默认的 DeepSeek API 请求基础 URL
|
||
- 默认值:`https://api.deepseek.com`
|
||
- 示例:`https://my-deepseek-proxy.com`
|
||
|
||
### `DEEPSEEK_API_KEY`
|
||
|
||
- 类型:必选
|
||
- 描述:这是你在 DeepSeek AI 服务中申请的 API 密钥
|
||
- 默认值:-
|
||
- 示例:`sk-xxxxxx...xxxxxx`
|
||
|
||
### `DEEPSEEK_MODEL_LIST`
|
||
|
||
- 类型:可选
|
||
- 描述:用来控制模型列表,使用 `+` 增加一个模型,使用 `-` 来隐藏一个模型,使用 `模型名=展示名<扩展配置>` 来自定义模型的展示名,用英文逗号隔开。模型定义语法规则见 [模型列表][model-list]
|
||
- 默认值:`-`
|
||
- 示例:`-all,+deepseek-reasoner`
|
||
|
||
## XAI
|
||
|
||
### `XAI_API_KEY`
|
||
|
||
- 类型:必选
|
||
- 描述:这是你在 XAI 服务中申请的 API 密钥
|
||
- 默认值:-
|
||
- 示例:`xai-xxxxxx...xxxxxx`
|
||
|
||
## 文心一言
|
||
|
||
### `WENXIN_API_KEY`
|
||
|
||
- 类型:必选
|
||
- 描述:这是你在百度智能云平台申请的文心一言 API 密钥
|
||
- 默认值:-
|
||
- 示例:`xxxxxx...xxxxxx`
|
||
|
||
## OpenRouter AI
|
||
|
||
### `OPENROUTER_API_KEY`
|
||
|
||
- 类型:必选
|
||
- 描述:这是你在 OpenRouter AI 服务中申请的 API 密钥
|
||
- 默认值:-
|
||
- 示例:`sk-or-v1-xxxxxx...xxxxxx=`
|
||
|
||
### `OPENROUTER_MODEL_LIST`
|
||
|
||
- 类型:可选
|
||
- 描述:用来控制模型列表,使用 `+` 增加一个模型,使用 `-` 来隐藏一个模型,使用 `模型名=展示名<扩展配置>` 来自定义模型的展示名,用英文逗号隔开。模型定义语法规则见 [模型列表][model-list]
|
||
- 默认值:`-`
|
||
- 示例:`-all,+01-ai/yi-34b-chat,+huggingfaceh4/zephyr-7b-beta`
|
||
|
||
## PPIO
|
||
|
||
### `PPIO_API_KEY`
|
||
|
||
- 类型:必选
|
||
- 描述:这是你在 PPIO 网站申请的 API 密钥
|
||
- 默认值:-
|
||
- 示例:`sk_xxxxxxxxxxxx`
|
||
|
||
### `PPIO_MODEL_LIST`
|
||
|
||
- 类型:可选
|
||
- 描述:用来控制模型列表,使用 `+` 增加一个模型,使用 `-` 来隐藏一个模型,使用 `模型名=展示名<扩展配置>` 来自定义模型的展示名,用英文逗号隔开。模型定义语法规则见 [模型列表][model-list]
|
||
- 默认值:`-`
|
||
- 示例:`-all,+deepseek/deepseek-v3/community,+deepseek/deepseek-r1-distill-llama-70b`
|
||
|
||
## Github
|
||
|
||
### `GITHUB_TOKEN`
|
||
|
||
- 类型:必选
|
||
- 描述:这是你在 Github 申请的 Personal access tokens
|
||
- 默认值:-
|
||
- 示例:`ghp_xxxxxx...xxxxxx=`
|
||
|
||
### `GITHUB_MODEL_LIST`
|
||
|
||
- 类型:可选
|
||
- 描述:用来控制模型列表,使用 `+` 增加一个模型,使用 `-` 来隐藏一个模型,使用 `模型名=展示名<扩展配置>` 来自定义模型的展示名,用英文逗号隔开。模型定义语法规则见 [模型列表][model-list]
|
||
- 默认值:`-`
|
||
- 示例:`-all,+gpt-4o,+gpt-4o-mini`
|
||
|
||
## TogetherAI
|
||
|
||
### `TOGETHERAI_API_KEY`
|
||
|
||
- 类型:必选
|
||
- 描述:这是你在 TogetherAI 服务中申请的 API 密钥
|
||
- 默认值:-
|
||
- 示例:`xxxxxx...xxxxxx`
|
||
|
||
### `TOGETHERAI_MODEL_LIST`
|
||
|
||
- 类型:可选
|
||
- 描述:用来控制模型列表,使用 `+` 增加一个模型,使用 `-` 来隐藏一个模型,使用 `模型名=展示名<扩展配置>` 来自定义模型的展示名,用英文逗号隔开。模型定义语法规则见 [模型列表][model-list]
|
||
- 默认值:`-`
|
||
- 示例:`-all,+meta-llama/Meta-Llama-3.1-8B-Instruct-Turbo,+meta-llama/Meta-Llama-3.1-70B-Instruct-Turbo`
|
||
|
||
## Fireworks AI
|
||
|
||
### `FIREWORKSAI_API_KEY`
|
||
|
||
- 类型:必选
|
||
- 描述:这是你在 Fireworks AI 服务中申请的 API 密钥
|
||
- 默认值:-
|
||
- 示例:`xxxxxx...xxxxxx`
|
||
|
||
### `FIREWORKSAI_MODEL_LIST`
|
||
|
||
- 类型:可选
|
||
- 描述:用来控制模型列表,使用 `+` 增加一个模型,使用 `-` 来隐藏一个模型,使用 `模型名=展示名<扩展配置>` 来自定义模型的展示名,用英文逗号隔开。模型定义语法规则见 [模型列表][model-list]
|
||
- 默认值:`-`
|
||
- 示例:`-all,+accounts/fireworks/models/firefunction-v2,+accounts/fireworks/models/firefunction-v1`
|
||
|
||
## Ollama
|
||
|
||
### `ENABLED_OLLAMA`
|
||
|
||
- 类型:可选
|
||
- 描述:默认启用 Ollama 作为模型供应商,当设为 0 时关闭 Ollama 服务
|
||
- 默认值:`1`
|
||
- 示例:`0`
|
||
|
||
### `OLLAMA_PROXY_URL`
|
||
|
||
- 类型:必选
|
||
- 描述:用于启用 Ollama 服务,设置后可在语言模型列表内展示可选开源语言模型,也可以指定自定义语言模型
|
||
- 默认值:-
|
||
- 示例:`http://127.0.0.1:11434`
|
||
|
||
### `OLLAMA_MODEL_LIST`
|
||
|
||
- 类型:可选
|
||
- 描述:用于指定自定义 Ollama 语言模型。模型定义语法规则见 [模型列表][model-list]
|
||
- 默认值:-
|
||
- 示例:`qwen:32B`
|
||
|
||
## Moonshot AI
|
||
|
||
### `MOONSHOT_API_KEY`
|
||
|
||
- 类型:必选
|
||
- 描述:这是你在 Moonshot AI 服务中申请的 API 密钥
|
||
- 默认值:-
|
||
- 示例:`Y2xpdGhpMzNhZXNoYjVtdnZjMWc6bXNrLWIxQlk3aDNPaXpBWnc0V1RaMDhSRmRFVlpZUWY=`
|
||
|
||
### `MOONSHOT_PROXY_URL`
|
||
|
||
- 类型:可选
|
||
- 描述:如果你手动配置了 Moonshot 接口代理,可以使用此配置项来覆盖默认的 Moonshot API 请求基础 URL
|
||
- 默认值:`https://api.moonshot.cn/v1`
|
||
- 示例:`https://my-moonshot-proxy.com/v1`
|
||
|
||
## Perplexity AI
|
||
|
||
### `PERPLEXITY_API_KEY`
|
||
|
||
- 类型:必选
|
||
- 描述:这是你在 Perplexity AI 服务中申请的 API 密钥
|
||
- 默认值:-
|
||
- 示例:`pplx-xxxxxx...xxxxxx`
|
||
|
||
### `PERPLEXITY_MODEL_LIST`
|
||
|
||
- 类型:可选
|
||
- 描述:用于指定自定义 Perplexity 语言模型。模型定义语法规则见 [模型列表][model-list]
|
||
- 默认值:-
|
||
- 示例: `-all,+llama-3.1-sonar-small-128k-online,+llama-3.1-sonar-small-128k-chat`
|
||
|
||
### `PERPLEXITY_PROXY_URL`
|
||
|
||
- 类型:可选
|
||
- 描述:如果你手动配置了 Perplexity 接口代理,可以使用此配置项来覆盖默认的 Perplexity API 请求基础 URL
|
||
- 默认值:`https://api.Perplexity.ai`
|
||
- 示例:`https://my-Perplexity-proxy.com`
|
||
|
||
## Minimax AI
|
||
|
||
### `MINIMAX_API_KEY`
|
||
|
||
- 类型:必选
|
||
- 描述:这是你在 Minimax AI 服务中申请的 API 密钥
|
||
- 默认值:-
|
||
- 示例:`xxxxxx...xxxxxx`
|
||
|
||
## Mistral AI
|
||
|
||
### `MISTRAL_API_KEY`
|
||
|
||
- 类型:必选
|
||
- 描述:这是你在 Mistral AI 服务中申请的 API 密钥
|
||
- 默认值:-
|
||
- 示例:`xxxxxx...xxxxxx=`
|
||
|
||
## Groq AI
|
||
|
||
### `GROQ_API_KEY`
|
||
|
||
- 类型:必选
|
||
- 描述:这是你在 Groq AI 服务中申请的 API 密钥
|
||
- 默认值:-
|
||
- 示例:`gsk_xxxxxx...xxxxxx`
|
||
|
||
### `GROQ_MODEL_LIST`
|
||
|
||
- 类型:可选
|
||
- 描述:用来控制模型列表,使用 `+` 增加一个模型,使用 `-` 来隐藏一个模型,使用 `模型名=展示名<扩展配置>` 来自定义模型的展示名,用英文逗号隔开。模型定义语法规则见 [模型列表][model-list]
|
||
- 默认值:`-`
|
||
- 示例:`-all,+gemma2-9b-it,+llama-3.1-8b-instant`
|
||
|
||
### `GROQ_PROXY_URL`
|
||
|
||
- 类型:可选
|
||
- 描述:如果你手动配置了 Groq 接口代理,可以使用此配置项来覆盖默认的 Groq API 请求基础 URL
|
||
- 默认值:`https://api.groq.com/openai/v1`
|
||
- 示例:`https://my-groq-proxy.com/v1`
|
||
|
||
## 智谱 AI
|
||
|
||
### `ZHIPU_API_KEY`
|
||
|
||
- 类型:必选
|
||
- 描述:这是你在 智谱 AI 服务中申请的 API 密钥
|
||
- 默认值:-
|
||
- 示例:`4582d332441a313f5c2ed9824d1798ca.rC8EcTAhgbOuAuVT`
|
||
|
||
### `ZHIPU_MODEL_LIST`
|
||
|
||
- 类型:可选
|
||
- 描述:用来控制模型列表,使用 `+` 增加一个模型,使用 `-` 来隐藏一个模型,使用 `模型名=展示名<扩展配置>` 来自定义模型的展示名,用英文逗号隔开。模型定义语法规则见 [模型列表][model-list]
|
||
- 默认值:`-`
|
||
- 示例:`-all,+glm-4-alltools,+glm-4-plus`
|
||
|
||
## 01 AI
|
||
|
||
### `ZEROONE_API_KEY`
|
||
|
||
- 类型:必选
|
||
- 描述:这是你在零一万物服务中申请的 API 密钥
|
||
- 默认值:-
|
||
- 示例:`xxxxxx...xxxxxx`
|
||
|
||
### `ZEROONE_MODEL_LIST`
|
||
|
||
- 类型:可选
|
||
- 描述:用来控制模型列表,使用 `+` 增加一个模型,使用 `-` 来隐藏一个模型,使用 `模型名=展示名<扩展配置>` 来自定义模型的展示名,用英文逗号隔开。模型定义语法规则见 [模型列表][model-list]
|
||
- 默认值:`-`
|
||
- 示例:`-all,+yi-large,+yi-large-rag`
|
||
|
||
## 七牛云
|
||
|
||
### `QINIU_API_KEY`
|
||
|
||
- 类型:必选
|
||
- 描述:这是你在七牛云上获取的 API 密钥
|
||
- 默认值:-
|
||
- 示例:`sk-xxxxx...xxxxx`
|
||
|
||
### `QINIU_MODEL_LIST`
|
||
|
||
- 类型:可选
|
||
- 描述:用来控制模型列表,使用 `+` 增加一个模型,使用 `-` 来隐藏一个模型,使用 `模型名=展示名<扩展配置>` 来自定义模型的展示名,用英文逗号隔开。模型定义语法规则见 [模型列表][model-list]
|
||
- 默认值:`-`
|
||
- 示例:`-all,+deepseek-r1,+deepseek-v3`
|
||
|
||
### `QINIU_PROXY_URL`
|
||
|
||
- 类型:可选
|
||
- 描述:如果你手动配置了 Qiniu 接口代理,可以使用此配置项来覆盖默认的 Qiniu API 请求基础 URL
|
||
- 默认值:`https://api.qnaigc.com/v1`
|
||
- 示例:`https://my-qnaigc.com/v1`
|
||
|
||
## 通义千问
|
||
|
||
### `QWEN_API_KEY`
|
||
|
||
- 类型:必选
|
||
- 描述:这是你在阿里云百炼平台上获取的 DashScope API 密钥
|
||
- 默认值:-
|
||
- 示例:`sk-xxxxx...xxxxx`
|
||
|
||
### `QWEN_MODEL_LIST`
|
||
|
||
- 类型:可选
|
||
- 描述:用来控制模型列表,使用 `+` 增加一个模型,使用 `-` 来隐藏一个模型,使用 `模型名->部署名=展示名<扩展配置>` 来自定义模型的展示名,用英文逗号隔开。部署名`->部署名`可以省略,默认为最新版本的模型。模型定义语法规则见 [模型列表][model-list]
|
||
- 默认值:`-`
|
||
- 示例:`-all,+qwen-turbo,+qwen-plus,+qwen-max->qwen-max-2025-01-25`
|
||
|
||
### `QWEN_PROXY_URL`
|
||
|
||
- 类型:可选
|
||
- 描述:如果你手动配置了 Qwen 接口代理,可以使用此配置项来覆盖默认的 Qwen API 请求基础 URL
|
||
- 默认值:`https://dashscope.aliyuncs.com/compatible-mode/v1`
|
||
- 示例:`https://my-qwen-proxy.com/v1`
|
||
|
||
## Stepfun AI
|
||
|
||
### `STEPFUN_API_KEY`
|
||
|
||
- 类型:必选
|
||
- 描述:这是你在 Stepfun AI 服务中申请的 API 密钥
|
||
- 默认值:-
|
||
- 示例:`xxxxxx...xxxxxx`
|
||
|
||
## Novita AI
|
||
|
||
### `NOVITA_API_KEY`
|
||
|
||
- 类型:必选
|
||
- 描述:这是你在 Novita AI 服务中申请的 API 密钥
|
||
- 默认值:-
|
||
- 示例:`xxxxxx...xxxxxx`
|
||
|
||
### `NOVITA_MODEL_LIST`
|
||
|
||
- 类型:可选
|
||
- 描述:用来控制模型列表,使用 `+` 增加一个模型,使用 `-` 来隐藏一个模型,使用 `模型名=展示名<扩展配置>` 来自定义模型的展示名,用英文逗号隔开。模型定义语法规则见 [模型列表][model-list]
|
||
- 默认值:`-`
|
||
- 示例:`-all,+meta-llama/llama-3.1-8b-instruct,+meta-llama/llama-3.1-70b-instruct`
|
||
|
||
## 百川
|
||
|
||
### `BAICHUAN_API_KEY`
|
||
|
||
- 类型:必选
|
||
- 描述:这是你在 百川智能 服务平台申请的 API 密钥
|
||
- 默认值:-
|
||
- 示例:`xxxxxx...xxxxxx`
|
||
|
||
## 紫东太初
|
||
|
||
### `TAICHU_API_KEY`
|
||
|
||
- 类型:必选
|
||
- 描述:这是你在 紫东太初 服务平台申请的 API 密钥
|
||
- 默认值:-
|
||
- 示例:`xxxxxx...xxxxxx`
|
||
|
||
## 360 AI
|
||
|
||
### `AI360_API_KEY`
|
||
|
||
- 类型:必选
|
||
- 描述:这是你在 360 智脑 服务平台申请的 API 密钥
|
||
- 默认值:-
|
||
- 示例:`xxxxxx...xxxxxx`
|
||
|
||
## Siliconflow
|
||
|
||
### `SILICONCLOUD_API_KEY`
|
||
|
||
- 类型:必选
|
||
- 描述:这是你在 Siliconflow 服务中申请的 API 密钥
|
||
- 默认值:-
|
||
- 示例:`xxxxxx...xxxxxx`
|
||
|
||
### `SILICONCLOUD_MODEL_LIST`
|
||
|
||
- 类型:可选
|
||
- 描述:用来控制模型列表,使用 `+` 增加一个模型,使用 `-` 来隐藏一个模型,使用 `模型名=展示名<扩展配置>` 来自定义模型的展示名,用英文逗号隔开。模型定义语法规则见 [模型列表][model-list]
|
||
- 默认值:`-`
|
||
- 示例:`-all,+deepseek-ai/DeepSeek-V2.5,+Qwen/Qwen2.5-7B-Instruct`
|
||
|
||
### `SILICONCLOUD_PROXY_URL`
|
||
|
||
- 类型:可选
|
||
- 描述:如果你手动配置了 Siliconflow 接口代理,可以使用此配置项来覆盖默认的 Siliconflow API 请求基础 URL
|
||
- 默认值:`https://api.siliconflow.cn/v1`
|
||
- 示例:`https://my-siliconflow-proxy.com/v1`
|
||
|
||
## Upstage AI
|
||
|
||
### `UPSTAGE_API_KEY`
|
||
|
||
- 类型:必选
|
||
- 描述:这是你在 Upstage AI 服务中申请的 API 密钥
|
||
- 默认值:-
|
||
- 示例:`xxxxxx...xxxxxx`
|
||
|
||
## Spark AI
|
||
|
||
### `SPARK_API_KEY`
|
||
|
||
- 类型:必选
|
||
- 描述:这是你在 Spark AI 服务中申请的 API 密钥
|
||
- 默认值:-
|
||
- 示例:`xxxxxx...xxxxxx`
|
||
|
||
## A21 AI
|
||
|
||
### `AI21_API_KEY`
|
||
|
||
- 类型:必选
|
||
- 描述:这是你在 A21 AI 服务中申请的 API 密钥
|
||
- 默认值:-
|
||
- 示例:`xxxxxx...xxxxxx`
|
||
|
||
## 腾讯混元
|
||
|
||
### `HUNYUAN_API_KEY`
|
||
|
||
- 类型:必选
|
||
- 描述:这是你在 腾讯混元 服务中申请的 API 密钥
|
||
- 默认值:-
|
||
- 示例:`xxxxxx...xxxxxx`
|
||
|
||
### `HUNYUAN_MODEL_LIST`
|
||
|
||
- 类型:可选
|
||
- 描述:用来控制模型列表,使用 `+` 增加一个模型,使用 `-` 来隐藏一个模型,使用 `模型名=展示名<扩展配置>` 来自定义模型的展示名,用英文逗号隔开。模型定义语法规则见 [模型列表][model-list]
|
||
- 默认值:`-`
|
||
- 示例:`-all,+hunyuan-lite,+hunyuan-standard`
|
||
|
||
## 火山引擎
|
||
|
||
### `VOLCENGINE_API_KEY`
|
||
|
||
- 类型:必选
|
||
- 描述:这是你在 火山引擎 服务中申请的 API 密钥,可以前往 [这里](https://console.volcengine.com/ark/region:ark+cn-beijing/endpoint) 查看
|
||
- 默认值:-
|
||
- 示例:`ad925b3d-aaaa-bbbb-cccc-51fde2f50547`
|
||
|
||
### `VOLCENGINE_MODEL_LIST`
|
||
|
||
- 类型:可选
|
||
- 描述:用来控制模型列表,使用 `+` 增加一个模型,使用 `-` 来隐藏一个模型,使用 `模型名->部署名=展示名<扩展配置>` 来自定义模型的展示名,用英文逗号隔开。部署名`->部署名`可以省略,默认为最新版本的模型。模型定义语法规则见 [模型列表][model-list]
|
||
- 默认值:`-`
|
||
- 示例:`-all,+deepseek-r1,+deepseek-v3->deepseek-v3-250324,+doubao-1.5-pro-256k,+doubao-1.5-pro-32k->doubao-1-5-pro-32k-250115,+doubao-1.5-lite-32k`
|
||
|
||
### `VOLCENGINE_PROXY_URL`
|
||
|
||
- 类型:可选
|
||
- 描述:如果你手动配置了 Volcengine 接口代理,可以使用此配置项来覆盖默认的 Volcengine API 请求基础 URL
|
||
- 默认值:`https://ark.cn-beijing.volces.com/api/v3`
|
||
- 示例:`https://my-volcengine-proxy.com/v1`
|
||
|
||
## InfiniAI
|
||
|
||
### `INFINIAI_API_KEY`
|
||
|
||
- 类型:必选
|
||
- 描述:这是你在 [Infini-AI](https://cloud.infini-ai.com) 申请的 API 密钥。
|
||
- 默认值:-
|
||
- 示例:`sk-xxxxxx...xxxxxx`
|
||
|
||
### `INFINIAI_MODEL_LIST`
|
||
|
||
- 类型:可选
|
||
- 描述:用来控制模型列表,使用 `+` 增加一个模型,使用 `-` 来隐藏一个模型,使用 `模型名=展示名<扩展配置>` 来自定义模型的展示名,用英文逗号隔开。模型定义语法规则见 [模型列表][model-list]
|
||
- 默认值:`-`
|
||
- 示例:`-all,+qwq-32b,+deepseek-r1`
|
||
|
||
## FAL
|
||
|
||
### `ENABLED_FAL`
|
||
|
||
- 类型:可选
|
||
- 描述:默认启用 FAL 作为模型供应商,当设为 0 时关闭 FAL 服务
|
||
- 默认值:`1`
|
||
- 示例:`0`
|
||
|
||
### `FAL_API_KEY`
|
||
|
||
- 类型:必选
|
||
- 描述:这是你在 FAL 服务中申请的 API 密钥
|
||
- 默认值:-
|
||
- 示例:`fal-xxxxxx...xxxxxx`
|
||
|
||
### `FAL_MODEL_LIST`
|
||
|
||
- 类型:可选
|
||
- 描述:用来控制 FAL 模型列表,使用 `+` 增加一个模型,使用 `-` 来隐藏一个模型,使用 `模型名=展示名` 来自定义模型的展示名,用英文逗号隔开。模型定义语法规则与其他 provider 保持一致。
|
||
- 默认值:`-`
|
||
- 示例:`-all,+fal-ai/flux/schnell,+fal-ai/flux-pro/kontext=FLUX.1 Kontext [pro]`
|
||
|
||
上述示例表示先禁用所有模型,再启用 `fal-ai/flux/schnell` 和 `fal-ai/flux-pro/kontext`(显示名为 `FLUX.1 Kontext [pro]`)。
|
||
|
||
## BFL
|
||
|
||
### `BFL_API_KEY`
|
||
|
||
- 类型:必选
|
||
- 描述:这是你在 BFL 服务中申请的 API 密钥
|
||
- 默认值:-
|
||
- 示例:`12345678-1234-1234-1234-123456789abc`
|
||
|
||
### `BFL_MODEL_LIST`
|
||
|
||
- 类型:可选
|
||
- 描述:用来控制 BFL 模型列表,使用 `+` 增加一个模型,使用 `-` 来隐藏一个模型,使用 `模型名=展示名` 来自定义模型的展示名,用英文逗号隔开。模型定义语法规则与其他 provider 保持一致。
|
||
- 默认值:`-`
|
||
- 示例:`-all,+flux-pro-1.1,+flux-kontext-pro=FLUX.1 Kontext [pro]`
|
||
|
||
上述示例表示先禁用所有模型,再启用 `flux-pro-1.1` 和 `flux-kontext-pro`(显示名为 `FLUX.1 Kontext [pro]`)。
|
||
|
||
## NewAPI
|
||
|
||
### `NEWAPI_API_KEY`
|
||
|
||
- 类型:可选
|
||
- 描述:这是你的 NewAPI 服务实例的 API 密钥。NewAPI 是一个多供应商模型聚合服务,提供对各种 AI 模型 API 的统一访问。
|
||
- 默认值:-
|
||
- 示例:`sk-xxxxxx...xxxxxx`
|
||
|
||
### `NEWAPI_PROXY_URL`
|
||
|
||
- 类型:可选
|
||
- 描述:你的 NewAPI 服务器实例的基础 URL。这应该指向你部署的 NewAPI 服务端点。
|
||
- 默认值:-
|
||
- 示例:`https://your-newapi-server.com`
|
||
|
||
<Callout type={'info'}>
|
||
NewAPI
|
||
是一个多供应商模型聚合服务,支持基于供应商检测的自动模型路由。它提供成本管理功能,并为访问包括
|
||
OpenAI、Anthropic、Google 等多个供应商的模型提供单一端点。了解更多关于 NewAPI 的信息请访问
|
||
[https://github.com/Calcium-Ion/new-api](https://github.com/Calcium-Ion/new-api)。
|
||
</Callout>
|
||
|
||
## Vercel AI Gateway
|
||
|
||
### `VERCELAIGATEWAY_API_KEY`
|
||
|
||
- 类型:必选
|
||
- 描述:这是你在 Vercel AI Gateway 服务中申请的 API 密钥
|
||
- 默认值:-
|
||
- 示例:`vck_xxxxxx...xxxxxx`
|
||
|
||
### `VERCELAIGATEWAY_MODEL_LIST`
|
||
|
||
- 类型:可选
|
||
- 描述:用来控制 Vercel AI Gateway 模型列表,使用 `+` 增加一个模型,使用 `-` 来隐藏一个模型,使用 `模型名=展示名` 来自定义模型的展示名,用英文逗号隔开。模型定义语法规则与其他 provider 保持一致。
|
||
- 默认值:`-`
|
||
- 示例:`-all,+vercel-model-1,+vercel-model-2=vercel-special`
|
||
|
||
## Cerebras
|
||
|
||
### `CEREBRAS_API_KEY`
|
||
|
||
- 类型:必选
|
||
- 描述:这是你在 Cerebras 服务中申请的 API 密钥
|
||
- 默认值:-
|
||
- 示例:`csk-xxxxxx...xxxxxx`
|
||
|
||
### `CEREBRAS_MODEL_LIST`
|
||
|
||
- 类型:可选
|
||
- 描述:用来控制 Cerebras 模型列表,使用 `+` 增加一个模型,使用 `-` 来隐藏一个模型,使用 `模型名=展示名` 来自定义模型的展示名,用英文逗号隔开。模型定义语法规则与其他 provider 保持一致。
|
||
- 默认值:`-`
|
||
- 示例:`-all,+cerebras-model-1,+cerebras-model-2=cerebras-special`
|
||
|
||
## AiHubMix
|
||
|
||
### `AIHUBMIX_API_KEY`
|
||
|
||
- 类型:必选
|
||
- 描述:这是你在 AiHubMix 服务中申请的 API 密钥
|
||
- 默认值:-
|
||
- 示例:`sk-xxxxxx...xxxxxx`
|
||
|
||
### `AIHUBMIX_MODEL_LIST`
|
||
|
||
- 类型:可选
|
||
- 描述:用来控制 AiHubMix 模型列表,使用 `+` 增加一个模型,使用 `-` 来隐藏一个模型,使用 `模型名=展示名` 来自定义模型的展示名,用英文逗号隔开。模型定义语法规则与其他 provider 保持一致。
|
||
- 默认值:`-`
|
||
- 示例:`-all,+claude-opus-4-1-20250805,+claude-opus-4-20250514=claude-opus-4`
|
||
|
||
## Straico
|
||
|
||
### `STRAICO_API_KEY`
|
||
|
||
- 类型:必选
|
||
- 描述:这是你在 Straico 服务中申请的 API 密钥
|
||
- 默认值:-
|
||
- 示例:`sk-xxxxxx...xxxxxx`
|
||
|
||
### `STRAICO_MODEL_LIST`
|
||
|
||
- 类型:可选
|
||
- 描述:用来控制 Straico 模型列表,使用 `+` 增加一个模型,使用 `-` 来隐藏一个模型,使用 `模型名=展示名` 来自定义模型的展示名,用英文逗号隔开。模型定义语法规则与其他 provider 保持一致。
|
||
- 默认值:`-`
|
||
- 示例:`-all,+straico-model-1,+straico-model-2=straico-special`
|
||
|
||
[model-list]: /zh/docs/self-hosting/advanced/model-list
|