添加提供商
Hermes 已经可以通过自定义提供商路径与任何兼容 OpenAI 的端点进行通信。除非您希望为该服务提供一等公民的用户体验,否则请勿添加内置提供商:
- 提供商特定的认证或令牌刷新
- 精选的模型目录
- 设置/
hermes model菜单条目 - 用于
provider:model语法的提供商别名 - 需要适配器的非 OpenAI API 结构
如果该提供商仅仅是“另一个兼容 OpenAI 的基础 URL 和 API 密钥”,那么一个命名的自定义提供商可能就足够了。
心智模型
内置提供商必须在几个层面保持一致性:
hermes_cli/auth.py决定了凭证的查找方式。hermes_cli/runtime_provider.py将其转换为运行时数据:providerapi_modebase_urlapi_keysource
run_agent.py使用api_mode来决定如何构建和发送请求。hermes_cli/models.py和hermes_cli/main.py使提供商出现在 CLI 中。(hermes_cli/setup.py会自动委托给main.py— 无需更改。)agent/auxiliary_client.py和agent/model_metadata.py确保了辅助任务和令牌预算的正常工作。
重要的抽象概念是 api_mode。
- 大多数提供商使用
chat_completions。 - Codex 使用
codex_responses。 - Anthropic 使用
anthropic_messages。 - 新的非 OpenAI 协议通常意味着添加一个新的适配器和一个新的
api_mode分支。
首先选择实现路径
路径 A — 兼容 OpenAI 的提供商
当提供商接受标准 chat-completions 风格的请求时,请使用此路径。
典型工作内容:
- 添加认证元数据
- 添加模型目录/别名
- 添加运行时解析
- 添加 CLI 菜单连接
- 添加辅助模型默认值
- 添加测试和用户文档
通常您不需要新的适配器或新的 api_mode。
路径 B — 原生提供商
当提供商的行为不像是 OpenAI chat completions 时,请使用此路径。
当前内置示例:
codex_responsesanthropic_messages
此路径包括路径 A 的所有内容,外加:
agent/中的提供商适配器run_agent.py中用于请求构建、分派、使用提取、中断处理和响应规范化的分支- 适配器测试
文件清单
每个内置提供商都需要
hermes_cli/auth.pyhermes_cli/models.pyhermes_cli/runtime_provider.pyhermes_cli/main.pyagent/auxiliary_client.pyagent/model_metadata.py- 测试文件
website/docs/下的用户文档
hermes_cli/setup.py 不需要更改。设置向导将提供商/模型选择委托给 main.py 中的 select_provider_and_model() — 任何在此处添加的提供商都会自动在 hermes setup 中可用。
原生/非 OpenAI 提供商额外需要
agent/<provider>_adapter.pyrun_agent.py- 如果需要提供商 SDK,则需要
pyproject.toml
步骤 1:选择一个规范的提供商 ID
选择一个单一的提供商 ID,并在所有地方使用它。
仓库中的示例:
openai-codexkimi-codingminimax-cn
该 ID 应该出现在以下位置:
hermes_cli/auth.py中的PROVIDER_REGISTRYhermes_cli/models.py中的_PROVIDER_LABELShermes_cli/auth.py和hermes_cli/models.py中的_PROVIDER_ALIASEShermes_cli/main.py中的 CLI--provider选择项- 设置/模型选择分支
- 辅助模型默认值
- 测试文件
如果该 ID 在这些文件中不一致,提供商就会感觉“半连接”:认证可能正常工作,但 /model、设置或运行时解析可能会静默地忽略它。
步骤 2:在 hermes_cli/auth.py 中添加认证元数据
对于使用 API 密钥的提供商,请在 PROVIDER_REGISTRY 中添加一个 ProviderConfig 条目,包含:
idnameauth_type="api_key"inference_base_urlapi_key_env_vars- 可选的
base_url_env_var
同时,将别名添加到 _PROVIDER_ALIASES。
使用现有提供商作为模板:
- 简单的 API 密钥路径:Z.AI, MiniMax
- 带有端点检测的 API 密钥路径:Kimi, Z.AI
- 原生令牌解析:Anthropic
- OAuth / 认证存储路径:Nous, OpenAI Codex
需要回答的问题:
- Hermes 应该检查哪些环境变量,以及它们的优先级顺序是什么?
- 提供商是否需要基础 URL 覆盖?
- 它是否需要端点探测或令牌刷新?
- 当凭证缺失时,认证错误应该显示什么?
如果提供商需要的不仅仅是“查找一个 API 密钥”,请添加一个专用的凭证解析器,而不是将逻辑塞入不相关的分支。
步骤 3:在 hermes_cli/models.py 中添加模型目录和别名
更新提供商目录,以便提供商可以在菜单和 provider:model 语法中使用。
典型编辑内容:
_PROVIDER_MODELS_PROVIDER_LABELS_PROVIDER_ALIASESlist_available_providers()中的提供商显示顺序- 如果提供商支持实时
/models获取,则编辑provider_model_ids()
如果提供商暴露了实时模型列表,请优先使用该功能,并将 _PROVIDER_MODELS 作为静态后备。
此文件还使得像这样的输入可用:
anthropic:claude-sonnet-4-6
kimi:model-name
如果此处缺少别名,提供商可能可以正确认证,但在 /model 解析时仍然会失败。
步骤 4:在 hermes_cli/runtime_provider.py 中解析运行时数据
resolve_runtime_provider() 是 CLI、网关、cron、ACP 和辅助客户端共享的路径。
添加一个返回包含至少以下内容的字典的分支:
{
"provider": "your-provider",
"api_mode": "chat_completions", # 或您的原生模式
"base_url": "https://...",
"api_key": "...",
"source": "env|portal|auth-store|explicit",
"requested_provider": requested_provider,
}
如果提供商兼容 OpenAI,api_mode 通常应保持为 chat_completions。
注意 API 密钥的优先级。Hermes 已经包含逻辑,以避免将 OpenRouter 密钥泄露给不相关的端点。新的提供商应该对哪个密钥发送到哪个基础 URL 更加明确。
步骤 5:在 hermes_cli/main.py 中连接 CLI
只有当提供商出现在交互式 hermes model 流程中,它才可被发现。
更新 hermes_cli/main.py 中的以下内容:
provider_labels字典select_provider_and_model()中的providers列表- 提供商分派(
if selected_provider == ...) --provider参数选择项- 如果提供商支持这些流程,则添加登录/登出选择项
- 一个
_model_flow_<provider>()函数,或者如果适用,重用_model_flow_api_key_provider()
hermes_cli/setup.py 不需要更改 — 它调用 main.py 中的 select_provider_and_model(),因此您的新提供商会自动出现在 hermes model 和 hermes setup 中。
步骤 6:保持辅助调用正常工作
这里有两个文件很重要:
agent/auxiliary_client.py
如果这是一个直接使用 API 密钥的提供商,请将一个廉价/快速的默认辅助模型添加到 _API_KEY_PROVIDER_AUX_MODELS。
辅助任务包括:
- 视觉摘要
- 网页提取摘要
- 上下文压缩摘要
- 会话搜索摘要
- 内存刷新
如果提供商没有合理的辅助默认值,辅助任务可能会出现糟糕的降级,或者意外地使用昂贵的主模型。
agent/model_metadata.py
添加提供商模型的上下文长度,以确保令牌预算、压缩阈值和限制保持合理。
步骤 7:如果提供商是原生的,添加适配器和 run_agent.py 支持
如果提供商不是纯粹的 chat completions,请将提供商特定的逻辑隔离到 agent/<provider>_adapter.py。
保持 run_agent.py 专注于编排。它应该调用适配器辅助函数,而不是在整个文件中内联构建提供商负载。
原生提供商通常需要在以下位置进行工作:
新的适配器文件
典型职责:
- 构建 SDK / HTTP 客户端
- 解析令牌
- 将 OpenAI 风格的对话消息转换为提供商的请求格式
- 如果需要,转换工具模式
- 将提供商响应规范化回
run_agent.py期望的格式 - 提取使用量和完成原因数据
run_agent.py
搜索 api_mode 并审计每个切换点。至少要验证:
__init__选择新的api_mode- 客户端构建对该提供商有效
_build_api_kwargs()知道如何格式化请求_api_call_with_interrupt()分派到正确的客户端调用- 中断/客户端重建路径有效
- 响应验证接受提供商的结构
- 完成原因提取正确
- 令牌使用量提取正确
- 备用模型激活可以干净地切换到新的提供商
- 摘要生成和内存刷新路径仍然有效
还要搜索 run_agent.py 中的 self.client.。任何假设存在标准 OpenAI 客户端的代码路径,当原生提供商使用不同的客户端对象或 self.client = None 时可能会中断。
提示缓存和提供商特定的请求字段
提示缓存和提供商特定的控制参数很容易出现回归。
已内置的示例:
- Anthropic 有一个原生的提示缓存路径
- OpenRouter 获取提供商路由字段
- 并非每个提供商都应该接收每个请求侧的选项
当您添加原生提供商时,请仔细检查 Hermes 是否只发送了该提供商实际理解的字段。
步骤 8:测试
至少要修改保护提供商连接的测试。
常见位置:
tests/test_runtime_provider_resolution.pytests/test_cli_provider_resolution.pytests/test_cli_model_command.pytests/test_setup_model_selection.pytests/test_provider_parity.pytests/test_run_agent.pytests/test_<provider>_adapter.py(对于原生提供商)
对于仅用于文档的示例,确切的文件集可能不同。重点是覆盖:
- 认证解析
- CLI 菜单 / 提供商选择
- 运行时提供商解析
- Agent 执行路径
provider:model解析- 任何适配器特定的消息转换
禁用 xdist 后运行测试:
source venv/bin/activate
python -m pytest tests/test_runtime_provider_resolution.py tests/test_cli_provider_resolution.py tests/test_cli_model_command.py tests/test_setup_model_selection.py -n0 -q
对于更深入的更改,在推送之前运行完整的测试套件:
source venv/bin/activate
python -m pytest tests/ -n0 -q
步骤 9:实时验证
测试后,运行一次真实的烟雾测试。
source venv/bin/activate
python -m hermes_cli.main chat -q "你好" --provider your-provider --model your-model
如果更改了菜单,也要测试交互式流程:
source venv/bin/activate
python -m hermes_cli.main model
python -m hermes_cli.main setup
对于原生提供商,请至少验证一次工具调用,而不仅仅是纯文本响应。
步骤 10:更新用户文档
如果该提供商旨在作为一等公民选项发布,也要更新用户文档:
website/docs/getting-started/quickstart.mdwebsite/docs/user-guide/configuration.mdwebsite/docs/reference/environment-variables.md
开发者可以完美地连接提供商,但仍然可能让用户无法发现所需的环境变量或设置流程。
兼容 OpenAI 的提供商清单
如果提供商是标准的 chat completions,请使用此清单。
- 在
hermes_cli/auth.py中添加ProviderConfig - 在
hermes_cli/auth.py和hermes_cli/models.py中添加别名 - 在
hermes_cli/models.py中添加模型目录 - 在
hermes_cli/runtime_provider.py中添加运行时分支 - 在
hermes_cli/main.py中添加 CLI 连接(setup.py 自动继承) - 在
agent/auxiliary_client.py中添加辅助模型 - 在
agent/model_metadata.py中添加上下文长度 - 更新运行时 / CLI 测试
- 更新用户文档
原生提供商清单
当提供商需要新的协议路径时,使用此清单。
- 兼容 OpenAI 清单中的所有内容
- 在
agent/<provider>_adapter.py中添加适配器 - 在
run_agent.py中支持新的api_mode - 中断/重建路径有效
- 使用量和完成原因提取有效
- 备用路径有效
- 添加适配器测试
- 实时烟雾测试通过
常见陷阱
1. 将提供商添加到认证但未添加到模型解析
这会导致凭证解析正确,但 /model 和 provider:model 输入失败。
2. 忘记 config["model"] 可以是字符串或字典
大量的提供商选择代码必须规范化这两种形式。
3. 假设需要内置提供商
如果服务只是兼容 OpenAI,自定义提供商可能已经用更少的维护成本解决了用户问题。
4. 忘记辅助路径
主聊天路径可能正常工作,但由于辅助路由从未更新,摘要、内存刷新或视觉辅助功能可能会失败。
5. run_agent.py 中隐藏的原生提供商分支
搜索 api_mode 和 self.client.。不要假设明显的请求路径是唯一的。
6. 将 OpenRouter 专用的控制参数发送给其他提供商
像提供商路由这样的字段只属于支持它们的提供商。
7. 更新了 hermes model 但没有更新 hermes setup
这两个流程都需要知道提供商的存在。
实施时的良好搜索目标
如果您正在寻找提供商触及的所有位置,请搜索这些符号:
PROVIDER_REGISTRY_PROVIDER_ALIASES_PROVIDER_MODELSresolve_runtime_provider_model_flow_select_provider_and_modelapi_mode_API_KEY_PROVIDER_AUX_MODELSself.client.