跳到主要内容

环境、基准和数据生成

Hermes Agent 包含一个完整的环境框架,它将其工具调用能力连接到 Atropos RL 训练框架。这支持三种工作流:

  1. RL 训练 — 使用 GRPO 在多轮智能体任务上训练语言模型
  2. 基准测试 — 在标准化的智能体基准上评估模型
  3. 数据生成 — 从智能体运行中生成 SFT 训练数据

这三者共享相同的核心:一个环境类,它定义任务、运行智能体循环并评分输出。

仓库环境 vs RL 训练工具

此处记录的 Python 环境框架位于仓库的 environments/ 目录下,是 Hermes/Atropos 集成的实现级 API。这与用户可见的 rl_* 工具是分离的,后者作为远程 RL 训练工作流的编排表面。

快速链接

架构

环境系统建立在一个三层继承链上:

BaseEnv (Atropos)

来自 atroposlib 的基础层。提供:

  • 服务器管理 — 连接到 OpenAI 兼容的 API (VLLM, SGLang, OpenRouter)
  • 工作进程调度 — 并行运行协调
  • Wandb 集成 — 指标记录和运行可视化
  • CLI 接口 — 三个子命令:serveprocessevaluate
  • 评估日志evaluate_log() 将结果保存到 JSON + JSONL

HermesAgentBaseEnv

hermes-agent 层 (environments/hermes_base_env.py)。增加了:

  • 终端后端配置 — 为沙箱执行设置 TERMINAL_ENV (本地、Docker、Modal、Daytona、SSH、Singularity)
  • 工具解析_resolve_tools_for_group() 调用 hermes-agent 的 get_tool_definitions(),根据启用/禁用的工具集获取正确的工具模式
  • 智能体循环集成collect_trajectory() 运行 HermesAgentLoop 并评分结果
  • 两阶段操作 — 阶段 1 (OpenAI 服务器) 用于评估/SFT;阶段 2 (VLLM ManagedServer) 用于带有 logprobs 的完整 RL
  • 异步安全补丁 — monkey-patch Modal 后端,使其能在 Atropos 的事件循环内工作

具体环境 (Concrete Environments)

您的环境继承自 HermesAgentBaseEnv 并实现五个方法:

方法目的
setup()加载数据集,初始化状态
get_next_item()返回用于运行的下一个项目
format_prompt(item)将项目转换为用户消息
compute_reward(item, result, ctx)评分运行结果 (0.0–1.0)
evaluate()定期评估逻辑

核心组件

智能体循环 (Agent Loop)

HermesAgentLoop (environments/agent_loop.py) 是可重用的多轮智能体引擎。它运行与 hermes-agent 主循环相同的工具调用模式:

  1. 通过 server.chat_completion() 向 API 发送消息 + 工具模式
  2. 如果响应包含 tool_calls,则通过 handle_function_call() 分派每个调用
  3. 将工具结果追加到对话中,返回步骤 1
  4. 如果没有 tool_calls,则智能体完成

工具调用在一个线程池 (ThreadPoolExecutor(128)) 中执行,以防止异步后端 (Modal, Docker) 在 Atropos 的事件循环中死锁。

返回一个 AgentResult

@dataclass
class AgentResult:
messages: List[Dict[str, Any]] # 完整的对话历史
turns_used: int # 调用的 LLM 次数
finished_naturally: bool # 模型是否自行停止 (True)
reasoning_per_turn: List[Optional[str]] # 提取的推理内容
tool_errors: List[ToolError] # 工具分派过程中遇到的错误
managed_state: Optional[Dict] # VLLM ManagedServer 状态 (阶段 2)

工具上下文 (Tool Context)

ToolContext (environments/tool_context.py) 为奖励函数提供了直接访问模型在运行过程中使用的相同沙箱的权限。task_id 的作用域确保所有状态(文件、进程、浏览器标签)得以保留。

async def compute_reward(self, item, result, ctx: ToolContext):
# 在模型的终端沙箱中运行测试
test = ctx.terminal("pytest -v")
if test["exit_code"] == 0:
return 1.0

# 检查是否创建了文件
content = ctx.read_file("/workspace/solution.py")
if content.get("content"):
return 0.5

# 下载文件以进行本地验证
ctx.download_file("/remote/output.bin", "/local/output.bin")
return 0.0

可用方法:

类别方法
终端terminal(command, timeout)
文件read_file(path), write_file(path, content), search(query, path)
传输upload_file(), upload_dir(), download_file(), download_dir()
网络web_search(query), web_extract(urls)
浏览器browser_navigate(url), browser_snapshot()
通用call_tool(name, args) — 任何 hermes-agent 工具的逃生舱口
清理cleanup() — 释放所有资源

工具调用解析器 (Tool Call Parsers)

对于 阶段 2 (VLLM ManagedServer),服务器返回原始文本,不包含结构化的工具调用。environments/tool_call_parsers/ 中的客户端解析器从原始输出中提取 tool_calls

from environments.tool_call_parsers import get_parser

parser = get_parser("hermes") # 或 "mistral", "llama3_json", "qwen", "deepseek_v3", 等。
content, tool_calls = parser.parse(raw_model_output)

可用解析器:hermes, mistral, llama3_json, qwen, qwen3_coder, deepseek_v3, deepseek_v3_1, kimi_k2, longcat, glm45, glm47

在阶段 1 (OpenAI 服务器类型) 中,不需要解析器——服务器原生处理工具调用解析。

可用基准 (Available Benchmarks)

TerminalBench2

89 个具有挑战性的终端任务,每个任务都配备了 Docker 沙箱环境。

测试内容单任务编码/系统管理员能力
评分二进制通过/失败(测试套件验证)
沙箱Modal 云沙箱(每个任务的 Docker 镜像)
工具terminal + file
任务跨多个类别的 89 个任务
成本完整评估约 $50–200(并行执行)
时间约 2–4 小时
python environments/benchmarks/terminalbench_2/terminalbench2_env.py evaluate \
--config environments/benchmarks/terminalbench_2/default.yaml

# 运行特定任务
python environments/benchmarks/terminalbench_2/terminalbench2_env.py evaluate \
--config environments/benchmarks/terminalbench_2/default.yaml \
--env.task_filter fix-git,git-multibranch

数据集:NousResearch/terminal-bench-2 (HuggingFace)。

TBLite (OpenThoughts Terminal Bench Lite)

100 个难度校准的任务 — 相比 TerminalBench2 更快的智能体。

测试内容与 TB2 相同(编码/系统管理员),校准难度等级
评分二进制通过/失败
沙箱Modal 云沙箱
工具terminal + file
任务100 个任务:简单 (40),中等 (26),困难 (26),极难 (8)
相关性与完整 TB2 的 r=0.911
速度比 TB2 快 2.6–8 倍
python environments/benchmarks/tblite/tblite_env.py evaluate \
--config environments/benchmarks/tblite/default.yaml

TBLite 是 TerminalBench2 的一个薄子类——仅数据集和超时时间不同。由 OpenThoughts Agent 团队(Snorkel AI + Bespoke Labs)创建。数据集:NousResearch/openthoughts-tblite

YC-Bench

长周期战略基准 — 智能体扮演 AI 初创公司的 CEO。

测试内容跨数百轮的多轮战略连贯性
评分复合评分:0.5 × 生存率 + 0.5 × 标准化资金
沙箱本地终端(无需 Modal)
工具terminal
运行次数9 个默认(3 个预设 × 3 个种子),顺序执行
成本完整评估约 $50–200
时间约 3–6 小时
# 安装 yc-bench(可选依赖)
pip install "hermes-agent[yc-bench]"

# 运行评估
bash environments/benchmarks/yc_bench/run_eval.sh

# 或直接
python environments/benchmarks/yc_bench/yc_bench_env.py evaluate \
--config environments/benchmarks/yc_bench/default.yaml

# 快速单预设测试
python environments/benchmarks/yc_bench/yc_bench_env.py evaluate \
--config environments/benchmarks/yc_bench/default.yaml \
--env.presets '["fast_test"]' --env.seeds '[1]'

YC-Bench 使用 collinear-ai/yc-bench——这是一个具有 4 个技能领域(研究、推理、数据环境、训练)、声望系统、员工管理和财务压力的确定性模拟。与 TB2 的任务级二进制评分不同,YC-Bench 衡量的是智能体在数百个复合决策中维持连贯战略的能力。

训练环境 (Training Environments)

TerminalTestEnv

一个具有内联任务的最小自包含环境(没有外部数据集)。用于端到端验证整个堆栈。每个任务要求模型在一个已知路径创建文件;验证器检查内容。

# 处理模式(将运行结果保存到 JSONL,无需训练服务器)
python environments/terminal_test_env/terminal_test_env.py process \
--env.data_path_to_save_groups terminal_test_output.jsonl

# 服务模式(连接到 Atropos API 进行 RL 训练)
python environments/terminal_test_env/terminal_test_env.py serve

HermesSweEnv

SWE-bench 风格的训练环境。模型获得一个编码任务,使用终端 + 文件 + 网络工具来解决它,奖励函数在相同的 Modal 沙箱中运行测试。

python environments/hermes_swe_env/hermes_swe_env.py serve \
--openai.model_name YourModel \
--env.dataset_name bigcode/humanevalpack \
--env.terminal_backend modal

运行环境 (Running Environments)

每个环境都是一个独立的 Python 脚本,带有三个 CLI 子命令:

evaluate — 运行基准测试

用于仅评估的环境(基准测试)。运行所有项目,计算指标,并记录到 wandb。

python environments/benchmarks/tblite/tblite_env.py evaluate \
--config environments/benchmarks/tblite/default.yaml \
--openai.model_name anthropic/claude-sonnet-4.6

无需训练服务器或 run-api。环境负责所有事情。

process — 生成 SFT 数据

运行运行结果,并将评分的轨迹保存到 JSONL。对于无需完整 RL 循环即可生成训练数据非常有用。

python environments/terminal_test_env/terminal_test_env.py process \
--env.data_path_to_save_groups output.jsonl \
--openai.model_name anthropic/claude-sonnet-4.6

输出格式:每一行都是一个带有完整对话历史、奖励和元数据的评分轨迹。

serve — 连接到 Atropos 进行 RL 训练

将环境连接到正在运行的 Atropos API 服务器 (run-api)。用于实时 RL 训练期间。

# 终端 1: 启动 Atropos API
run-api

# 终端 2: 启动环境
python environments/hermes_swe_env/hermes_swe_env.py serve \
--openai.model_name YourModel

环境从 Atropos 接收项目,运行智能体运行结果,计算奖励,并将评分的轨迹发送回进行训练。

两阶段操作 (Two-Phase Operation)

阶段 1: OpenAI 服务器 (评估 / SFT)

使用 server.chat_completion() 配合 tools= 参数。服务器(VLLM, SGLang, OpenRouter, OpenAI)原生处理工具调用解析。返回带有结构化 tool_callsChatCompletion 对象。

  • 用途: 评估、SFT 数据生成、基准测试、测试
  • 占位符 token 为 Atropos 管道创建(因为 OpenAI API 不提供真实的 token ID)

阶段 2: VLLM ManagedServer (完整 RL)

使用 ManagedServer 通过 /generate 获取精确的 token ID + logprobs。客户端侧的 工具调用解析器 从原始输出中重建结构化的 tool_calls

  • 用途: 使用 GRPO/PPO 进行完整 RL 训练
  • 真实 token、掩码和 logprobs 流经管道
  • 在配置中设置 tool_call_parser 以匹配模型的格式(例如,"hermes""qwen""mistral"

创建环境 (Creating Environments)

训练环境

from environments.hermes_base_env import HermesAgentBaseEnv, HermesAgentEnvConfig
from atroposlib.envs.server_handling.server_manager import APIServerConfig

class MyEnvConfig(HermesAgentEnvConfig):
my_custom_field: str = "default_value"

class MyEnv(HermesAgentBaseEnv):
name = "my-env"
env_config_cls = MyEnvConfig

@classmethod
def config_init(cls):
env_config = MyEnvConfig(
enabled_toolsets=["terminal", "file"],
terminal_backend="modal",
max_agent_turns=30,
)
server_configs = [APIServerConfig(
base_url="https://openrouter.ai/api/v1",
model_name="anthropic/claude-sonnet-4.6",
server_type="openai",
)]
return env_config, server_configs

async def setup(self):
from datasets import load_dataset
self.dataset = list(load_dataset("my-dataset", split="train"))
self.iter = 0

async def get_next_item(self):
item = self.dataset[self.iter % len(self.dataset)]
self.iter += 1
return item

def format_prompt(self, item):
return item["instruction"]

async def compute_reward(self, item, result, ctx):
# ctx 为运行结果的沙箱提供完整的工具访问权限
test = ctx.terminal("pytest -v")
return 1.0 if test["exit_code"] == 0 else 0.0

async def evaluate(self, *args, **kwargs):
# 训练期间的周期性评估
pass

if __name__ == "__main__":
MyEnv.cli()

仅评估基准 (Eval-Only Benchmark)

对于基准测试,请遵循 TerminalBench2、TBLite 和 YC-Bench 使用的模式:

  1. 创建位置environments/benchmarks/your-benchmark/
  2. 设置仅评估配置eval_handling=STOP_TRAINsteps_per_eval=1total_steps=1
  3. 模拟训练方法collect_trajectories() 返回 (None, [])score() 返回 None
  4. 实现 rollout_and_score_eval(eval_item) — 每个项目的智能体循环 + 评分
  5. 实现 evaluate() — 编排所有运行,计算汇总指标
  6. 添加流式 JSONL 用于防崩溃结果持久化
  7. 添加清理KeyboardInterrupt 处理,cleanup_all_environments()_tool_executor.shutdown()
  8. 使用 evaluate 子命令运行

请参阅 environments/benchmarks/yc_bench/yc_bench_env.py 获取一个清晰、文档完善的参考实现。

配置参考 (Configuration Reference)

HermesAgentEnvConfig 字段

字段类型默认值描述
enabled_toolsetsList[str]None (全部)要启用的 hermes 工具集
disabled_toolsetsList[str]None要过滤掉的工具集
distributionstrNone概率工具集分布名称
max_agent_turnsint30每个运行的最大 LLM 调用次数
agent_temperaturefloat1.0采样温度
system_promptstrNone智能体的系统消息
terminal_backendstr"local"local, docker, modal, daytona, ssh, singularity
terminal_timeoutint120每个终端命令的秒数
terminal_lifetimeint3600最大沙箱生命周期
dataset_namestrNoneHuggingFace 数据集标识符
tool_pool_sizeint128工具执行的线程池大小
tool_call_parserstr"hermes"阶段 2 原始输出的解析器
extra_bodyDictNoneOpenAI API 的额外参数(例如,OpenRouter 提供商偏好)
eval_handlingEnumSTOP_TRAINSTOP_TRAIN, LIMIT_TRAIN, NONE

YAML 配置

环境可以通过传递 --config 的 YAML 文件进行配置:

env:
enabled_toolsets: ["terminal", "file"]
max_agent_turns: 60
max_token_length: 32000
agent_temperature: 0.8
terminal_backend: "modal"
terminal_timeout: 300
dataset_name: "NousResearch/terminal-bench-2"
tokenizer_name: "NousResearch/Hermes-3-Llama-3.1-8B"
use_wandb: true
wandb_name: "my-benchmark"

openai:
base_url: "https://openrouter.ai/api/v1"
model_name: "anthropic/claude-sonnet-4.6"
server_type: "openai"
health_check: false

YAML 值会覆盖 config_init() 的默认值。CLI 参数会覆盖 YAML 值:

python my_env.py evaluate \
--config my_config.yaml \
--openai.model_name anthropic/claude-opus-4.6 # 覆盖 YAML

前置条件 (Prerequisites)

所有环境通用

  • Python >= 3.11
  • atroposlib: pip install git+https://github.com/NousResearch/atropos.git
  • 一个 LLM API 密钥(OpenRouter、OpenAI 或自托管的 VLLM/SGLang)
  • Modal 账户和 CLI: pip install "hermes-agent[modal]"
  • MODAL_TOKEN_IDMODAL_TOKEN_SECRET 环境变量

YC-Bench

  • pip install "hermes-agent[yc-bench]"(安装 yc-bench CLI + SQLAlchemy)
  • 无需 Modal — 使用本地终端后端运行

RL 训练

  • TINKER_API_KEYTinker 训练服务的 API 密钥
  • WANDB_API_KEY — 用于 Weights & Biases 指标跟踪
  • tinker-atropos 子模块(位于仓库的 tinker-atropos/

有关智能体驱动的 RL 工作流,请参阅 RL 训练

目录结构 (Directory Structure)

environments/
├── hermes_base_env.py # 抽象基类 (HermesAgentBaseEnv)
├── agent_loop.py # 多轮智能体引擎 (HermesAgentLoop)
├── tool_context.py # 奖励函数用于每个运行结果的工具访问
├── patches.py # Modal 后端的异步安全补丁

├── tool_call_parsers/ # 阶段 2 客户端解析器
│ ├── hermes_parser.py # Hermes/ChatML <tool_call> 格式
│ ├── mistral_parser.py # Mistral [TOOL_CALLS] 格式
│ ├── llama_parser.py # Llama 3 JSON 工具调用
│ ├── qwen_parser.py # Qwen 格式
│ ├── deepseek_v3_parser.py # DeepSeek V3 格式
│ └── ... # + kimi_k2, longcat, glm45/47, etc.

├── terminal_test_env/ # 堆栈验证(内联任务)
├── hermes_swe_env/ # SWE-bench 训练环境

└── benchmarks/ # 评估基准
├── terminalbench_2/ # 89 个终端任务,Modal 沙箱
├── tblite/ # 100 个校准任务(快速 TB2 智能体)
└── yc_bench/ # 长周期战略基准