评测预计阅读 5 分钟

从模型到 Agent:OpenAI Responses API 获得计算环境能力

#OpenAI#Responses API#AI Agent
从模型到 Agent:OpenAI Responses API 获得计算环境能力

OpenAI 推出 Responses API 计算环境,让 AI Agent 拥有文件系统、Shell 工具和持久化容器,标志着从"模型调用"到"Agent 运行时"的架构跃迁。

从模型到 Agent:一次架构范式的转变

OpenAI 正在推动从单一模型调用到完整 Agent 运行时的转变。传统上,开发者需要自行搭建沙箱环境来运行代码、处理文件和管理状态。现在,Responses API 直接将这些能力内置到平台中,将文件处理、命令执行和状态持续连接到同一个链路中。

Shell 工具:不只是代码解释器

Shell 工具架构

与仅支持 Python 的代码解释器不同,新的 Shell 工具支持多种编程语言,能够启动服务、调用 API 接口,或生成结构化输出(如电子表格和报告)。Responses API 负责编排整个流程:接收提示、组装工具指令的上下文,并处理来自 GPT-5.2 及后续模型的命令,支持流式输出反馈。

关键特性

  • 并发执行:多个 Shell 会话可以同时运行,输出流被多路复用回模型
  • 输出截断控制:自动截断过长的终端日志,保留开头和结尾部分,防止消耗过多 context 预算
  • 流式输出:实时将执行结果反馈给模型

Agent 循环:持久化容器架构

Agent 循环架构

OpenAI 设计了**托管容器(Hosted Containers)**架构——按需启动的短生命周期沙箱环境。每个 Agent 会话获得独立的隔离容器,确保一个会话中的代码执行不会影响其他会话或底层基础设施。

容器能力

  • 持久化文件系统:Agent 可以读写文件,维护工作状态
  • 数据库支持:推荐使用 SQLite 数据库进行动态查询,而非将整个电子表格加载到 context 中
  • 受控网络访问:容器可以访问外部 API,但在安全边界内

Context Compaction:长任务的记忆管理

对于持续运行的 Agent 任务,OpenAI 实现了原生的 Context Compaction(上下文压缩) 技术。经过专门训练的模型会分析对话状态,生成加密的、token 高效的先前上下文表示。这一技术可以服务端运行(支持可配置阈值),也可以通过独立 API 端点调用。

企业级考量

OpenAI 将安全边界和执行环境一体化设计,使用 Responses API 配合 Shell 工具和托管容器进行代理执行。对于企业用户来说,评估 Agent 平台的维度正从"工具数量"转向"受控环境中的任务执行稳定性",包括权限管理、执行隔离、可追溯性和系统弹性。

编辑点评

这次更新的核心意义在于:OpenAI 正在将 Agent 基础设施从应用层的临时方案提升为平台级原生能力。之前开发者要让 AI 执行代码,需要自己搭建 Docker、管理沙箱、处理状态持久化——这些工程投入巨大且容易出错。现在这一切被标准化了。更值得关注的是 Context Compaction 技术,它直接解决了长时间 Agent 任务中 context window 耗尽的痛点。但这也引发了一个隐忧:当越来越多的关键基础设施被锁定在 OpenAI 平台内,开发者的迁移成本和供应商依赖风险也在同步攀升。Agent 开发的便利性与平台锁定之间的张力,将是这个赛道未来的核心矛盾。

原文链接: From model to agent: Equipping the Responses API with a computer environment


相关推荐