你有没有一种感觉,最近半年 AI Agent 相关的发布会越来越密集,但真正落地的、能跑起来的方案却越来越让人困惑。OpenAI 推了 Agents SDK 2.0,Anthropic 在 Claude 上做了 Computer Use 和深度工具调用,Google 把 Gemini API 做了 Flex 和 Priority 分层,连 Chrome 都开始内嵌 AI Skills 功能。每一家都在说自己的 Agent 方案最好,但如果你是一个正在做技术选型的团队负责人,你可能比任何时候都迷茫。
这不是你的问题。这一轮竞争的底层逻辑已经变了。
AI Agent 平台竞争,表面上在比能力,实际上在争开发者入口、工作流控制权和生态锁定能力。理解了这句话,你就知道该关注什么、忽略什么、怎么给自己留退路。
这一轮 Agent 平台竞争到底在争什么
很多人把 Agent 平台理解为"能接入多少模型"或者"推理速度多快"。这些当然重要,但它们是基础设施层的东西,就像智能手机时代比拼屏幕分辨率和内存大小一样,最后都会变成标配。
真正决定格局的,是三个更上游的东西。
第一是开发者入口。当一个开发者决定"我要做一个 AI Agent"的时候,他打开的第一个 IDE、安装的第一个 SDK、读的第一篇文档,来自谁,这比后面所有事情都重要。因为入口决定了默认路径,而默认路径决定了生态归属。当年微信小程序能做起来,不是因为技术最优,而是因为微信本身就是 10 亿人的默认入口。同样的逻辑正在 AI Agent 领域重演。
第二是工作流控制权。Agent 不只是模型调用,它涉及任务分解、工具编排、状态管理、人机协同、错误恢复等一系列工程问题。谁的平台能让开发者用最少的代码把这些串起来,谁就掌握了工作流控制权。这不是一个"谁功能多"的问题,而是一个"谁让复杂的事情变简单"的问题。
第三是生态锁定能力。听起来不太好听,但这是商业现实。一个平台一旦吸引了足够多的开发者、积累了足够多的工具集成、形成了足够厚的工作流模板库,迁移成本就会变得极高。这种锁定不是靠封闭协议实现的,而是靠"生态系统越大,离开的代价越高"这个自然规律实现的。
OpenAI 的 Agents SDK 2.0 很能说明问题。它引入了原生沙盒执行和模型原生 harness,看起来是一个技术更新,但本质上是在做两件事:让开发者不必离开 OpenAI 的体系就能完成 Agent 全流程开发,同时通过沙盒机制让"在 OpenAI 上构建"变得比"自己搭一套"更安全、更省事。这不是技术慈善,这是入口争夺。
Google 的策略则更隐蔽。Gemini API 新增 Flex 和 Priority 两个推理层级,表面上是给开发者更多成本和延迟的平衡选择,实际上是在构建一个"从小到大都能承接"的服务梯度。你刚开始用 Flex 探索,成本极低;业务跑起来之后切 Priority,稳定可靠;等到规模再大,可能就会发现整套工作流已经和 Google Cloud 深度绑定。Chrome 的 Skills 功能更是一步妙棋,把 AI 工具的入口直接放进了全球 60 多亿人日常使用的浏览器里。
几类平台的不同路线
目前的 Agent 平台大致可以分成四类,每一类都有自己的叙事和优势,但面临的挑战也各不相同。
模型原生平台:OpenAI、Anthropic、Google
这类平台的优势很直接,模型就是自己的。OpenAI 的 Agents SDK 天然和 GPT 系列模型配合得最好,Anthropic 的 Claude 在长上下文和安全对齐上有独特优势,Google 的 Gemini 则背靠整个 Google Cloud 生态。它们的核心叙事是"最懂模型的人来帮你做 Agent"。
但这类平台有一个根本性的张力:它们既是裁判又是运动员。当你用 OpenAI 的 SDK 接 OpenAI 的模型、跑在 OpenAI 的沙盒里,你的 Agent 和 OpenAI 的生态深度绑定了。如果明天你想换一个模型试试,会发现迁移成本远超预期,因为你依赖的不只是 API 调用,而是整个工作流框架。
另一个风险是能力边界的收缩。模型原生平台有天然的倾向去优化"自家的模型跑得最好"这个目标,而不是"所有模型都能跑得很好"这个目标。这在短期是合理的商业策略,但在长期会限制平台的开放性和开发者的选择自由。
开发工具原生平台:GitHub Copilot、Cursor、Replit
这类平台的叙事不太一样。它们不是从模型出发,而是从开发者的日常工作流出发。GitHub Copilot 嵌在 IDE 里,Cursor 把 AI 做成了编辑器的核心体验,Replit 则把开发、部署、运行全链路都 AI 化了。
它们的杀手锏是"无感集成"。开发者不需要专门学一套 Agent 框架,就在写代码的过程中自然地使用 AI 能力。这种体验上的优势是其他平台很难复制的,因为你很难让一个已经习惯在 VS Code 里工作的人,为了用某个 Agent 框架而切换到另一个环境。
但这类平台也面临一个困境:它们的 Agent 能力往往局限于"写代码"这个场景。当一个 SaaS 团队需要的是客服 Agent、数据分析 Agent 或者运营自动化 Agent 的时候,开发工具原生平台能提供的价值就有限了。
工作流原生平台:Dify、Coze、n8n、Make
这类平台的核心思路是"把 AI 能力编排进你的业务流程"。Dify 让你可视化地搭建 AI 应用,Coze 提供低代码的 Bot 构建能力,n8n 和 Make 则把 AI 节点嵌入了自动化的工作流里。
它们瞄准的用户不是专业开发者,而是产品经理、运营人员和小团队的技术负责人。这类用户的核心需求不是"我要从零写一个 Agent",而是"我要把 AI 接进我已经有的业务流程里"。
这类平台的护城河在于模板和工作流积累。当平台上有了足够多的"客服机器人模板"、"数据分析自动化模板"、"内容生产流水线模板",新用户的迁移成本就不只是技术层面的了,还包括了已经调好的业务流程和团队协作习惯。
但挑战也很明显。这类平台在底层能力上依赖模型提供方,自己不控制模型。当 OpenAI、Anthropic 或 Google 开始在模型层直接提供类似的工作流能力时,这些平台的差异化就会被压缩。这也是为什么很多工作流平台在积极做多模型适配,试图用"不锁定任何一个模型"来建立自己的竞争力。
基础设施原生平台:AWS Bedrock、Azure AI、GCP Vertex AI
云厂商的叙事是最传统的:你所有的 AI 工作负载都应该跑在我的基础设施上。Bedrock 提供多模型接入和统一的 Agent 构建框架,Azure AI 背靠 Microsoft 的企业客户基础,Vertex AI 则和 Google 的数据与分析生态深度整合。
这类平台最大的优势是"你已经在这里了"。对于一个已经在 AWS 上运行整个后端的团队来说,把 Agent 工作负载也放在 Bedrock 上是最自然的选择。迁移成本不只是技术层面的,还涉及数据合规、运维体系和团队技能。
但云厂商的 Agent 平台也有一个通病:体验笨重。和 Dify 或者 Cursor 比起来,在云控制台上搭建一个 Agent 的体验差异巨大。这类平台更像是"给企业 IT 部门准备的",而不是"给产品团队准备的"。
谁更容易赢得开发者,谁更容易被边缘化
如果让我押注,我会把筹码放在两类平台上。
第一类是"工作流控制力"最强的平台。不管它来自模型公司、开发工具公司还是独立创业公司,只要能让开发者用最直觉的方式把复杂的多步骤 Agent 串起来,同时保持足够的模型选择自由度,它就有机会成为事实标准。目前来看,OpenAI 的 Agents SDK 在技术深度上领先,但在开放性上有明显短板。Dify 在开放性和易用性上做得好,但在技术深度上还有差距。
第二类是"默认入口"最强的平台。Chrome Skills 是一个值得警惕的信号。如果浏览器成为 AI Agent 的默认入口,那整个竞争格局会被重新洗牌。开发者可能不再需要专门搭建 Agent 应用,而是直接在用户日常使用的环境中完成所有工作。这有点像当年"每个企业都要做一个 App"到"微信小程序就够了"的转变。
容易被边缘化的是两类。一类是"只有模型没有平台"的纯 API 提供方。当模型能力趋于同质化,纯 API 层的利润空间会被持续压缩。另一类是"功能堆砌但缺乏核心场景"的平台。如果一个 Agent 平台能做一百件事但没有一件事做得特别好,它很难在竞争中存活。开发者不需要瑞士军刀,他们需要一把趁手的专业工具。
对 SaaS 和支付团队最现实的选型原则
说了这么多格局判断,落到具体操作层面,我有几个务实的建议。
首先,不要因为某个平台的发布会做得好看就押注。AI Agent 领域的"PPT 生态"比实际落地的生态要繁荣得多。你需要看的是三样东西:真实的开发者社区活跃度、可复现的参考架构、以及你自己团队用一周时间能跑通的最小原型。如果一周跑不通,三个月也跑不通。
其次,至少保持双平台并行。不要把所有 Agent 工作负载都放在一个平台上。选一个作为主力,再选一个不同类型的作为备选。比如主力用 OpenAI Agents SDK,备选用 Dify 或者 n8n。这不是为了分散风险而分散风险,而是因为不同平台在不同场景下的优势确实不同。代码生成场景可能 OpenAI 更好,业务流程自动化可能 Dify 更合适。
第三,工作流设计要尽量与平台无关。把你的核心业务逻辑(任务分解策略、工具调用协议、状态管理方式)抽象成平台无关的中间层。这意味着当你需要从平台 A 迁移到平台 B 的时候,你只需要替换中间层的适配器,而不是重写整个业务逻辑。这个前期投入看起来有点多余,但会在你第二次选型的时候省下巨大的成本。
第四,密切关注支付和合规层面的变化。Agent 涉及的 API 调用量远超传统的应用,成本控制会成为一个持续的挑战。Google 的 Flex/Priority 分层就是一个信号,未来更多平台会推出类似的精细化计费模式。你需要一个能实时监控 Agent 调用成本、能按业务优先级动态调整推理层级的系统。这正是 opcpay.org 在关注的方向,因为当 Agent 的 API 费用开始侵蚀业务利润的时候,智能化的支付和成本管理就不只是锦上添花了。
最后一点,也是最容易被忽略的一点。关注你的用户最终会在哪里使用你的 Agent。如果是在浏览器里,Chrome Skills 的路线可能比任何 SDK 都重要。如果是在企业内部工具里,云厂商的平台可能更合适。如果是在移动端,又是另一套逻辑。入口决定了体验,体验决定了留存,留存决定了你的 Agent 产品能不能活下来。
AI Agent 平台的竞争才刚刚进入实质阶段。接下来的 12 到 18 个月,我们会看到大量的整合和淘汰。在这个阶段,最重要的不是押中最终的赢家,而是保持足够的灵活性和信息敏感度,随时准备调整方向。毕竟,这个领域的唯一确定性,就是一切都在快速变化。