当 Agent 开始绕过反爬,Web 会怎样反击?

不是反爬升级,而是 Web 在抵抗一种新流量

过去网站防的是脚本和爬虫;现在它们开始面对一类更难定义的新流量:带任务、带上下文、会操作浏览器的执行型 Agent2025 月,OpenAI 推出 Operator,让 agent 在网页里处理表单、下单等任务,并在输入登录凭证或付款信息时要求用户接管;2025 月,ChatGPT agent 又把用自己的电脑完成任务的能力推向更广泛的产品界面。与此同时,Cloudflare  30 多个 AI 与搜索 crawler 的样本观测显示,2024 月到 2025 月,这类 crawler 流量增长 18%,其中 GPTBot 原始请求量增长 305%OXYZ资本认为,这不是爬虫更多了,而是 Web 开始遭遇一种越来越像人的新访问主体。

 

所谓“Agent 绕过反爬,也不再是传统意义上一个脚本猛拉 HTML。今天的 browser agent 能导航网站、点击按钮、填写表单、连接邮件和文档等第三方数据源,必要时暂停让用户完成敏感登录,再继续执行后续工作流。它既可能像 OpenAI 那样主动签名、公开身份,也可能走向 stealth automation;至少在安全厂商的观察里,后者已经出现。Web 面对的因此不只是抓数据 bot,而是可能来比价、注册、下单、读邮件、改后台、跑跨站任务的执行型流量。

 

为什么这一轮比传统反爬更棘手

难点首先在于,旧规则默认面对的是请求,新问题面对的却是主体IETF  Web Bot Auth 工作组章程里,已经把代表终端用户检索或交互内容的 AI agents”写进标准范围,同时明确表示,现有的 IP allowlistUser-Agent 字符串和共享 API key,在安全性、可扩展性和可管理性上都有明显局限。OpenAI 自己也不再把所有自动化流量混成一类:OAI-SearchBot 用于搜索,GPTBot 用于训练,ChatGPT-User 则用于用户触发的网页访问,而且它不是自动化 crawlrobots.txt 也未必按传统爬虫逻辑适用。问题于是从这是不是机器人,变成了这是谁的 Agent、出于什么目的、代表谁、拿着什么权限来做什么事

 

更关键的是,Web Bot Auth 这套新秩序,眼下优先解决的还只是“agent 是谁,而不是终端用户是谁IETF 章程明确把终端用户认证排除在本轮标准范围之外,这意味着就算站点能确认某个请求确实来自 OpenAIAWS AgentCore 或其他签名 agent,它仍然需要继续追问:这个 agent 代表哪一个用户、拥有哪些委托权限、能不能在这个上下文里完成某个动作。也正因为如此,这一轮变化不会停留在 bot detection,而会继续外溢成 identitydelegationpolicy  billing 的组合治理。

 

Web 的第一层反击:检测还会升级,但不再是唯一答案

传统检测不会消失,反而会更重。Cloudflare 公开说明,其 Bot Management 已经把机器学习、行为分析、指纹识别、JavaScript 检测、异常检测等多种引擎叠在一起;其 ML 模型会综合请求头、会话特征和浏览器信号来给每个请求打分,甚至连请求头顺序不像某个真实浏览器这种细节都能成为 detection ID。换句话说,站点仍会继续查 IP、查 headless、查指纹、查行为链,但重点会从抓某个静态特征,转向交叉验证整条会话链路。验证码也不会消失。2026 月,hCaptcha 仍公开表示 CAPTCHA  bots and agents 依然有效。

但这只是起点。因为只靠检测,网站最多做到更会抓伪装者,却做不到放心放行合规者。真正的新秩序,必须让网站能把想拦的流量和想欢迎的流量分开。

 

第二层反击:从识别自动化转向识别身份

这就是为什么 Web 正在从 heuristic game 走向 cryptographic identity gameCloudflare 已把 Web Bot Auth 定义为一种利用 HTTP 消息密码学签名来验证自动化客户端身份的方法,并把 HTTP Message Signatures 整合进 Verified Bots Program;站点可以在边缘自动验签,再基于已验证身份写 WAFRate Limiting  Transform rulesOpenAI  ChatGPT agent allowlisting 文档也明确写着,agent 会给每一个出站 HTTP 请求签名,方便网站在 CDN 或防火墙里验证其来源。AWS 则在 WAF  Bedrock AgentCore Browser 中加入 Web Bot Auth 支持,让 AI agent 用签名请求换取被识别的资格。

 

OXYZ资本观点是,未来最值钱的,不会是最会伪装成真人的 Agent,而是最先成为被网站信任的 Agent”的那层基础设施。因为一旦信任可以被标准化验证,Web 就不必在全放全封之间二选一,而能真正开始做分级治理。

 

第三层反击:权限会被拆得更细,Agent 不会再拿到类人全通行证

验明正身还不够,Web 接下来会把权限拆得更细。Cloudflare  AI Crawl Control 已经不只把流量粗暴分成允许拒绝,而是开始区分 AI CrawlerAI SearchAI Assistant 等不同类别;其参考目录里,OpenAI  GPTBotOAI-SearchBot ChatGPT-User 就被放进了不同赛道。AWS  AgentCore 文档更直白:站点可以选择屏蔽所有 bots,只放行带有效签名的 bots,或者只允许某些 signed bots 访问特定路径;即便流量带着合法签名,站点所有者也仍然保留 blockmonitorrate-limit 的完整主权。

 

这意味着未来网站不会给 Agent 一张类人全通行证,而是给它一组按身份、用途、路径、动作类型和速率拆开的细粒度许可:你可以看公开商品页,但不能高频比价;你可以读页面,但不能登录、下单或改资料;你可以抓搜索摘要,但不能把整站内容拉去训练。Web 的反击,不是一刀切封杀 Agent,而是把 Agent 纳入新的分级访问体系。

 

第四层反击:从封禁走向收费,访问权开始金融化

当单纯 blocking 已经无法兼顾业务与生态,网站就会把是否允许 Agent 访问变成一个商业决策。2025 日,Cloudflare 宣布新域名默认阻止 AI crawlers 在没有许可或补偿的情况下抓取内容,并允许 AI 公司更明确声明自己的用途究竟是 traininginference 还是 search。紧接着,其 Pay Per Crawl 机制把这件事进一步制度化:当 crawler 请求付费 URL 时,服务器可以直接返回 HTTP 402 Payment Required,并用 crawler-price 头告诉对方价格。

 

这背后的含义非常大。未来 Web  Agent 的关系,可能会越来越像今天 SaaS  API 的关系:不是默认免费访问,而是按身份、用途、频率和价值来定价。反爬的终局因此未必是全部拦住,更可能是不给白嫖

 

第五层反击:Web 会开始主动误导、诱捕、消耗 Agent

更戏剧性的变化在于,Web 不只防守,还会主动反制。Cloudflare  AI Labyrinth 就是一个标志性信号。它不是简单把不守规矩的 bot 一脚踢出去,而是在检测到不当 crawling 后,故意把对方引进一组 AI 生成的迷宫页面里,去拖慢它、混淆它、浪费它的算力。Cloudflare 明说,这套系统同时还是下一代 honeypot”:没有正常人会在一堆 AI 生成的无意义页面里连续点四层链接,但 bot 会,于是网站既能消耗对方,又能借此反向学习新的 bot 模式。更重要的是,Cloudflare 还说,这只是第一代,下一步会把这些诱捕链接做得更像真实站点结构。

 

一旦这种思路扩展开,Web 的角色就变了:它不再只是被抓取对象,而是一个会主动设局的对手。未来出现更多 agent honeypot、假按钮、假路径、动态陷阱,几乎是顺理成章的延伸。

 

第六层反击:页面本身也会开始攻击 Agent”

更深的一层,是页面内容本身会成为攻击面。OpenAI  ChatGPT agent 帮助文档里直接承认,当 agent 被登录到网站或接入第三方 app 后,就会接触到邮件、文件、账号设置等敏感数据,因此会面临 prompt injection 风险;官方甚至给出过一个例子:agent 在替用户找餐厅时,可能在网页评论里读到隐藏恶意指令,被诱导去 Gmail 里取密码重置码并发给恶意站点。Anthropic 的表述更直接:没有任何 browser agent 能免疫 prompt injectionOpenAI 也把 prompt injection 定义为“agent in the browser”范式里最重要的风险之一,并表示其自动化 red teaming 已经能够发现会把 browser agent 引向数十甚至上百步有害工作流的新型攻击。

 

所以,未来网页上的隐藏文本、恶意 DOM、欺骗性按钮和诱导 UI,不只是影响用户决策,它们会直接试图劫持 Agent 的意图链。Web 的反击,不只是 WAF、验证码和封 IP,还包括对 Agent 认知链路的干扰。

 

更深的变化:Web 正在从开放网页走向对机器分层开放

把这些变化放在一起看,你会发现 Web 正在从对所有机器默认开放,转向对机器分层开放。对人类用户,网站仍会尽量保持顺滑;对被信任、可签名、可审计的 Agent,网站会逐步开放专用通道;对不明 Agent,会增加摩擦、缩小权限、提高挑战频率;对恶意 automation,则直接封禁、误导、诱捕、消耗。真正被重写的,不是某一道验证码,而是整个 Web 的访问秩序。

 

产业落点:厚利润会沉到让网站敢放行 Agent”的基础设施层

从产业和投资视角看,Agent 应用当然会很多,但厚利润的位置,大概率不会停留在最上层的应用壳,而会沉淀在一层新的 Web access infrastructureOXYZ资本内部认为,最值得盯的不是谁最会做 stealth automation,而是谁能成为以下基础设施:Agent 身份与签名层、Agent 流量识别与 observability 层、Agent 权限编排与 policy engineAgent 访问计费与结算层,以及更安全的 Agent 浏览器/runtime。因为对网站来说,真正的门槛不是看不看得见 Agent”,而是敢不敢放它进来

 

所以,OXYZ资本在研究时真正想说的并不是:Agent 会不会把验证码打爆。更重要的是:当 Agent 学会像人一样访问网页,Web 也会学会像平台一样审查 Agent。未来 Web 不会彻底拒绝 Agent,它只会拒绝那些无法证明自己是谁、代表谁、拿什么权限来、愿不愿为访问付费的 Agent。真正的分水岭,也不是 Agent 能不能绕过反爬,而是它能不能被 Web 当成一个合格的数字主体来接纳。