2026年2月9日,超级碗星期日,两家AI公司总计花费了八位数美元投放广告。OpenAI播出了一则推广ChatGPT的广告。Anthropic则播出了一则将"欺骗(Deception)""背叛(Betrayal)""背信(Treachery)"和"侵犯(Violation)"这几个词铺满整个屏幕的广告——对OpenAI决定向ChatGPT免费用户引入广告进行了尖锐的抨击。
Sam Altman称Anthropic的广告"具有欺骗性"。Dario Amodei表示,大规模变现"在AI发展的现阶段并非必要"。Google的Demis Hassabis则表示,该公司"没有计划"在Gemini中投放广告。
我认为,这三方都在表演某种形式的诚实,而这种诚实恰好掩盖了一个更大的事实。这个更大的事实是:他们中没有一个拥有可持续的商业模式,而他们各自选择的道路都蕴含着他们没有公开讨论的风险。
OpenAI没有说的事
OpenAI在ChatGPT中引入广告的举措被包装为一种温和的收入多元化策略。该公司强调广告仅面向免费用户和低级别付费用户展示。Altman坚称OpenAI"显然永远不会"以Anthropic所描绘的方式投放广告。
以下是这种叙事框架所遗漏的内容。
据报道,OpenAI在2025年大约烧掉了3.7 billion。该公司总融资额已超过3000亿美元。要证明这一估值的合理性,OpenAI需要成为历史上收入最高的科技公司之一。
订阅增长已经触顶。根据Sensor Tower等分析公司的估算,ChatGPT Plus的转化率已经连续三个季度持平。OpenAI最初将免费版本定位为通向付费订阅的漏斗,但它反而成了大多数用户的最终产品。估计有85-90%的ChatGPT用户从未付过费。
广告不是一种选择。它是商业逻辑的必然结果。问题从来不是"是否",而是"何时"。
OpenAI没有讨论的风险是:广告激励机制会重塑产品。Google搜索最初是一款为用户服务的工具。二十年的广告优化将它变成了一款为广告主服务的工具,用户则沦为产品。同样的动力机制将适用于ChatGPT。当一个AI助手的收入依赖于用户参与度时,该助手的激励就会从快速回答你的问题转变为让你在对话中停留更长时间。
OpenAI的广告模式在大多数人有史以来最亲密的软件关系中引入了结构性的利益冲突。这值得直说,不需要委婉措辞。
Anthropic没有说的事
Anthropic的超级碗广告是一次成功的营销。它将该公司定位为有原则的替代选择:一个尊重用户、拒绝注意力变现、优先考虑安全性的AI实验室。
这种叙事框架遗漏了一个不同的算术问题。
Anthropic已融资约800 million到$1.2 billion之间。对比包括史上最昂贵计算基础设施在内的运营成本,这可能意味着巨额净亏损。
Anthropic能够坚持其原则,是因为Amazon和Google——其两大最大投资者——正在补贴这一原则。Amazon已承诺投入3 billion。这些不是慈善捐赠。它们是希望将Anthropic的模型嵌入AWS和Google Cloud的公司所做的战略押注。
当Dario Amodei说大规模变现"在现阶段并非必要"时,有一个未说出的附加条件:"因为我们投资者的云平台正在通过企业API合同大规模地将我们的技术变现。"
Anthropic不投放广告不是因为更高尚的伦理。而是因为它有一个不同的收入模式——一个依赖于地球上两家最大科技公司持续慷慨的模式。如果这种慷慨收缩,Anthropic的原则将面临超级碗广告未曾预想的考验。
Google没有说的事
Demis Hassabis关于Google"没有计划"在Gemini中投放广告的声明,从技术上讲是正确的,但从战略上讲毫无意义。Google不需要在Gemini之中投放广告,因为Google本身就是一家广告公司。你与Gemini的每一次交互都会将数据回馈到Google二十年来一直在为你构建的广告画像中。
Google的AI战略一直是防御性的。Gemini存在的目的不是为了产生直接收入,而是为了阻止用户将原本在Google搜索上进行的查询——Google通过广告以每次约$0.04-0.08的价格变现的查询——转移到ChatGPT或Claude上。
Google没有讨论的风险是:AI聊天机器人从根本上颠覆了搜索广告模式。一次搜索查询会生成一个包含十个蓝色链接和多个广告位的结果页面。一次聊天机器人查询会生成一个答案。聊天机器人没有"第二页"。直接回答中没有广告库存。
Google正在用搜索广告收入补贴Gemini的开发,而Gemini同时正在蚕食搜索广告模式。这是应用于年收入$175 billion业务的创新者困境。
安全研究人员的离职问题
当CEO们就广告问题在公开场合互相抨击时,他们的公司内部正在发生更重要的事情。
CNN在2026年2月11日报道称,AI安全研究人员正在以越来越多的数量离开OpenAI和Anthropic。Anthropic安全保障研究团队的前负责人公开表示"世界正处于危险之中"。一位即将离职的OpenAI研究人员指出"存在以我们既没有工具理解、更谈不上阻止的方式操纵用户的可能性"。
据报道,OpenAI在一位高级安全主管反对为ChatGPT推出"成人模式"后将其解雇。这是那家曾将自己定位为通用人工智能负责任管理者的同一家公司。
模式是一致的:安全研究人员入职,获得内部能力的访问权限,变得警觉,然后离开——或者在他们的担忧与产品时间表发生冲突时被迫离开。这在OpenAI(反复发生)、Anthropic(讽刺意味最浓的地方)和Google DeepMind(2025年有多位对齐研究人员离开的地方)都发生过。
我不知道这些离职是否预示着真正的生存性风险,还是仅仅是研究人员和产品团队之间可预见的摩擦。我知道的是,超级碗广告大战不过是一种干扰。当OpenAI和Anthropic就广告问题争论不休时,那些最了解这些系统的人正在走出大门,向任何愿意倾听的人发出警告。
也许我们应该倾听他们的声音,而不是观看那些广告。