10大优享服务
58项会员特权

安全理想让步资本现实:Anthropic从OpenAI叛逃者到3800亿估值第三极的进化与妥协

发布时间:2026-03-03 10:37:27 阅读次数:8051

  核心事实速览

  Anthropic以3800亿美元估值成为硅谷大模型第三极,但近期因拒绝移除AI安全护栏被美国国防部列入供应链风险,财政部等部门已全面停用其产品转投OpenAI。这家由前OpenAI研究员创立的公司,凭借企业级市场战略实现140亿美元ARR,成为史上增长最快软件公司,但在激烈竞争压力下悄然放弃“暂停训练”核心安全承诺。

  详细报道与分析

  01 出身:从OpenAI核心到“安全优先”的叛逃者

  Anthropic的诞生与OpenAI的转型密切相关。2021年,时任OpenAI安全研究主管的Dario Amodei带着包括妹妹Daniela在内的14名核心研究员集体出走,创立Anthropic。

  出走根源:安全理念的分歧。Amodei在普林斯顿大学获得生物物理学博士学位后,横跨物理学、生物学和计算方法,2014年加入百度在吴恩达麾下从事大模型规模定律研究,2016年加入OpenAI主导开发了GPT-2和GPT-3,并与团队共同发明了“基于人类反馈的强化学习”(RLHF)技术。但随着2019年微软10亿美元投资注入,OpenAI从非营利转向“有上限利润”模式,Amodei主张更审慎的发布节奏和更严格的安全测试,而Altman加速商业化。用Amodei的话说,他担心AI技术被大型公司垄断,最终掌握在少数公司手中。

  独特的治理设计。Anthropic成立之初就设计了一套安全优先的治理结构:注册为PBC公司(公共利益公司),必须平衡股东经济利益与章程明确的公共利益——“负责任地开发和维护先进 AI,为人类的长期利益服务”;同时设立长期利益信托,由独立受托人监督公司决策,确保不因短期商业压力而牺牲AI安全。《时代》杂志2024年点评称,OpenAI 2023年的治理危机恰恰验证了Anthropic对新型治理结构必要性的判断。

安全理想让步资本现实:Anthropic从OpenAI叛逃者到3800亿估值第三极的进化与妥协

  02 路线:与OpenAI分道扬镳的企业级战略

  Anthropic选择了一条迥异于OpenAI的路径:安全性与企业可信度成为核心竞争力,而不仅仅是性能指标。

  产品节奏的克制。2022年12月ChatGPT横空出世面向全球公众时,Anthropic早在2022年就有一个早期版本的Claude 1,但他们选择不公开发布,因为担心“引发军备竞赛,没有足够时间安全地构建这些系统”。2023年3月,Claude 1发布时仅面向经审核的企业用户。

  长上下文的技术壁垒。Anthropic精准捕捉到企业级市场的核心需求:企业客户有高达50%的知识库以PDF、流程图、演示文稿等形式存在。2023年5月,Claude将上下文支持能力扩展到100K tokens,而同期GPT-4最高仅32K;2024年3月,Claude 3全线支持200K,重新拉开与OpenAI的差距,让Claude可以一次性处理整个代码库、数百页法律文档或销售记录。

  产品矩阵的深化。2024年7月推出的Artifacts将Claude从“对话工具”转变为“协作工作区”;2025年2月发布的Claude Code作为可在终端运行的agentic编程工具,完成了从代码补全到委托完整任务的进化;2026年2月推出的企业智能体计划,通过插件系统让企业部署预构建智能体,协助处理金融研究、工程规范等常见企业任务。财务插件支持市场和竞争研究、财务建模;人力资源插件可生成职位描述、入职材料和聘用函。

  03 爆发:史上增长最快软件公司的诞生

  惊人的财务数据。2026年2月,Anthropic在G轮融资公告中披露,ARR(年度经常性收入)达到140亿美元,成为史上增长最快的软件公司。其中,Claude Code的ARR自1月以来翻了一番,超过25亿美元;企业订阅量增长四倍;超过500家客户年支出超100万美元。

  估值飙升。G轮融资筹集300亿美元,由新加坡GIC和美国Coatue领投,估值达到3800亿美元,仅次于OpenAI(约5000亿美元)和SpaceX。投资者包括D.E. Shaw Ventures、Dragoneer、Founders Fund、ICONIQ等顶级机构。

  市场格局的变化。根据金融科技公司Ramp的AI指数,2026年1月,Anthropic在美国企业客户中的使用率从16.7%升至19.5%,而OpenAI的市场份额从36.8%略降至35.9%。有趣的是,约79%的Anthropic客户同时付费使用OpenAI,显示企业更倾向于多模型策略而非零和替代。

  04 冲突:国家安全与AI安全的正面交锋

  五角大楼的最后通牒。2026年2月,美国国防部长Pete Hegseth向Anthropic下达最后通牒:要么同意移除Claude模型上的安全护栏,用于“所有合法用途”,要么被列为“供应链风险”或援引《国防生产法》强制公司遵守。Anthropic是首个将模型部署到美国政府机密网络、首个在国家级实验室部署模型,以及首个为国家安全客户提供定制模型的人工智能公司。

  Amodei的拒绝。在一封800词的声明中,Amodei明确拒绝:“我们无法在良心上同意他们的要求。”他警告,国防部的要求将迫使公司跨越两条红线:大规模国内监控和完全自主武器。

  特朗普的禁令。几天后,特朗普下令所有联邦机构立即停止使用Anthropic,战争部长将其列为“供应链风险”。特朗普在社交媒体上直言:“他们想要不受约束的权力,我们不能允许。” 随后,财政部、国务院及联邦住房机构全面终止使用Anthropic产品,国务院将内部聊天机器人StateChat的底层模型切换至OpenAI的GPT4.1。

  OpenAI的反向选择。就在Anthropic被威胁列入供应链风险名单的几小时后,Sam Altman宣布OpenAI与国防部达成协议,允许其模型部署在军方机密网络中。Altman称协议包含“技术保障措施”和“红线”限制,如不用于国内大规模监控和完全自主武器。

  市场的戏剧性反应。在Sam Altman宣布合作后,社交媒体掀起抛弃ChatGPT转投Claude的活动,2月28日Claude在AppStore上登顶。而在周末发生的美对伊军事打击中,虽有高层禁令,但美军指挥部据报仍使用了Claude进行情报评估、目标识别和模拟战斗。

  05 妥协:安全理想的退让

  放弃核心安全承诺。2026年2月24日,Anthropic悄然发布《负责任扩展政策》第三版(RSP 3.0),删除了此前被视为“硬性红线”的承诺:如果无法提前保证适当的风险缓解措施,就不会训练或发布AI模型。原来的逻辑是“if-then”条件约束——一旦模型能力触碰到危险阈值,必须暂停训练直到安全防护就绪。新版本中,这一刚性承诺被“透明度机制”取代:前沿安全路线图、风险报告机制、非约束性的公开承诺。

  解释与现实压力。Anthropic首席科学家Jared Kaplan坦言:“如果竞争对手飞速前进,我们单方面承诺暂停训练没有意义。” 公司官方解释称,随着接近更高AI安全级别,事先精确界定所需安全措施变得愈发困难。但批评者指出,硬性约束和透明披露本质不同:前者提前锁死选项,后者依赖外部舆论压力和内部自律——当资本压力足够大时,透明披露能否真正约束行为?

  行业的同步后退。无独有偶,OpenAI在2024财年IRS表格中,从使命陈述中删除了“safely”(安全地)一词,原版本“构建安全的、造福全人类的通用人工智能”变为“确保通用人工智能造福全人类”。两家竞争对手动作出奇一致。

  时代杂志的独家报道。2月24日发布的报道显示,Anthropic高管承认正放弃旗舰安全政策的核心承诺。公司表示,政策环境已转向优先考虑AI竞争力和经济增长,安全导向讨论尚未在联邦层面获得实质性进展。

  06 竞争:安全叙事的工具化

  对OpenAI的进攻。2026年2月,Anthropic在超级碗投放广告,展示普通人向AI寻求建议时被无关广告打断的场景,画面最后出现:“Ads are coming to AI. But not to Claude。”矛头直指OpenAI计划在大模型聊天助手中推出广告功能。2025年5月,他们还曾在旧金山投放广告,写着“你可以信任的AI”和“没有那些戏剧性的那个”,影射OpenAI 2023年的董事会政变。

  对中国竞争对手的态度转变。回顾Amodei对中国AI的态度,突变点发生在2025年DeepSeek发布后。此前,他曾公开表示在百度吴恩达麾下的时光是进入AI的重要启蒙;此后,他将芯片出口管制提升到国家安全高度,称其“决定我们最终处于单极还是双极世界”。2025年2月,他甚至公开抨击特朗普政府允许出售H200新品,称是将技术领先优势交给竞争对手。

  “蒸馏攻击”指控。就在2月与国防部门对峙之际,Anthropic发布措辞强硬的“技术报告”,指控DeepSeek、Moonshot和MiniMax进行“工业规模的蒸馏攻击”。报告发布时间恰逢Amodei被召至国防部接受质询,被外界解读为重塑Anthropic“爱国守护者”形象的策略。

  独家观点与预测

  安全与商业的永恒张力。Anthropic的演变轨迹揭示了AI安全领域的深层悖论:当安全承诺与商业利益冲突时,前者往往让位于后者。从创立之初以“安全优先”为品牌标签,到如今在竞争压力下放弃硬性红线,Anthropic走过的路或许正是整个行业将经历的缩影。

  企业级市场的护城河。尽管安全承诺妥协,但Anthropic在企业级市场已建立深厚壁垒:长上下文处理能力、Claude Code的开发者粘性、企业智能体插件的生态布局,以及超过500家年支出超100万美元的高价值客户。这些资产不会因安全政策调整而消失。

  IPO预期的催化作用。3800亿美元估值和140亿美元ARR,让Anthropic的IPO预期日益强烈。在公开市场的审视下,公司需要平衡增长故事与风险披露——安全政策的调整或许正是为更灵活的商业模式铺路。

  国防市场的得失权衡。失去国防部合同对Anthropic是重大打击,但Amodei的坚持可能反而强化了其在注重AI伦理的商业客户中的信任度。AppStore登顶的反向效应显示,公众舆论并非一边倒支持国防部的强硬立场。

  安全叙事的新形态。放弃“暂停训练”硬性承诺后,Anthropic转向“透明度机制”和安全投入对标竞争对手。这一调整是否意味着安全正在从硬约束变为公关语言?当所有公司都在加速时,“负责任”的定义权将落入谁手?

  行业影响:对开发者与企业决策者的启示

  对AI应用开发者:

  多模型策略成为常态:79%的Anthropic客户同时使用OpenAI,显示企业倾向于多模型部署而非单一供应商锁定。开发者需要熟悉多个平台的API特性和成本结构。

  Agentic工具的机会:Claude Code营收翻番、企业订阅量四倍增长,证明AI编码工具正从边缘走向主流。专注于垂直场景的Agent开发将是高价值赛道。

  安全能力成为溢价点:尽管Anthropic调整政策,但企业对数据安全、合规性的需求不会消失。具备安全审计、护栏设计能力的开发者将更受青睐。

  对企业IT决策者:

  AI支出核心化:企业从实验转向规模化部署,AI预算正从“创新基金”变为“核心IT支出”。CIO需要建立多模型管理体系,平衡性能、成本与合规。

  SaaS模式的颠覆:Anthropic的插件生态直接冲击传统SaaS——财务插件威胁Thomson Reuters、法律插件影响LegalZoom、COBOL现代化能力导致IBM股价单日下跌13%。企业软件采购需重新评估“AI原生”替代方案。

  供应链风险考量:Anthropic被美国政府列入供应链风险,警示企业关注AI供应商的合规性与地缘政治风险。关键业务系统需准备备选方案。

  对AI创业公司:

  垂直领域机会窗口:Anthropic聚焦通用企业智能体,为垂直行业(如法律、医疗、金融)的专用AI工具留下空间。行业知识+AI能力的结合仍是壁垒。

  安全差异化的挑战:Anthropic的妥协表明,纯安全叙事难以支撑商业可持续性。创业公司需要找到“安全+性能+成本”的可行平衡点。

  【附】一品威客:AI技术商业化的加速平台

  在Anthropic引领企业级AI变革的同时,中国开发者与企业如何抓住这波浪潮?一品威客作为国内领先的创意服务众包平台,正成为AI技术供需双方的桥梁:

  任务大厅AI技术开发:无论您需要开发基于Claude或GPT的企业智能体、定制RAG知识库系统,还是COBOL现代化迁移工具,都可以在任务大厅发布需求。平台汇聚海量认证的AI技术开发商和算法工程师,快速匹配企业需求,解决“有想法、没人手”的落地难题。

  人才大厅AI技术开发:对于具备大模型微调、Agent框架开发、MCP协议集成等技能的AI人才,人才大厅是接单变现的沃土。Anthropic带动的企业AI工具热潮,正催生大量插件开发、工作流定制、安全审计的商业项目。

  商铺案例威客攻略:平台商铺案例库展示大量成功的AI技术开发项目,涵盖智能客服、代码生成、金融分析等垂直场景,可作为需求方的决策参考。同时,“威客攻略”持续分享AI技术变现、项目管理、行业趋势干货,帮助开发者在AI浪潮中持续提升竞争力。

  互联网资讯:依托资讯板块,您可以第一时间获取Anthropic与OpenAI竞争、企业AI市场变化等动态,确保技术栈与商业嗅觉始终站在前沿。

  在AI从“能力炫技”走向“企业落地”的今天,选择一品威客这样的专业平台,将是您抢占市场先机、实现技术变现的高效路径。

      一品威客网,新型设计开发 托付式服务平台
  • 发布一个任务,让千万威客为您服务!
立即发布一个需求
选择一品威客
专业威客
威客实名认证,雇主放心交易
担保交易
赏金托管平台,满意后付款有保障
免费发布
所有类型任务,雇主免费发布
全额退款
零交稿零投标,任务全额退款
输入手机号