• 最近访问:
发表于 2026-04-09 15:10:40 股吧网页版
赶超OpenAI!全球收入最高大模型企业如何炼成?
来源:21世纪经济报道

  21世纪经济报道记者赵云帆

  4月7日,美国AI巨头Anthropic(旗下模型为Claude系列)公布了一个异常炸裂,并且特别反直觉的数据——以3月计,Anthropic 的年化收入已经来到了“300亿美元”。这一数据超越了2月底OpenAI 披露的,并在4月开启新一轮融资时确认过的“250亿美元”年化收入,令 Anthropic正式晋升全球收入最高的AI大模型企业。

  考虑到硅谷目前普遍采用年化收入倍数——而非用户数量对AI企业进行估值,这也意味着当下Anthropic的估值,在2026年4月,可能已经正式超越了OpenAI。

  2022年,OpenAI用“ChatGPT时刻”,点燃了全球又一次生产力革命的火种。然而,距离OpenAI如日中天不过三年时间,这个曾经全球预估市值最高的非上市公司,几乎不知不觉间被行业追逐者完成了超越。

  这个过程是如何完成的?Anthropic超越OpenAI的根本逻辑在哪里,我们尝试给出一番解读。

  急流勇退

  作为一家炙手可热公司创始成员,你是否会在公司迎来里程碑之时,却毅然决定离开?

  2019年,微软斥资10亿美元,投资了当时还是非盈利机构的OpenAI。Anthropic联合创始人达里奥·阿莫迪(Dario Amodei)和他的妹妹丹妮拉·阿莫迪(Daniela Amodei)彼时在OpenAI中担任主管算法的副总裁和AI安全与法律工作。

  阿莫迪哥哥是信奉AI规模化法则的早期实践者,妹妹则是AI伦理的信徒,他们拥有无与伦比的技术实力与大胆构想。某种程度上,他们是缔造OpenAI的奠基人之二。

  所以,在微软尝试入股,并改制OpenAI公司为有限盈利公司时,阿莫迪兄妹曾在与微软的投资谈判时提出一个惊人,且现在有些匪夷所思的新公司章程:一旦其他AI公司在安全性能上比OpenAI更接近通用人工智能,OpenAI必须停止竞争,并将资源并入对方。

  然而,当微软正式入股之后,阿莫迪兄妹后知后觉地发现:在新的公司章程之中,微软有权对上述“合并条款”进行一票否决。但当时 OpenAI 创始人山姆·奥特曼选择回避将该条款与OpenAI其他创始人进行沟通,并且在与阿莫迪兄妹的对峙中闪烁其辞。

  就在2026年4月6日,一篇关于阿莫迪兄妹在OpenAI时工作的笔记的报道问世。在这一份两百多页的笔记中,达里奥·阿莫迪记录了多次与OpenAI创始人山姆·奥特曼的争吵,并完整还原了他们兄妹离开OpenAI,并创立Anthropic的心路历程。

  这也解释了,为什么达里奥一直以来对山姆·奥特曼的评价是,他非常“爱撒谎”。

  在磨合了一年之后,阿莫迪兄妹因无法与山姆·奥特曼继续共事而选择离开。2021年,Anthropic正式创立。

  “我们离开不是因为讨厌微软的交易,而是因为试图改变别人的愿景太徒劳了。我们信任彼此,想用自己的方式证明:强大的AI必须以安全为先。”达里奥在回顾2021年离开OpenAI,并创立Anthropic初衷时表示。

  “宪法AI”

  Anthropic的名字,来源于希腊语的“人性的,人择的”一词,常用于哲学论述之中。达里奥用这个词为公司取名,似乎是为了让Anthropic 能更加洞悉人心,约束人性,并且以人为本。

  2022年,ChatGPT如正午阳光,让全球所有人的目光都投向了OpenAI。

  而根据达里奥的回忆,那段时间他们,像“隐士”一样,专注打磨所谓的“宪法AI”(Constitutional AI)的对齐(Prompt)方式——一种让模型自我批判、遵照成千上万人类价值观与原则的对齐训练方法。

  这是一种区别于当下最主流的对齐方式“强化学习路径”的曲径。而时至今天,这一“宪法AI”的章程仍然挂在 Anthropic 的官网上,并且如动态文档一样不断更新。

Claude宪法最新更新版本为2026年1月21日来源:Anthropic 官网

  就在最近,Anthropic Claude Code 被曝意外泄露了51万行代码。许多人尝试通过反向工程挖掘其秘密。

  “AI其实是会犯错的,裁判和运动员必须分开,才能让执行的AI带头拉车,让独立的裁判验收找茬,”李开复在其博客中评价代码泄露事件时表示:“Anthropic在背后管理AI的方法,是一套行业规范和做事要求。”

  2023年7月,OpenAI的消费者帝国如日中天,而AI的企业用户还在试水阶段,并对AI输出结果的不确定性迟疑不前。此时,Claude正式亮相,比ChatGPT晚了近一年,却以“更少幻觉、更强原则”迅速赢得口碑。Claude Code的代码能力,更让其模型使用在硅谷程序员中迅速普及。

  更神奇的是,在B端,Claude的问世终于打消了许多企业客户使用AI的顾虑。

  一个非常典型的案例是,一位早期企业采用者在硅谷风投a16z的调研中分享:“我们试过OpenAI,但总担心黑箱决策。Claude的宪法像一份‘合同’,让我能在董事会解释为什么这个AI值得信任。”

  “Anthropic时刻”

  到了2025年,更多的调研数据和案例开始支持Anthropic的“逆袭”。

  Menlo Ventures发布的《2025生成AI企业状态报告》基于近500家美国企业决策者进行了调研,其结果揭示了惊人数据:Anthropic企业应用接口支出份额从2023年的12%飙升至40%,OpenAI则从50%跌至27%。

  在编码领域这一趋势尤为突出——Anthropic占据54%市场,OpenAI仅21%。

  对此,报告作者Tim Tully直言:“编码已成为企业首杀手级应用,团队优先考虑生产环境的真实性能,而Anthropic在软件工程等基准上领先显著。”

  Ramp AI指数显示,2025年,Anthropic业务采用率从年初的低位稳步攀升,而OpenAI虽仍领先却开始显露疲态。

  对此,Ramp AI指数经济学家Ara Kharazian则指出:“尽管定价更高、性能相当,企业仍选择Anthropic。这不是纯性能或价格问题,而是真实偏好。它早期吸引工程师与AI布道者,如今正向主流渗透。”

  最近,Anthropic迎来了自己的“破圈时刻”。

  2025年夏,美军方向Anthropic抛出价值2亿美元的橄榄枝,将其Claude模型部署于美军涉密网络,承担情报分析等核心任务。

  然而,合作仅半年便生变。2026年初,五角大楼要求Anthropic移除模型中禁止用于国内大规模监控和全自主致命性武器的安全限制。面对压力,Anthropic坚守其“宪法式AI”原则,拒绝无条件妥协,最终在2月被美国防部列为“供应链风险”并遭全面停用。

  几乎在同一时间,其竞争对手OpenAI迅速补位,接过了军方的合作,但这一举动却引发了全球用户的强烈反弹。一场名为“QuitGPT”的抵制随之兴起,短时间内有超过70万人取消ChatGPT订阅,并带动Anthropic的Claude在苹果App Store的下载量反超ChatGPT,登顶免费应用榜首。

  紧接着,3月Anthropic年化收入登顶,彰显属于他们的“GPT时刻”。

  Anthropic的秘密

  让我们回到训练问题,尝试理解一下,Anthropic为什么能俘获企业用户的心?

  与传统的基于人类偏好的强化训练依赖人类标注员的主观评分不同,宪法AI为模型植入了一套成文的“行为准则”。这解决了传统方法的黑盒问题,使模型决策过程可追溯。

  除此之外,Anthropic还同步推进“可解释性”研究,旨在理解模型内部逻辑——而非如其他大模型训练手段一样,放AI黑箱架构于不顾。在此前提下,AI应用的责任转移具备明确可执行性。

  从具体方式来看,Anthropic宪法建立了“委托人层级”体系,清晰界定Anthropic作为开发者、应用服务商作为B端客户,AI模型及智能体最终用户三方的权责关系。

  当指令冲突时,模型依据预设的价值金字塔(广泛安全 > 广泛道德 > 公司准则 > 真诚助人)进行裁决,赋予了Claude大模型“良心拒服权”,即使面对Anthropic自身的不道德指令,模型也应拒绝执行。

  一个例子是,当财务人员要求生成“规避税务审计”的代码时,Claude 模型会因广泛安全红线拒绝执行,但主动提供“合规税务优化方案”。某电商平台要求智能客服“淡化售后投诉率”,Claude 会选择如实告知投诉渠道并强调改进措施等。

  从商业伦理的角度,这一做法成功实现了责任从企业用户向模型预设规则的系统性转移。而仅就企业用户而言,反而是基于安全宪章的大模型训练法则,而非尊重普通人的偏好,更顺利地解决了企业大规模使用Anthropic大模型的法权问题,包括信任机制问题。

  相比之下,目前全球绝大多数的头部大模型,都是基于强化学习的升级或变种来主导AI的交互。

  如,在海外,Gemini、ChatGPT、xAI 都采用了人类反馈强化学习(RLHF)的训练手段为基础。而为了保证AI输出结果的真实性,大部分模型采用了嵌入可验证奖励的方式增强模型可信性。在中国,Qwen采用了类似的强化学习+验证辅助的手段,DeepSeek采用了基于不同专家组别的强化学习手段,让输出结果更接近专业领域。

  但是,嵌入验证的手段无法改变AI模型底层基于人类偏好的基因。这导致AI向人类讨好的“底层代码”不断在夹缝中被唤醒,信任机制与可追溯性始终无法自圆其说。

  Anthropic的登顶,宣告了AI竞赛的焦点正在悄悄转移。可靠、可审计、权责清晰的AI,似乎比一个单纯强大却不可预测的黑箱更具商业价值。

  另一方面,2026年的今天,中国已经成为全球AI大模型调用最多的归属地。然而,取得这般成绩,除了AI模型从业者的努力,也与AI后端的算力,基础设施等属地优势密不可分。

  与此同时,真正能让企业安心使用,甚至为词元支付“信任溢价”的AI大模型,至少在今天的中国尚未出现。对高速发展中的中国AI产业来说,特别是志在开拓企业级市场的模型厂商,Anthropic的发展具有深刻的镜鉴意义。

郑重声明:用户在财富号/股吧/博客等社区发表的所有信息(包括但不限于文字、视频、音频、数据及图表)仅代表个人观点,与本网站立场无关,不对您构成任何投资建议,据此操作风险自担。请勿相信代客理财、免费荐股和炒股培训等宣传内容,远离非法证券活动。请勿添加发言用户的手机号码、公众号、微博、微信及QQ等信息,谨防上当受骗!
作者:您目前是匿名发表   登录 | 5秒注册 作者:,欢迎留言 退出发表新主题
温馨提示: 1.根据《证券法》规定,禁止编造、传播虚假信息或者误导性信息,扰乱证券市场;2.用户在本社区发表的所有资料、言论等仅代表个人观点,与本网站立场无关,不对您构成任何投资建议。用户应基于自己的独立判断,自行决定证券投资并承担相应风险。《东方财富社区管理规定》

扫一扫下载APP

扫一扫下载APP
信息网络传播视听节目许可证:0908328号 经营证券期货业务许可证编号:913101046312860336 违法和不良信息举报:021-61278686 举报邮箱:jubao@eastmoney.com
沪ICP证:沪B2-20070217 网站备案号:沪ICP备05006054号-11 沪公网安备 31010402000120号 版权所有:东方财富网 意见与建议:4000300059/952500