2026年春天,达里奥·阿莫迪(Dario Amodei)突然变成了硅谷讨厌鬼。黄仁勋就差直接点名阿莫迪了,猛烈批评那些不断预言AI将大规模消灭工作的CEO是患上了“上帝情结”:一旦成了CEO,就很容易以为自己什么都知道。奥特曼说阿莫迪用“恐惧”做营销,杨立昆干脆说他不懂技术革命如何影响就业。

就连媒体也开始追问:一个不停警告世界末日的AI大佬,为什么自己还不停下?
阿莫迪得罪人,当然不仅仅是因为他道德感太高而情商又太低。
微妙的是,他确实长期相信AI风险,也确实把这种信念变成了Anthropic最锋利的商业武器。
这家从OpenAI出走后成立的公司,已经不再只是一个打着“AI安全”旗号的研究型团队。Claude Code成了企业AI市场最凶猛的产品之一,年化收入跑到数十亿美元级别。更夸张的是,据Business Insider报道,Anthropic在私募二级市场的估值已突破1万亿美元。
当一个人一边站在道德高地上提醒所有人慢一点,一边又在赛场中央下注,而且越下注越大,他就很难不变成靶子。
01
全民公敌
阿莫迪正在成为AI行业里最让人不爽的人。
最新一个开火的人,是黄仁勋。
在一档播客里,黄仁勋把那些动辄预言AI将造成大规模失业、甚至带来人类灭绝风险的科技CEO,称作患上了“上帝情结”。
他的大意是,一旦坐到CEO的位置上,人就很容易开始以为自己什么都懂。可关于AI的公共讨论,应该回到事实,而不是被夸张的末日叙事牵着走。

这番话没有点名,但很难不让人想到阿莫迪。
而这已经不是黄仁勋第一次被阿莫迪的AI风险叙事惹到。
阿莫迪一直支持更严格的芯片出口管制,还专门写过长文呼吁加强限制。今年在达沃斯论坛上,他把向中国出口先进AI芯片,类比成“卖核武器”。
黄仁勋当然不会接受这个说法。
在另一档播客里,黄仁勋被问到这个类比时,直接说这实属“荒唐”。他认为,把AI芯片和核武器相提并论,是一个很差,也不合逻辑的类比。

如果说黄仁勋的反击,来自英伟达和Anthropic在芯片政策上的直接利益冲突,那么OpenAI的攻击就更像是老对手之间的正面交锋。
在一次播客对谈中,奥特曼称Anthropic正在用“恐惧”做营销。
他用了一个颇为刻薄的比喻:这就像有人说,我们造了一颗炸弹,马上要扔到你头上,然后我们可以卖你一个一亿美元的防空洞。

这句话很明显指向Anthropic刚刚发布的Claude Mythos Preview。按照Anthropic自己的说法,这个网络安全模型能力太强,暂时不会对公众开放,而是先放进一个名为“玻璃之翼”的项目里,为合作机构做防御性安全工作。
来自OpenAI的“攻击”还不止这一次,4月13日,The Verge披露了OpenAI首席营收官丹妮丝·德雷瑟(Denise Dresser)发给员工的一份四页内部备忘录。备忘录主题是如何赢下企业AI市场,但其中专门拿出一段讨论Anthropic,几乎是在逐条拆对手的台。

其中写道,Anthropic的故事建立在“恐惧、限制,以及少数精英应该控制AI的观念”之上。
她还说,Anthropic过度依赖代码场景,算力储备不足,并质疑其年化收入说法,称Anthropic把与亚马逊、谷歌的收入分成按总额计入,导致其300亿美元年化收入被高估了大约80亿美元。
阿莫迪和奥特曼是老冤家,OpenAI和Anthropic是直接竞争对手;黄仁勋的芯片生意,也直接被阿莫迪的政策主张波及。他们的反击看起来都有迹可循。
但这还没完。
杨立昆(Yann LeCun)也在X上公开怼过阿莫迪。这一次,争议来自AI对就业的影响。
2025年,阿莫迪接受Axios采访时说,AI可能在未来一到五年内消灭一半初级白领岗位,并把失业率推高到10%到20%。他还说,AI公司和监管机构不能继续粉饰、不能把即将到来的冲击说得太轻。
针对阿莫迪关于就业的判断,杨立昆在X上说:“达里奥是错的”“他对技术革命如何影响劳动力市场一无所知”。他甚至说,这类问题应该多听经济学家的,而不是AI圈的任何人的,包括杨立昆自己在内。

就连舆论也开始出现一些质疑的声音。
仅就来自知名媒体的评论举例:《泰晤士报》质疑警告世界末日的AI大佬为什么自己不停下来,TechCrunch则点出,Anthropic限制Mythos开放,表面是保护互联网安全,但这种选择性开放也可能帮助它锁住大企业客户、阻止小公司通过蒸馏复制能力,从而保护自己的商业利益。

很明显,阿莫迪带领着Anthropic,占领了某种道德高地。但越是站在高地上,就越成为了被攻击的靶子。
问题在于,仅仅是因为阿莫迪太有原则、太坚持“安全”,不惜得罪人,所以才被反过来攻击吗?
阿莫迪越是用力地当“道德标兵”,他身上的一个道德悖论就越刺眼——他站在赛场中央,一边下注,一边提醒所有人这场比赛可能有毒。
这实在太别扭了。
02
“安全大王”的来时路
备忘录里,OpenAI首席营收官丹妮丝提到了一个词:“精英”。
这确实是阿莫迪身上最醒目的标签之一。
他那场站在道德高地上的对决,也几乎成了他声望的巅峰——面对美国战争部的要求,Anthropic拒绝放宽Claude的使用边界,坚持不允许其被用于大规模监控,也不允许用于没有人类参与决策的完全自主武器。

阿莫迪当时说,他们“出于良心不能答应”这个要求。那一刻,公众的欢呼里,多少带着一种久违的释放,硅谷精英终于又一次站出来,对更大的权力说了“不”。
要搞懂这个“安全大王”从何而来,还是得往回看他的来路。
阿莫迪1983年出生在旧金山。父亲是意大利裔皮革匠,来自托斯卡纳,长期受健康问题困扰,在阿莫迪年轻时去世;母亲是出生于芝加哥的犹太裔美国人,曾做图书馆项目经理。
阿莫迪从小就是标准的理科尖子生。他读的是旧金山最有名的公立精英高中之一,2000年入选美国物理奥林匹克队。上大学后,他先进了加州理工学院——也就是美国最顶尖的理工科名校之一,后来转到斯坦福,拿到物理学本科,最后又去普林斯顿读完了生物物理博士。
他是物理、神经科学、AI研究多维融合的技术型人物,这也决定了他的复杂视角。

2014年,吴恩达把阿莫迪招进百度在硅谷的人工智能实验室,参与语音识别系统的研究。后来他成为Deep Speech 2论文作者之一,这套系统主打端到端语音识别,覆盖英语和普通话,也试图用更大规模的数据、算力和训练重走传统语音识别流程。也就是在这段时间里,阿莫迪开始形成对“规模化”的早期直觉。他后来在访谈中回忆,当时发现,当模型更大、数据更多、训练时间更长时,效果会持续变好。对他来说,后来贯穿GPT、Claude这一代大模型的Scaling信仰,在百度做语音识别时就已经埋下了伏笔。
丹妮拉·阿莫迪(Daniela Amodei)也是一个重要角色。她同样从OpenAI出走,兄妹俩共同创办Anthropic。
兄妹俩形成双核结构。阿莫迪更像技术路线和安全叙事的代表,丹妮拉则更多承担公司运营、组织建设和商业推进。Anthropic今天这种奇特气质——一边像安全研究机构,一边又是高速融资、高速扩张的AI公司——很大程度上就来自这组搭档。

这种家族纽带也给Anthropic带来一种特别的稳定感,使这家公司更像一个从旧组织里分裂出来的小团体,带着强烈的自我认同,认为自己要用另一种方式做AI。
2020年底,OpenAI发布了一篇非常客气的组织更新,宣布时任研究副总裁阿莫迪即将离开。文章感谢他近五年的贡献,提到他参与GPT-2、GPT-3,并与苏茨克维(Ilya Sutskever)等人共同设定研究方向。
最微妙的是,OpenAI还写道,阿莫迪和几位同事计划开启一个新项目,这个项目“可能会更少关注产品开发,更多关注研究”。而其他大部分篇幅,用来表明OpenAI自己在安全领域的决心。

多年后,当Anthropic和OpenAI的矛盾公开化之后,人们回溯当年的友好“分手”,不难看出双方对于AI能力增长和安全边界应该如何排序,早已存在分歧。
几个月后,Anthropic成立。此后,安全从阿莫迪的个人立场,慢慢变成了这家公司的骨架。
它有RSP,也就是《负责任扩展政策》(Responsible Scaling Policy),用ASL等级给不同能力阶段的模型设置风险要求,有点像AI版的生物安全等级;它通过一套“宪法”原则引导模型行为;它还持续投入可解释性研究,试图打开模型黑箱。
阿莫迪当然在利用“安全”,但前提是,他也确实长期相信安全。从OpenAI出走,到创立Anthropic,再到RSP、AI“宪法”、可解释性、模型风险分级、国防合同边界,他的行为颇具长期一致性。
这也是阿莫迪复杂的地方。
他身上有一种很强的精英自信——我看见了更大的风险,所以我有资格提醒所有人慢一点、严一点、怕一点。可同样是这种自信,让他显得居高临下。
而当阿莫迪开始经营一家商业公司,当“道德”遇上商业,精妙的平衡更加难以维持。
03
当“安全”变成公司主线
“安全”既是Anthropic的生意,也是筛选机制。
Anthropic的特殊之处在于,它从一开始就是一群人从OpenAI出走后组建的新组织,出走的理由里有技术路线,也有安全理念,还有对“谁应该定义AI未来”的分歧。
所以文化在Anthropic显得格外重要,更像一套操作系统。

阿莫迪是一个带着研究员气质的组织设计者。他曾在访谈里说,自己大概三分之一,甚至40%的时间,都花在确保Anthropic的文化是好的上。
Anthropic表面上总在讲谨慎、克制、边界,但内部并不是一种温吞水文化。相反,Anthropic公司内部有一种类似个人公开笔记本的Slack频道,员工会在里面写自己的想法、工作进展,甚至直接和阿莫迪展开辩论。
可以想见,不管是Anthropic的准入门槛还是内部文化的不断塑造与碰撞,都形成了对人才的某种筛选机制。
过去一年,Meta为了补强AI团队,到处挥舞支票本挖人。AI行业的人才价格被抬到夸张程度,顶尖研究员和工程师几乎变成了自由市场上的超级球星。面对这种挖角,一些公司本能地“跟价”,至少是明确地表示要提高员工薪酬,先把人留下来再说。

阿莫迪没有这么做。他公开解释过,Anthropic不会因为外部公司给某个人开了天价offer,就立刻打破自己的薪酬原则。他说,如果扎克伯格像扔飞镖一样随机击中某个人的名字,那并不意味着这个人就应该比旁边同样优秀的同事多拿十倍。
更有意思的是,阿莫迪表示,有些Anthropic员工面对Meta的挖角,甚至连扎克伯格都不愿意聊。这句话里当然有炫耀的成分。但它真正想传递的是Anthropic员工的“共识”是存在且牢固的。
阿莫迪必须让员工相信,Anthropic不是另一家只想跑得更快的AI公司;同时,他又必须带着这家公司真的跑得足够快。否则,安全叙事再漂亮,也只会变成赛场边上的道德评论。
“安全”作为生意,成绩斐然。
Anthropic从一开始就天然吸引那些对可靠性、可控性要求更高的客户。Claude刚推出时就强调可靠性、可预测性和可引导性,早期合作伙伴就是Notion、Quora、DuckDuckGo、Juni Learning这类知识生产、搜索、教育和工作流工具。
Anthropic卖的不是“最便宜的模型”。企业、政府、代码、金融、医疗、教育、公共部门——这些客户更在意稳定性、合规性、安全边界和长期责任。价格上也能看出来,Claude并不是低价路线。Claude Opus 4.7的价格是每百万输入tokens 5美元、输出25美元;Claude Sonnet 4.6是输入3美元、输出15美元。相比之下,xAI的Grok 4.20是输入2美元、输出6美元,明显更激进;OpenAI的GPT-5.5则是输入5美元、输出30美元,和Claude Opus处在同一高价区间。

Reuters此前也报道,Anthropic拥有超过30万商业和企业客户,这些客户贡献约80%的收入。企业客户按用量付费,留存更稳定,扩张空间也更大,一旦进入代码、办公流、云平台和政府系统,收入就不是普通订阅产品能比的。
与之相比,OpenAI靠ChatGPT在C端打出了最大的声量,也确实把大众用户教育到了前所未有的规模;但C端用户多,不等于收入结构最好。
OpenAI自己最新说法是,企业收入已经超过总收入的40%,并希望到2026年底追平消费端。换句话说,即便是OpenAI,也正在拼命往企业市场努力。

Anthropic和美国战争部DoW的合作更是典型例证,很长一段时间里,Anthropic都是DoW在“机密领域”唯一合作的AI公司。Claude被用于情报分析、建模与仿真、作战规划、网络行动等任务。
顺着这个思路,回看Anthropic与DoW之间的激烈“斗争”,足见阿莫迪将安全作为生意的功力——通过对“大规模监控”“自主武器”底线的强调,即便丢了与DoW之间的合作,却让Anthropic的公众知名度与“可靠度”更上一个台阶,在资本市场获得了前所未有的青睐。
Anthropic的年化收入从2025年底的90亿美元,冲到2026年4月的300亿美元量级;今年2月,它以3800亿美元估值完成300亿美元融资,随后Google又计划最高向其投入400亿美元。更有报道指出,其在二级市场的估值已经达到了1.1万亿美元的规模。
安全听起来像一种克制,但在Anthropic它最后变成了一种更高级的商业语言。
但这套治理术当然有它危险的一面。
当一家公司把“安全”变成组织信仰,它就会天然获得一种道德优越感,也更容易把竞争对手衬托成不负责任的人,把商业选择包装成价值选择。
这也是为什么Anthropic越成功,阿莫迪越让人不舒服。
04
“安全”的两面
如果仅仅将阿莫迪看作一个因为有理想有底线但情商低、因此总是说大实话得罪人的“理工男”,未免有点天真。
《华尔街日报》曾有一篇文章,回溯阿莫迪和奥特曼之间的10年恩怨。
阿莫迪在OpenAI的故事远不是一句“安全理念分歧”能解释。

2018年,马斯克退出后,阿莫迪同意留下的条件是布罗克曼(联创之一)和苏茨克维不得掌权——他先谈的是权力分配,而非技术路线。
随后在关键的模型项目里,他和妹妹丹妮拉联手,把想加入的布罗克曼挡在门外,理由之一是某位核心研究员“不想与之共事”。这位研究员事后形容自己被高管当成“代理人武器”,可见阿莫迪非常懂得借人结盟。
随着GPT-2/3走红,他对功劳归属和曝光度愈发敏感:不满布罗克曼在播客里“抢风头”,发现奥特曼和布罗克曼准备去见奥巴马却没带自己,更是当场发火。
次年他要求升任研究副总裁,奥特曼同意,并在董事会邮件中附带一句“阿莫迪承诺不再贬低他不认可的项目”,俨然一项停火条款。
这些细节说明,安全是阿莫迪的信条,也是一把锋利的组织武器。他会谈条件、争项目、抢夺话语权,把“风险”话术用来界定谁能留在核心。
最终离开OpenAI创办Anthropic,与其说是理想出走,不如说是内部夺权失利后,将战场外移。
当他掌舵Anthropic之后,情况变得更加复杂。Anthropic不再是研究室里的理想实验场,而是一艘高速增长的商业战舰。这个时候,安全就从纯原则,变成了实打实的产品卖点。
Anthropic越是高调强调AI风险,越能凸显自己的存在必要;越是点名别人跑得太快,越能把自己包装成企业、政府和监管者最可靠的伙伴。
它的叙事天然带着一种道德比较,即选Claude,不只是挑了个模型,也是在选择一条更负责、更可控的路线。
对竞争对手来说,这就很烦人了。你卖产品也就罢了,还顺手把别人衬得像不负责任的赌徒。安全成了差异化护城河,也成了营销利器。企业客户愿意为“安心”多付钱,政府部门也更容易把敏感项目交给“最安全”的那一家。
在这个过程中,安全也同时变成了一种政治筹码。
Axios报道,2026年第一季度,Anthropic联邦游说支出达到160万美元,超过OpenAI的100万美元,也创下自身最高纪录;此前它还宣布向一个主打AI透明度和安全护栏的两党倡议组织投入2000万美元,并计划扩充政策团队、在华盛顿设立长期办公室。
说白了,阿莫迪已经在争夺AI时代的游戏规则。
阿莫迪的复杂性,正在于这两件事可能同时成立:他确实相信AI安全,也确实把AI安全变成了Anthropic最锋利的商业武器。安全既是他的信仰,也是他的权力杠杆。
原则和利益并非简单对立,而是互相喂养、互相强化。正是这种真假交织的状态,才让他既被捧为“安全大王”,又被一些人视为精明的操盘手。
Anthropic越会解释风险,越有机会定义风险;越有机会定义风险,越能把自己放进AI时代的规则中心。
这是属于阿莫迪的“安全魔法”,而“全民公敌”,就是玩魔法的必备副作用。
也许他甘之如饴。