《纽约客》杂志近日发布了一项长达 16,000 字的深度调查,其中披露了一个令人难以置信的细节,听起来就像是《使命召唤》反派的背景故事:据报道,OpenAI 曾设想将自身定位为一种核武器,世界各国,包括中国和俄罗斯,将不得不竞相投资,否则就有被甩在身后的风险。
本不该存在的计划
事情是这样的。据《纽约客》报道,在 OpenAI 前政策顾问 Page Hedley 提出旨在阻止全球人工智能军备竞赛的策略后,OpenAI 总裁兼特朗普的主要捐助者 Greg Brockman 据称提出了相反的设想。知情人士称之为“国家计划”的概念,涉及 OpenAI 通过引发世界各国争夺其技术访问权的竞价来充实自己。
Jack Clark,当时担任 OpenAI 的政策总监,现任竞争对手 Anthropic 的政策负责人,他清楚地描述了其运作机制:这是一种“囚徒困境,所有国家都需要向我们提供资金”,这“意味着不给我们提供资金会带来危险”。
任何玩过《使命召唤》战役的玩家都会对这种说法感到熟悉。一个拥有对所有超级大国施加影响力的秘密私人组织,这几乎是该类型游戏的一个固定套路。
危险
OpenAI 完全否认这一说法,称其“荒谬”,并表示最多只是“在高层讨论过可能鼓励国家间合作的框架”。
前员工的真实说法
《纽约客》表示,他们审阅了讨论该计划期间的文件。据报道,“国家计划”并非仅仅是随意的思想实验。它在 OpenAI 高管中很受欢迎,并且在员工开始讨论是否会因此辞职后才被放弃。
据称,一位在计划被提出的会议上在场的初级研究员用五个字总结了他的反应:“这他妈太疯狂了。”
当你考虑到文章构建的更广泛背景时,这句话的意义就不同了。《纽约客》的文章围绕着 Sam Altman 的可信度展开,引用了多位指控 OpenAI CEO 习惯性撒谎的人士。国家计划与 Altman 在 2023 年被罢免又复职、他与 Elon Musk 的持续争斗,以及他最近与美国国防部签署的协议等事件并列,这些事件严重损害了他作为安全第一的人工智能倡导者的公众形象。
OpenAI 的说法与其他说法的差距
这里的关键在于 OpenAI 的官方立场与前员工和审阅文件所显示的明显矛盾。OpenAI 的说法是,高管们只是在探索“合作框架”,这与 Clark 的囚徒困境描述以及初级研究员的反应显得格格不入。
Clark 离开了 OpenAI,现在在 Anthropic 工作,这让他与公司保持了一定的距离,但也让他有职业上的动机去批评。而《纽约客》声称审阅了同时期的文件,这一点更难反驳。
在这类故事中,大多数玩家忽略了公司的内部文化如何塑造这些时刻。“国家计划”显然不是某个人的鲁莽想法。据报道,它在领导层中获得了真正的







