Uma investigação de 16.000 palavras acabou de sair na The New Yorker, e escondido lá dentro está um detalhe tão absurdo que parece a história de fundo de um vilão de Call of Duty: a OpenAI teria discutido se posicionar como uma espécie de arma nuclear na qual potências mundiais, incluindo China e Rússia, precisariam competir para investir, ou correr o risco de ficarem para trás.
O plano que supostamente não deveria ter existido
Aqui está o resumo. De acordo com a The New Yorker, depois que a ex-assessora de políticas da OpenAI, Page Hedley, apresentou estratégias para *prevenir* uma corrida armamentista global de IA, o presidente da OpenAI e grande doador de Trump, Greg Brockman, teria proposto a ideia oposta. O conceito, que insiders aparentemente chamaram de "plano dos países", envolvia a OpenAI se enriquecendo ao iniciar uma guerra de lances entre potências mundiais por acesso à sua tecnologia.
Jack Clark, que serviu como diretor de políticas da OpenAI na época e agora lidera a área de políticas na concorrente Anthropic, descreveu a mecânica de forma clara: era "um dilema do prisioneiro, onde todas as nações precisam nos dar financiamento", o que "implicitamente torna perigoso não nos dar financiamento."
Essa descrição deve soar familiar para quem já jogou uma campanha de Call of Duty. A organização privada sombria com influência sobre todas as superpotências simultaneamente é praticamente um elemento básico do gênero neste ponto.
Perigo
A OpenAI contesta totalmente essa caracterização, chamando-a de "ridícula" e dizendo que, no máximo, "ideias foram discutidas em um alto nível sobre como potenciais estruturas poderiam ser para incentivar a cooperação entre nações."
O que ex-funcionários realmente disseram
A The New Yorker diz que revisou documentos do período em que o plano foi discutido. De acordo com a reportagem, o "plano dos países" não foi apenas um experimento mental ocioso. Ele era popular entre os executivos da OpenAI e só foi abandonado depois que os funcionários começaram a discutir se renunciariam por causa disso.
Um pesquisador júnior que estava presente durante uma reunião onde o plano surgiu teria resumido sua reação em cinco palavras: "Isso é completamente insano pra caralho."
Essa citação ganha um peso diferente quando você considera o contexto mais amplo que o artigo constrói. A matéria da The New Yorker é focada na confiabilidade de Sam Altman, citando várias pessoas que acusam o CEO da OpenAI de desonestidade habitual. O plano dos países fica ao lado de outros episódios, incluindo a remoção e reintegração de Altman na OpenAI em 2023, sua briga contínua com Elon Musk e sua recente assinatura de um acordo com o Departamento de Guerra dos EUA, o que colocou uma pressão significativa sobre o que restava de sua imagem pública como um defensor da IA com foco em segurança.
A lacuna entre a versão da OpenAI e a de todos os outros
O ponto chave aqui é a contradição direta entre a posição oficial da OpenAI e o que ex-funcionários e documentos revisados aparentemente mostram. A descrição da OpenAI, de que os executivos estavam meramente explorando "estruturas para cooperação", soa estranha ao lado da descrição do dilema do prisioneiro de Clark e da reação do pesquisador júnior.
Clark deixou a OpenAI e agora trabalha na Anthropic, o que lhe dá alguma distância da empresa, mas também um incentivo profissional para ser crítico. A alegação da The New Yorker de que revisou documentos contemporâneos é mais difícil de descartar.
O que a maioria dos jogadores perde em histórias como essa é como a cultura interna de uma empresa molda esses momentos. O plano dos países aparentemente não foi uma ideia solta de uma pessoa. De acordo com a reportagem, ele teve tração genuína entre a liderança antes que os funcionários pressionassem o suficiente para matá-lo.
Por que isso importa além do óbvio
Call of Duty passou duas décadas construindo campanhas em torno exatamente desse arquétipo: o intermediário de poder privado que joga governos uns contra os outros por lucro e influência. A franquia mudou recentemente de lançamentos consecutivos de Modern Warfare e Black Ops para manter sua narrativa fresca, mas o modelo de vilão permanece consistente. O fato de as discussões internas de uma empresa real aparentemente terem se alinhado tão de perto com esse modelo é o tipo de detalhe que seria cortado de um roteiro de jogo por ser muito óbvio.
A matéria completa da The New Yorker tem 16.000 palavras e cobre muito mais terreno do que apenas o plano dos países. Para quem está acompanhando para onde a indústria de IA está indo e o que isso significa para os jogos que dependem cada vez mais dela, as últimas notícias de games continuarão conectando esses pontos conforme eles se desenvolvem. Certifique-se de conferir mais:







