Een onderzoek van 16.000 woorden is zojuist gepubliceerd in The New Yorker, en daarin zit een detail dat zo ontketend is dat het leest als de achtergrond van een Call of Duty-schurk: OpenAI zou hebben besproken om zichzelf te positioneren als een soort kernwapen waar wereldmachten, waaronder China en Rusland, in zouden moeten investeren om te concurreren, anders zouden ze achterblijven.
Het plan dat zogenaamd niet had mogen bestaan
Hier is de clou. Volgens The New Yorker, nadat voormalig OpenAI-beleidsadviseur Page Hedley strategieën presenteerde om een wereldwijde AI-wapenwedloop te *voorkomen*, zou OpenAI-president en grote Trump-donor Greg Brockman juist het tegenovergestelde idee hebben geopperd. Het concept, dat insiders blijkbaar het "landenplan" noemden, hield in dat OpenAI zichzelf zou verrijken door een biedingsoorlog te starten onder wereldmachten voor toegang tot zijn technologie.
Jack Clark, die destijds beleidsdirecteur van OpenAI was en nu leiding geeft aan het beleid bij concurrent Anthropic, beschreef de mechanismen ronduit: het was "een prisoner's dilemma, waarbij alle landen ons financiering moeten geven", wat "impliciet gevaarlijk maakt om ons geen financiering te geven."
Die formulering zou bekend moeten klinken voor iedereen die ooit een Call of Duty-campagne heeft uitgespeeld. De schimmige particuliere organisatie met invloed op elke supermacht tegelijk is op dit punt praktisch een genre-stapel.
gevaar
OpenAI betwist deze karakterisering volledig en noemt het "ridiculous" en zegt dat er hooguit "op hoog niveau ideeën werden uitgewisseld over hoe potentiële kaders eruit zouden kunnen zien om samenwerking tussen naties te stimuleren."
Wat voormalige werknemers daadwerkelijk zeiden
The New Yorker zegt dat het documenten heeft ingezien uit de periode waarin het plan werd besproken. Volgens de berichtgeving was het "landenplan" niet zomaar een losse gedachteoefening. Het was populair bij OpenAI-executives en werd pas verlaten nadat werknemers begonnen te bespreken of ze erover zouden opzeggen.
Een junior onderzoeker die aanwezig was tijdens een vergadering waar het plan ter sprake kwam, vatte hun reactie naar verluidt samen in vijf woorden: "Dit is volkomen fucking waanzinnig."
Die quote komt anders over als je de bredere context bekijkt die het artikel opbouwt. Het stuk van The New Yorker is geframed rond de betrouwbaarheid van Sam Altman, met verwijzing naar meerdere personen die de CEO van OpenAI beschuldigen van gewoontegetrouwe oneerlijkheid. Het landenplan staat naast andere episodes, waaronder Altman's verwijdering en herstel bij OpenAI in 2023, zijn voortdurende vete met Elon Musk, en zijn recente ondertekening van een deal met het Amerikaanse Ministerie van Oorlog, wat aanzienlijke druk zette op wat er nog over was van zijn publieke imago als een voorvechter van AI-veiligheid.
De kloof tussen de versie van OpenAI en die van iedereen anders
Het sleutelwoord hier is de directe tegenstelling tussen de officiële positie van OpenAI en wat voormalige werknemers en ingezien documenten blijkbaar laten zien. De framing van OpenAI, dat executives slechts "kaders voor samenwerking" onderzochten, staat ongemakkelijk naast Clark's beschrijving van het prisoner's dilemma en de reactie van de junior onderzoeker.
Clark verliet OpenAI en werkt nu bij Anthropic, wat hem enige afstand geeft van het bedrijf, maar ook een professionele prikkel geeft om kritisch te zijn. De claim van The New Yorker dat het gelijktijdige documenten heeft ingezien, is moeilijker te negeren.
Wat de meeste gamers missen in dit soort verhalen, is hoe de interne cultuur van een bedrijf deze momenten vormt. Het landenplan was blijkbaar geen rogue idee van één persoon. Volgens de berichtgeving had het echte tractie onder het leiderschap voordat werknemers hard genoeg terugduwden om het te doden.
Waarom dit ertoe doet, buiten het voor de hand liggende
Call of Duty heeft twee decennia lang campagnes gebouwd rond precies dit archetype: de particuliere machtsbroker die regeringen tegen elkaar uitspeelt voor winst en invloed. De franchise is onlangs afgestapt van back-to-back Modern Warfare en Black Ops releases om zijn storytelling fris te houden, maar de schurk-template blijft consistent. Het feit dat de interne discussies van een echt bedrijf zo nauwkeurig op die template leken te passen, is het soort detail dat uit een game-script zou worden geknipt omdat het te voor de hand liggend is.
Het volledige stuk van The New Yorker telt 16.000 woorden en behandelt veel meer dan alleen het landenplan. Voor iedereen die volgt waar de AI-industrie naartoe gaat en wat dit betekent voor de games die er steeds meer van afhankelijk zijn, zal het laatste gamingnieuws deze verbanden blijven leggen naarmate ze zich ontwikkelen. Zorg ervoor dat je meer bekijkt:







