Hoe deepfakes een kernoorlog kunnen uitlokken

Foreign Policy

| Washington D.C. | Erin D. Dumbacher | 27 februari 2026

Nucleaire waarschuwingssystemen zijn te kwetsbaar voor hallucinerende kunstmatige intelligentie. De gevolgen van een AI-fout kunnen op dit gebied desastreus zijn.

Al sinds het begin van het atoomtijdperk doen beleidsmakers en strategen hun best om te voorkomen dat landen per ongeluk een kernwapen inzetten. Maar het risico op zo’n ongelukje is nog steeds even groot als tijdens de Koude Oorlog. In 1983 meldde een waarschuwingssysteem van de Sovjet-Unie ten onrechte dat de VS kernraketten hadden afgevuurd. Deze hadden een desastreuze tegenaanval kunnen uitlokken. Dat dit voorkomen werd, is enkel te danken aan de officier van dienst op dat moment, Stanislav Petrov, die besloot dat het loos alarm moest zijn. Had hij die conclusie niet getrokken, dan hadden de Sovjetleiders een reden gehad om de meest verwoestende wapens ter wereld op de Verenigde Staten af te vuren.

Verder lezen?
Kwaliteitsjournalistiek kost geld. Maar je wilt 360 misschien liever eerst proberen. Daarom kun je gastlid worden. Je krijgt dan direct 3 artikelen, onze gratis nieuwsbrief en maandelijks een artikel naar keuze.
Ja, ik word gastlid