Zowel Rusland als de Verenigde Staten bekijken of het mogelijk is kunstmatige intelligentie (KI) te gebruiken bij nucleaire besluitvorming. Over de keuze om bepaalde processen in de nucleaire communicatie-, commando- en controlesystemen (NC3) te automatiseren met behulp van opkomende technologieën wordt veel gedebatteerd. Dr. Michal Onderco en Madeline Zutt stellen in de Clingendael Spectator dat het beleidsdebat verder moet gaan dan het valse dilemma van mensen versus machines.
De controverse rondom het automatiseren van commando en controle
Het gebruik van automatisering in nucleaire besluitvorming is niets nieuws. Al in de jaren zestig van de vorige eeuw begonnen zowel de VS als de Sovjet-Unie met het bouwen van geautomatiseerde nucleaire commandosystemen. Sinds kort wordt ook zelflerende algoritmen gebruikt om systemen te helpen met het analyseren van data in een kortere tijd. Hierdoor kan er sneller gereageerd worden op een mogelijke nucleaire bedreiging. Toch wijzen critici erop dat de toegenomen automatisering van de nucleaire besluitvorming ook risico's met zich meebrengt. Een daarvan is dat KI niet contextueel kan denken, ethische oordelen maken, de bedoeling van iets begrijpen of zelfs orders in twijfel trekken op een manier die een mens wel kan. Zij pleiten er daarom voor om het gebruik van KI in nucleaire communicatie-, commando- en controlesystemen (NC3) te verbieden.
Onderzoek naar nucleaire besluitvorming
Onderzoek vanuit de pijler 'Global Social Challenges' van ESSB, ondersteund door een subsidie van het Nederlandse Ministerie van Buitenlandse Zaken, laat zien dat beleidsmakers in de top geloven dat de lanceringsbeslissingen van kernwapens altijd door mensen gedaan zullen worden. Hierbij gaan ze ervan uit dat de mens een goed oordeel kan vellen en zelfs dat alle mensen in een crisissituatie dezelfde overwegingen zullen maken. Uit de gedragswetenschap weten we dat dit niet het geval is. Er zijn bepaalde grenzen aan het menselijk oordeel en de rationaliteit. Mensen hebben verschillende risicovoorkeuren, dus niet alle leiders zijn even risicomijdend.
Mix van KI en menselijk oordeel
Michal en Madeline concluderen dat KI kan helpen als een betrouwbare 'adviseur' voor mensen die de uiteindelijke beslissingen moeten maken. Zowel KI als de mens is onderhevig aan verschillende vooroordelen. Een mix van de kwaliteiten van KI en mensen in nucleaire communicatie-, commando- en controlesystemen (NC3) is cruciaal om de wereld te redden van een nucleaire doemsdag.
Lees het hele artikel met verwijzingen naar tal van studies in deze Engelstalige Spectator-publicatie.
- Universitair Hoofddocent