Skip to ContentSkip to Navigation
Over ons Actueel Nieuws Nieuwsberichten

Autonome wapens verlagen de drempel tot oorlog

15 januari 2024

Killer robots? Zelfschietende drones? Het vermoeden bestaat dat in Libië al een autonoom wapensysteem is gebruikt. Maar regulering is er nog steeds niet. Promovenda Taís Blauth doet onderzoek naar de juridische en ethische vragen die deze wapens oproepen.

Tekst: Jurgen Tiekstra / Foto's: Henk Veenstra

Toen de Arabische Lente in 2011 zorgde voor politieke omwentelingen van Tunesië tot aan Syrië, brak ook in Libië een burgeroorlog uit. Die strijd is nu, twaalf jaar later, nog steeds niet uitgewoed. Inmiddels heeft het Libische slagveld zelfs de twijfelachtige eer om waarschijnlijk de eerste plek in de wereld te zijn waar een autonoom wapensysteem op ‘eigen’ gezag mensen heeft aangevallen.

Tenminste, dat suggereerden onderzoekers in dienst van de Verenigde Naties. In mei 2020 werden oostelijk van hoofdstad Tripoli de restanten van een drone van Turkse makelij gevonden: de STM Kargu-2. Het vermoeden bestaat dat deze drone autonoom kon schieten op rebellengroepen. Deze vondst maakte duidelijk dat kunstmatige intelligentie ook in oorlogen een realiteit is. Vanuit haar huidige woonplaats Sneek bestudeert de Braziliaanse promovenda Taís Blauth de ethische en juridische vragen die deze dodelijke autonome wapensystemen oproepen. Blauth is een kenner van het internationaal recht. Na een bachelor aan de Universidade Feevale in de Braziliaanse stad Novo Hamburgo en een master aan de University of Durham in Groot-Brittannië, vond ze een plek op de Campus Fryslân van de Rijksuniversiteit Groningen.

Taís Blauth
"In het begin ging het over een verbod, maar hoe kan iets verboden worden wat misschien al bestaat?"

Stop Killer Robots

Binnen VN-verband wordt al jaren en jaren gesproken over het reguleren van de autonome wapensystemen, maar nog altijd is een internationaal akkoord buiten bereik, vertelt Blauth. ‘Dit debat kreeg meer aandacht door een open brief in 2015 die door veel bekende persoonlijkheden werd onder tekend, onder wie bijvoorbeeld Elon Musk. Al vóór die open brief waren deze wapen- systemen onderwerp van discussie binnen de Verenigde Naties, maar toen nog zonder veel gerucht. Ook is door verschillende ngo’s de Stop Killer Robots-campagne opgezet, waarmee deze organisaties het onderwerp bij de VN naar voren hebben geduwd.’

‘Binnen de VN zijn de afgelopen jaren verschillende discussies gaande over wat voor type regulering we moeten hebben,’ zegt de Braziliaanse. ‘In het begin ging het over een verbod, maar hoe kan iets verboden worden wat misschien al bestaat? Daarna verschoof de discussie naar het principe van ‘betekenisvolle menselijke controle’, als een minimum vereiste voor deze wapens. Maar wat bedoelen we daarmee?’

VN-resolutie aangenomen

‘Begin november’, vervolgt Blauth, ‘heeft de Algemene Vergadering van de Verenigde Naties een resolutie aangenomen waarin voor het eerst wordt gezegd dat het noodzaak is dat de internationale gemeenschap de uitdagingen rondom autonome wapensystemen adresseert. Maar zelfs zo’n resolutie kreeg nog vijf stemmen tegen: van Rusland, Belarus, India, Mali en Niger. Ook waren er acht onthoudingen, inclusief China, Israël en Turkije.’ De NAVO-landen, waaronder Nederland, ondertekenden de resolutie wel. Maar dat betekent niet dat deze landen tegen autonome wapensystemen zijn. Het kabinet Rutte II schreef in een Kamerbrief in 2016 dat autonome offensieve wapens een onderdeel zijn van een ‘blijvend technologisch hoogwaardige Nederlandse krijgsmacht’.

Soldaat die drone gebruikt
"Wat als terroristen zo’n autonoom systeem in handen krijgen? Zij zullen zich niet druk maken over betekenisvolle menselijke controle." Foto: armyinform.com.ua/ Wikicommons

‘Betekenisvolle menselijke controle’

De regering maakte destijds een in eigen ogen allesbepalend onderscheid tussen vollédig autonome wapens en wapensystemen met ‘betekenisvolle menselijke controle’. Over de definitie van deze laatste term is internationaal nog steeds geen consensus. Maar de interpretatie van het kabinet was indertijd dat ‘mensen wel een nadrukkelijke rol spelen bij het programmeren van de kenmerken van aan te vallen doelen en bij de beslissing over de inzet van het wapen.’ Of zoals toenmalig PvdA-minister Koenders en VVD-minister Hennis-Plasschaert in die Kamerbrief schreven: ‘Mensen bevinden zich hiermee in de zogenoemde wider loop van de besluitvorming.’ Het Nederlandse standpunt is sinds die tijd niet verandert, getuige bijvoorbeeld een Kamerbrief in 2021 die ondertekend werd door de toenmalige ministers Sigrid Kaag en Ank Bijleveld.

Offensieve systemen gewild

Defensieve autonome wapensystemen bestaan overigens al jaren. De Nederlandse marine gebruikt het Goalkeeper-systeem, dat automatisch binnenkomende raketten onderschept. De Verenigde Staten hebben hun vergelijkbare Phalanx-systeem. Heel anders wordt het als autonome wapens offensief worden. Landen gebruiken ze graag, omdat ze sneller en preciezer dan mensen zouden zijn, en op de gevaarlijkste plekken kunnen komen. Maar Blauth ziet, samen met anderen, talloze voorbehouden. Bijvoorbeeld: wat als terroristen zo’n autonoom systeem in handen krijgen? ‘Zij zullen zich niet druk maken over betekenisvolle menselijke controle’, zegt Blauth. Een tweede probleem is de mogelijke ‘liability gap’, oftewel: wie kan er verantwoordelijk worden gehouden als er een oorlogsmisdaad is gepleegd? ‘Ook daarom is het belangrijk dat er een mens achter het systeem zit.’

Taís Blauth
"We zouden niet in staat zijn om ëthische normen in een computersysteem te codificeren."

Ethische normen

Nog een probleem: is het internationaal recht programmeerbaar? Want hoe leer je een machine dat burgers er anders uitzien dan militairen? (Het ‘principe van onderscheid’.) Hoe weet een machine hoe ver zij mag gaan? (Het ‘principe van proportionaliteit’.) ‘Stel je voor,’ zegt Blauth, ‘dat een autonoom wapen de opdracht heeft om een bepaalde persoon te doden, maar dat die persoon zich bevindt bij een school met zestig kinderen. Zou dat wapensysteem wel of niet die terrorist proberen te doden? Dat soort beslissingen worden nu genomen door militair personeel dat uitgebreid hierop getraind is en deze ethische normen in hun hoofd hebben. We zouden niet in staat zijn om zoiets in een computersysteem te codificeren.’ Een volgend probleem is het psychologische fenomeen van de ‘automatiseringsbias’. Hoe soeverein staat een mens eigenlijk ten opzichte van een autonoom wapensysteem? Vaak wordt erop gewezen dat mensen er primair toe neigen om de conclusie van een computersysteem te verheffen boven het eigen inzicht.

Taís Blauth met computer
"Dat is een kritiek op deze wapens: ze verlagen de drempel tot oorlog, ook omdat je niet het risico loopt veel soldaten te verliezen."

Doordeweekse kantoordag

Tot slot is er de vraag of autonome wapen systemen, zoals zelfstandig schietende drones, oorlog niet alleen maar dichterbij brengen. Investeringen in nieuwe offensieve, in plaats van defensieve, mogelijkheden vergroten wellicht de kans dat landen tot geweld besluiten. Bovendien zijn de autonome wapensystemen een verdere stap in het klinischer maken van oorlogsgeweld. Nu al worden drones boven een slagveld aangestuurd vanuit militaire bases duizend kilometer verderop. Een volgende stap is dat die drones niet op het moment van het vechten zelf worden bestuurd, maar vooraf zijn geprogrammeerd op een doordeweekse kantoordag. ‘Deze mensen zitten dan in hun fraaie kamer, met airconditioning, een kop koffie, in een mooi pak’, beschrijft Blauth. ‘Ze bevinden zich niet op een slagveld, met de geur en het lawaai, waar je mensen ziet lijden en waar je je in een context bevindt die raakt aan jouw meest natuurlijke en menselijke morele waarden. Er ontstaat dus een afstand die het soms makkelijker maakt om geweld te gebruiken. Dat is een kritiek op deze wapens: ze verlagen de drempel tot oorlog, ook omdat je niet het risico loopt veel soldaten te verliezen.’

Dit artikel is onlangs verschenen in ons alumnimagazine Broerstraat 5.

Meer informatie

Zie de profielpagina

Laatst gewijzigd:16 januari 2024 14:29
View this page in: English

Meer nieuws

  • 02 april 2024

    Is meer data altijd beter?

    Xiaoyao Han onderzoekt de toegevoegde waarde van big data en bestudeert hoe de opeenstapeling van gegevens ons wetenschappelijk inzicht verrijkt.

  • 29 januari 2024

    Duurzaam gedrag? Informatie alleen is niet genoeg

    In haar functie als sociaal - en omgevingspsycholoog onderzoekt Josefine Geiger wat mensen motiveert om milieuvriendelijk te handelen. Volgens haar kunnen we als individu veel invloed hebben als we erin slagen om de drempels die we soms ervaren, te...

  • 11 december 2023

    Join the 'Language and AI' community

    As a part of the Jantina Tammes School, the 'Language and AI' theme is an interdisciplinary initiative that aims to encourage collaboration among academics, PhD candidates, students, and industry representatives who share a keen interest in the...