Laten we binnenkort robots onze oorlogen uitvechten?

De Amerikaanse X47B kan al zonder afstandsbediening opstijgen, navigeren en landen. Binnenkort ook zelfstandig vijandelijke doelen vernietigen? © DARPA

Groen en Ecolo dienden een resolutie in die een preventief verbod eist op killer robots. Die zal over twee weken besproken worden in de Kamercommissie Defensie. Hoe ver staat de technologie vandaag? En in hoeverre kunnen we beslissingen over leven of dood outsourcen aan robots?

Killer robots zijn wapensystemen die volledig autonoom ingezet worden en daardoor zelfstandig vijanden kunnen opsporen en vernietigen. Dergelijke systemen zijn nog geen realiteit. Maar hoe ver staat de technologie al? “Die is momenteel nog niet ver genoeg geëvolueerd om volledig autonome systemen te ontwikkelen”, vertelt Bram Vanderborght, professor in de robotica (VUB). “De huidige sensoren kunnen zelfs nog geen onderscheid detecteren tussen burgers en vijandige soldaten, tenzij die laatsten misschien in oranje uniformen rondlopen. In de conventie van Geneve wordt dat onderscheid overgelaten aan de interpretatie van soldaat zelf. En als er één ding is dat computers nog niet kunnen, dan is het wel interpreteren.”

Dat probleem stelt zich niet in de Korean Demilitarized Zone, het buffergebied tussen Noord-en Zuid Korea. Daar mag namelijk niemand komen. Momenteel staat daar al de Hanwha Techwin SGR-A1 robot opgesteld. Die vereist vooralsnog een menselijke interventie om te vuren, maar heeft ook een automatische stand. En de Amerikaanse drone X-47B kan al volledig autonoom vanop een vliegdekschip opstijgen, navigeren en landen. Aanvankelijk investeerde het Pentagon miljoenen om de drone tegen 2020 ook zelfstandig gevechtsmissies te laten uitvoeren, maar die plannen werden vorig jaar bijgesteld. De autonome drone zal nu gewoon gebruikt worden om bemande gevechtsvliegtuigen bij te tanken. Desalniettemin, volledige sciencefiction kunnen we de killer robots ook niet noemen.

“Nog voor de verdere ontwikkeling van dergelijke autonome wapens, moeten we de vraag durven stellen: willen we dit wel?”, stelt Kamerlid Wouter De Vriendt (Groen). Concreet vraagt de resolutie, die hij samen met Benoit Hellings (Ecolo) indiende, om een verbod in onze nationale wetgeving in te schrijven. Daarnaast moet België er ook een actief engagement over opnemen in de Conventie over Conventionele Wapens. “In het verbod op clustermunitie of antipersoonsmijnen heeft ons land een internationale voorttrekkersrol gespeeld en het kan dat nu opnieuw doen” zegt De Vriendt.

Ook verbod op onderzoek?

Opvallend is dat de resolutie niet enkel een verbod op de vervaardiging, handel en gebruik van volledig autonome wapens eist, maar ook op het onderzoek ervan. “Dat vind ik misschien wat verregaand”, reageert professor Vanderborght. Want wanneer je dat soort onderzoek probeert tegen te houden, gaan overheden het in het geheim doen”.

Vanderborght merkt op dat ook soldaten niet altijd de meest morele keuze maken. “Drones worden nog aangestuurd, maar uiteindelijk gebeurt dat ook maar door iemand die vanop een afstand op een televisieschermpje aan het meekijken is. Hun interpretatie van het slagveld is dus al ingegeven door informatie die door computers gegenereerd is. Daarbij moeten ze vaak heel snel beslissingen nemen. Misschien kunnen de rationele beslissingen van een robot, die bijvoorbeeld geen wraak- of angstgevoelens kan hebben, op zo’n moment wel geschikter zijn? Zoiets moeten we toch kunnen onderzoeken”.

In de resolutie wordt aangehaald dat emoties net bloedbaden kunnen voorkomen, met de Portugese Anjerrevolutie als voorbeeld. “Met robotsoldaten zou het regime niet zonder bloedvergieten zijn gevallen”, valt er te lezen. Evenzo zou de Berlijnse Muur vreedzaam zijn neergehaald omdat “Oost-Duitse veiligheidstroepen hadden besloten om de menigte niet onder vuur te nemen, waarmee zij vertrouwden op hun eigen oordeel, ingegeven door typisch menselijke emoties.”

Terrorisme

Bram Vanderborght waarschuwt dat het gebruik van volledig autonome wapens ook terrorisme kan aanwakkeren. “Als Westerlingen niet grijpbaar zijn op het slagveld, omdat ze vervangen zijn door robots, dan komt de vijand sneller naar hier om aanslagen te plegen.”

Verder stelt zich de vraag wie verantwoordelijk is als robots fouten zouden maken. Wanneer mensen zondigen tegen het oorlogsrecht dragen zij er de gevolgen van: moreel, maar ook juridisch. “Wanneer een robot een burger doodt, wie is er dan verantwoordelijk: de bevelhebber, de programmeur of de robot zelf?”, vraagt De Vriendt zich af.

Bram Vanderborght is het er mee eens dat hiervoor dringend nood is aan een ethisch kader. Tegelijkertijd wijst hij er op dat de doelstellingen realistisch moeten zijn. “Als we te veel vragen, gaat het internationaal niet aanvaard worden.”

“Meteen een verbod eisen, is voorbarig”, vindt Tim Vandenput , die voor Open VLD lid is van Kamercommissie Defensie. “Ik zie in de pers al Robocops en Terminators verschijnen. Laten we eerst goed evalueren hoe ver de technologie staat en daarna een diepgaand ethisch debat voeren. Maar onderzoek kan je niet gaan verbieden.”

Fout opgemerkt of meer nieuws? Meld het hier

Partner Content