Nathalie Smuha
Nathalie Smuha
Onderzoekster (KULeuven), coördinatrice van de expertengroep rond AI van de Europese Commissie
Opinie

03/01/19 om 16:32 - Bijgewerkt om 16:33

'Een nieuw jaar, een nieuwe AI?'

Als nooit tevoren heeft Artificiële Intelligentie (AI) afgelopen jaar het nieuws gehaald. "Deze trend zal in 2019 enkel verder toenemen, met alle gevolgen van dien. Ook de negatieve", schrijft Nathalie Smuha. Ze hoopt dat de start van het nieuwe jaar dan ook een nieuwe - meer ethische - start voor AI kan inluiden.

'Een nieuw jaar, een nieuwe AI?'

© Dino

Van het sneller en juister opsporen van kankercellen, het voorspellen van de ideale werknemer, tot de creatie van een kunstwerk dat bij Christie's verkocht werd voor maar liefst 432.000 dollar - artificiële intelligentie heeft in 2018 meer dan ooit bewezen dat het een enorme impact heeft op alle facetten van onze samenleving. Een ding is duidelijk: deze trend zal in 2019 enkel verder toenemen, met alle gevolgen van dien. Ook de negatieve. Van het schenden van onze privacy voor electorale of commerciële doeleinden, het discrimineren van burgers door het negeren van inherente vooroordelen in de data en algoritmes, tot het besturen van autonoom moordende drones - de trend is duidelijk niet enkel rooskleurig.

Delen

'Een nieuw jaar, een nieuwe AI?'

Aan de start van het nieuwe jaar is er echter hoop voor een nieuwe artificiële intelligentie, waarin de negatieve gevolgen kunnen worden geminimaliseerd of zelfs geëlimineerd. Drie aspecten verdienen hierbij extra aandacht.

Privacy

2018 was het jaar waarin de General Data Protection Regulation of de GDPR, die individuen onder meer beschermt tegen autonome beslissingen genomen door algoritmes, met veel poespas in werking is getreden. De GDPR groeide enkel aan belang door negatieve nieuwsberichten rond AI, zoals het Cambridge Analytica-schandaal waarvoor Mark Zuckerberg in persona zowel voor de Amerikaanse Senaat als het Europees Parlement moest verschijnen om zich te verantwoorden. Dit belang zal enkel groter worden in 2019, gezien de spanning tussen big data en AI aan de ene kant, en privacy aan de andere kant niet snel zal afnemen.

Het staat buiten kijf dat het vrijgeven van onze data heel positieve gevolgen kan hebben, bijvoorbeeld in de ontwikkeling van AI voor medische doeleinden. Het blijft echter ontzettend moeilijk om deze data behoorlijk te beschermen, niet enkel tegen entiteiten die met opzet een privacy-inbreuk willen plegen, maar ook tegen volledig ongewilde inbreuken door een lek of andere negligente kink in het veiligheidssysteem. En hoe meer data verzameld worden, hoe groter het risico op schade mocht er een inbreuk zijn.

Delen

De keuze om AI voor goed of kwaad te gebruiken ligt volledig bij ons

Er is echter hoop. AI kan ook net een oplossing bieden voor het privacy-probleem. Algoritmische engelen, zoals ze soms worden genoemd, zijn AI-systemen die ervoor kunnen zorgen dat je privacy juist meer beschermd wordt. De ontwikkeling van zulke technologische beschermengelen is broodnodig, en dringender dan ooit. Niet het minst omdat ze het besef doen groeien dat het ook anders kan - de keuze om AI voor goed of kwaad te gebruiken ligt volledig bij ons.

Killer robots

Zo was de resolutie die ons federaal parlement in juli goedkeurde om autonome wapensystemen te verbannen - een wereldprimeur - een stap in de goede richting om preventief negatieve gevolgen van de technologie tegen te gaan. De voortrekkersrol van ons land in het verbannen van killerrobots werd echter overschaduwd door de melding dat Belgische diplomaten weigerden hun steun uit te spreken voor een verbodsverdrag op internationaal niveau tijdens topoverleg van de Verenigde Naties in Genève.

Ondertussen keurde ook het Europees Parlement alvast een resolutie goed tegen autonome wapens - doch met redelijk vage woorden die onduidelijkheid werpen over de precieze consequenties hiervan. Belangrijk: een resolutie van het parlement is geen wet, en dus ook niet juridisch bindend. Zo'n resolutie geeft echter wel een sterk signaal naar de buitenwereld toe over Europa's positie in het debat rond killerrobots, dat in het licht van de internationale wapenwedloop steeds belangrijker wordt.

Opmerkelijk is dat, los van enige resolutie, ook Google het nieuws haalde door een positie in te nemen in dit debat. Zo heeft het bedrijf in 2018 haar controversieel contract met het Pentagon verbroken nadat Google-werknemers er massaal tegen protesteerden, gezien het de ontwikkeling inhield van AI voor militair gebruik. Wilde Google haar werknemers gewoonweg niet kwijtraken? Of loont het uiteindelijk toch om ethisch te zijn?

Ethische AI

2018 was ook het jaar dat de Europese Commissie - na luide roepklank van het Europees Parlement en de Raad - eindelijk tot actie is overgegaan. Zo publiceerde ze in april een "Europese Strategie voor Artificiële Intelligentie," die het voor Europa mogelijk moet maken om zich te meten met AI-grootmachten zoals China en de VS. Belangrijk hierbij is dat de EU een eigen weg kiest in plaats van de Chinese of Amerikaanse manier te dupliceren: een weg die leidt naar 'Ethische AI'.

Delen

De EU kiest haar eigen weg in plaats van de Chinese of Amerikaanse manier te dupliceren: een weg die leidt naar 'Ethische AI'

Om dit kracht bij te zetten richtte de Commissie een expertengroep op rond AI, die onder andere de taak heeft om ethische richtlijnen voor artificiële intelligentie te ontwikkelen in Europa. Deze richtlijnen moeten bedrijven, onderzoekers, publieke organen, individuen en eender wie AI ontwikkelt of gebruikt, helpen om de technologie ethischer te maken. Het doel is om - net als het Europees kwaliteitsmerk EC - ook een Europees merk te hebben voor ethische, of - in de woorden van de experten - "vertrouwenswaardige artificiële intelligentie". Over de hele wereld zullen ze het geweten hebben dat Europese AI te vertrouwen is en (zo hoopt Europa toch) zullen ze ook sneller investeren in AI "made in Europe". Enkel met grote investeringen kan Europa immers hopen dat de achterstand met China en de VS kan worden ingehaald.

Of de strategie daar een oplossing toe biedt is een groot vraagteken. En of de ethische richtlijnen er ook effectief voor zullen zorgen dat AI in 2019 een nieuw, ethisch jasje krijgt, is eveneens terra incognita. In ieder geval, met het oog op inclusiviteit - zoals enkel Europa dat kan - heeft de Commissie alvast beslist dat iedereen zijn of haar zegje kan doen over de richtlijnen. Een eerste ontwerp hiervan werd gepubliceerd net voor kerst en is nu open voor feedback tot 18 januari 2019 via deze link.

Wat denkt u - een nieuw jaar, een nieuwe artificiële intelligentie?

Over de auteur: Nathalie Smuha is als onderzoekster aan de KU Leuven gespecialiseerd in ethische en juridische aspecten rond Artificiële Intelligentie en is coördinatrice van de bovenvermelde expertengroep.

De auteur schrijft in eigen naam; alle uitspraken en opinies zijn strikt haar eigen mening en vertegenwoordigen noch KU Leuven noch de Europese Commissie.