‘Europa heeft een gedragscode voor AI-ontwikkelaars en een centraal register voor algoritmen nodig’

Data-expert Toon Borré pleit voor een register waar burgers kunnen checken of een algoritme bepaalde vooroordelen of voorkeuren bevat. “Een onafhankelijk controleorgaan moet de algoritmes beoordelen op ethiek en maatschappelijke impact.”

De laatste tijd heeft zich een consensus afgetekend rond de noodzaak van een ethisch framework voor algoritmes. Begin dit jaar formuleerde Mustafa Suleyman in zekere zin de ethische imperatief voor AI-ontwikkelaars: ‘Het is de verantwoordelijkheid van degenen die nieuwe technologieën ontwikkelen om de effecten van ongelijkheid, onrechtvaardigheid en vooroordelen het hoofd te bieden.’

Suleyman is mede-oprichter en tegenwoordig Head of Applied AI van het door Google gekochte AI-bedrijf DeepMind Technologies, dat gespecialiseerd is in machine learning. Voor hem is onderzoek naar ethiek, veiligheid en maatschappelijke impact van AI dit jaar een van de belangrijkste onderzoeksgebieden.

Ook de Europese Unie heeft dat intussen begrepen. Op 14 juni maakte ze de 52 leden bekend van de High-Level expertengroep die de AI-strategie en -politiek van de EU moet ondersteunen. De groep moet beleidsaanbevelingen formuleren over de ethische, juridische en maatschappelijke impact van AI-ontwikkeling. Ze zal dat doen door ethische richtlijnen uit te werken rond fairness, veiligheid, transparantie, democratie en fundamentele rechten.

Dat is inderdaad wenselijk, omdat technologie nu eenmaal niet neutraal is. Algoritmes bevatten meestal een bias. Dat wil zeggen dat bepaalde data die bij het machineleren gebruikt werden vooroordelen reflecteren van de mensen die bij het verzamelen of verwerken van die data betrokken waren. Algoritmebias leidt ertoe dat we in een informatiebubbel terecht komen, vliegtickets en verzekeringen te duur betalen, uitsluitingsmechanismen installeren en etnische, maatschappelijke en gendervooroordelen bevestigd zien.

Morele paniek

De sfeer van morele paniek die rond AI hangt, komt voort uit de razendsnelle ontwikkelingen op het gebied van robotica, maar ook uit welig tierende dystopische fantasieën over robotoorlogen en de domesticatie van de mens door dolgedraaide boosaardige machines. Gebrekkige kennis van AI en de daarmee samenhangende vrees voor controleverlies maken de cirkel rond.

De werkelijkheid is een stuk prozaïscher, maar ook complex. Algoritmes zijn tegenwoordig overal. Heel veel beslissingen worden op dit moment al genomen door computers. Vaak komt er nog wel een menselijke handeling aan te pas, maar het uiteindelijke doel van AI is dat we die menselijke factor loslaten.

Tegenwoordig zetten we algoritmes bijvoorbeeld in om prioriteiten te bepalen voor werken aan het stroomnet en voor het optimaal inzetten van personeel in organisaties. Financiële instellingen gebruiken ze bij het toekennen van kredieten, de spoorwegen om te bepalen op welke tijdstippen welke types treinen op welke trajecten rijden.

Weapons of Math Destruction

Soms echter zien we ongewenste effecten. Bijvoorbeeld wanneer je meer betaalt voor een Uber-taxi als de batterij van je mobiel laag staat. Denk ook aan de recente case van de immobiliënwebsite die op basis van diverse publieke databronnen potentiële kopers een beeld wou geven van de buurt waarin te koop staande panden zich bevonden. Op basis van de demografie had de site multiculturele buurten rood ingekleurd, met alle negatieve connotaties vandien.

Europa heeft een gedragscode voor AI-ontwikkelaars en een centraal register voor algoritmen nodig.

In Weapons of Math Destruction beschrijft Cathy O’Neil bijvoorbeeld ook hoe mensen in de Verenigde Staten een job geweigerd werd omdat ze een slechte kredietscore hadden, waardoor ze als werklozen een nog slechtere kredietscore kregen en nog moeilijker aan werk raakten.

De recente ontwikkelingen in automatisering en robotica zijn in ieder geval van die aard dat dit het aangewezen moment is om het maatschappelijke debat te voeren over het ethische kader waarbinnen de ontwikkeling van artificiële intelligentie moet plaatsvinden.

Naar een Centraal Register voor Algoritmen

Hoogste tijd daarom voor een paar maatregelen, bij voorkeur op Europees niveau. De GDPR heeft bewezen dat zulks haalbaar is. De start van de High Level AI-expertengroep lijkt alvast een stap in die richting.

Om over het ethisch karakter van algoritmen te waken hebben we nood aan vier dingen: een Centraal Register, een deontologische richtlijn, een eed voor de ontwikkelaars en een controleorgaan.

Naar analogie met bijvoorbeeld het Europese Patentbureau of het Belgische Wettelijke depot voor publicaties zouden data en organisaties die algoritmes ontwikkelen alle algoritmes bij het Centrale Register moeten deponeren. Algoritmes die impact hebben op de persoonlijke levenssfeer moeten daarop worden gescreend, gecontroleerd en gescoord, waarbij algoritmes met hoge impact prioritair door een controleorgaans kunnen worden geëvalueerd.

Alle algoritmes die impact hebben op individuele burgers moeten worden aangevuld met informatie die in Jip- en Janneketaal inzicht geeft in wat een algoritme precies doet.

Alle algoritmes die impact hebben op individuele burgers moeten worden aangevuld met informatie die in Jip- en Janneketaal inzicht geeft in wat een algoritme precies doet. Gewone burgers moeten namelijk kunnen weten welke variabelen een algoritme beïnvloeden, zoals ze bijvoorbeeld verkoopsvoorwaarden kunnen controleren.

Algoritmen zijn immers black boxes. Of een AI ethisch onwenselijke effecten heeft, merk je pas na verloop van tijd. Wie een algoritme schrijft, moet echter kunnen aantonen dat hij of zij tijdens het schrijven bedacht heeft wat de mogelijke elementen en resultaten kunnen zijn van een vernauwing die potentieel in het statistische model zit.

Om een ethisch wenselijke output te garanderen, kun je nu al stellen dat variabelen als gender, leeftijd en etnische kenmerken niet in algoritmes zouden mogen voorkomen. Registratie van een algoritme biedt ook het voordeel dat bedrijven die bepaalde algoritmes willen gebruiken als input kunnen kunnen zien welke voorkeuren het systeem heeft, zodat hun eigen algoritmes ethisch verantwoord blijven.

Om een ethisch wenselijke output te garanderen, kun je nu al stellen dat variabelen als gender, leeftijd en etnische kenmerken niet in algoritmes zouden mogen voorkomen.

De ethische richtlijn zou op dat vlak klaarheid moeten scheppen. Die is nog het beste te vergelijken met een ISO-certificatie. Bedrijven, overheid, data-ontwikkelaars en bij voorkeur ook een controleorgaan kunnen die op vrijwillige basis uitwerken. Mogelijk werkt de AI ethics group rond Mustafa Suleyman in die richting. Alleen is dit thema te belangrijk om alleen aan Google over te laten.

De eed van Asimov

In dit debat zijn er alvast drie betrokken partijen: de datawetenschappers die de algoritmes ontwikkelen, de organisaties die daartoe de opdracht geven en de overheden, die het wetgevende kader moeten creëren waarbinnen algoritme-ontwikkeling zich maatschappelijk situeert. Elk van die partijen moet zijn verantwoordelijkheid opnemen.

Daarom moeten onze (Europese) overheden zich op dat vlak engageren en met GDPR-vergelijkbare regelgeving ontwikkelen, waarin het algemeen belang en het belang van individuel burgers centraal staat. Een Eed van Hippocrates voor data-ontwikkelaars zou dan het geheel compleet maken. Die zou dan wel tot Eed van Asimov mogen worden omgedoopt, naar de Amerikaanse auteur die de drie Wetten van de robotica bedacht. De eerste daarvan luidde: ‘Een robot mag een mens geen letsel toebrengen of door niet te handelen toestaan dat een mens letsel oploopt.’

Fout opgemerkt of meer nieuws? Meld het hier

Partner Content