Hoe geven we kunstmatige intelligentie een ziel?

Ronald Meeus
Ronald Meeus Freelance journalist

Als we de komende jaren niet opletten, dan zal kunstmatige intelligentie computersystemen kunnen hacken, desinformatie kunnen verspreiden en onze privacy schenden. Hoe geven we die ‘wezens’ die ons binnenkort in onze taken moeten assisteren een ‘ziel’, zodat ze ons geen kwaad doen? De denkpistes voor ethisch AI-design variëren van een al dertig jaar dode scifi-schrijver tot de principes van het zenboeddhisme.

Nu generatieve AI sinds november vorig jaar zijn iPhone-moment achter de rug heeft, wordt er ook met verscherpte aandacht gekeken naar de risico’s die de baanbrekende technologie met zich meebrengt. Ja, sinds de komst van ChatGPT en Midjourney is de kracht van generatieve AI – algoritmes die nieuwe content kunnen produceren – in ieders tengels beland, en we beginnen stilaan allemaal te ontdekken hoe glorieus geavanceerd ze al is. Maar net zo goed als kunstmatige intelligentie de boekbespreking van een vindingrijke middelbare scholier kan schrijven, kan ze ook code produceren die autonoom computersystemen kan hacken, desinformatie kan verspreiden met overtuigende deepfakes, en de privacy van individuen kan schenden.

Theoretische (maar toenemende) dreiging

Kàn. Als in – voorlopig, en gelukkig – in theorie. Maar de zelflerende systemen achter de huidige tools, waaruit geregeld nieuwe iteraties van bijvoorbeeld het GPT-taalsysteem en de beeldengenerator Midjourney worden uitgezet, worden steeds beter. En dat maakt – we merken het onder meer aan de vele opinie-artikels erover door experten – meer en meer mensen zenuwachtigr over de mogelijkheid dat kwade machten ze in de komende tijd zullen misbruiken.

Wat nog meer verontrust is dat generatieve AI al een flink gevorderd tussenstation is tussen narrow (door mensen voorgeprogrammeerde, maar inmiddels ook zelflerende) en general (niet alleen zelflerende maar ook -denkende) kunstmatige intelligentie. Hoe lang duurt het nog voordat computers kunnen denken als mensen, zoals HAL 9000 in 2001: A Space Odyssey? Projecties gaan van binnen enkele jaren al tot de helft van deze eeuw. Beide ontwikkelingen maken het steeds prangender om te voorkomen dat artificieel intelligente systemen de mens kwaad gaan doen. Om ze een bewustzijn van zichzelf en ‘ons’ mee te geven. Een moreel besef.

Ethics by design

Software-ontwerpers in het algemeen, en AI-vorsers in het bijzonder, hanteren daarvoor een ontwerpprincipe dat al jaren opgang maakt als ‘Ethics by design’: het opzettelijk inbedden van ethische en humane principes in het hele onderzoek-, ontwerp-, ontwikkel- en opleveringsproces, van lompe tot extreem intelligente software. Maar nu kunstmatig intelligente systemen stilaan dieper doordringen tot ons dagelijkse leven, moet er verder worden gegaan dan zo’n filosofische principes: de vraag wordt meer en meer concreet hoé dat morele besef nu moet worden ingeprogrammeerd in GPT-4, Bard, LlaMA 2 en hun wellicht nog veel intelligentere nazaten. Met enige nadruk zelfs: eind maart diende het Center for AI and Digital Policy, een Amerikaanse stichting die de nefaste ontwikkelingen van AI op de voet volgt, een klacht in bij de Amerikaanse overheid met de vraag om precies te onderzoeken welke ethische principes OpenAI in zijn taalmodel steekt.

Minstens een deel van de gemeenschap van AI-onderzoekers is ermee bezig. Er zijn zelfs al twee ‘scholen’ in hun denken. De eerste denkpiste is het statisch inbouwen van ethische principes. Datgene wat kunstmatig intelligente systemen wel en niet mogen gewoon inprogrammeren. Informaticagigant IBM, die vanuit zijn Watson-supercomputer al decennialang een belangrijke rol speelt in het onderzoek en de ontwikkeling van artificiële intelligentie, houdt in de ontwikkeling van zijn AI-systemen bijvoorbeeld rekening met elementen als verantwoordelijkheid, eerlijkheid, respect voor de rechten van de gebruiker over zijn persoonlijke gegevens, en transparantie in het proces achter iedere beslissing die de systemen nemen. Enkele jaren geleden liet IBM bijvoorbeeld al een AI-computer ‘stage’ lopen als jurist bij een advocatenbureau.

Lees ook: AI wordt zindelijk

Asimovs wetten

Maar er bestaat al meer dan tachtig jaar een betere, duidelijkere leidraad voor AI, opperde tech-ondernemer Igor Jablokov onlangs nog in Fast Company: die van de Amerikaans-Russische sciencefictionschrijver Isaac Asimov. Die definieerde in zijn verhaal Runaround uit 1942 slechts drie basiswetten waaraan robots moeten voldoen, die daarna een constante bleven in heel het werk van de in 1992 overleden auteur van de Foundation-boekencyclus. De belangrijkste wet is de eerste: Gij Zult Geen Menselijk Wezen Kwaad Doen (of, door niet in te grijpen, toelaten dat een mens kwaad wordt gedaan). De tweede wet van Asimov verscherpt dat: Gij Zult Altijd Luisteren Naar De Bevelen Van Mensen (behalve wanneer dat in tegenspraak is met de eerste wet). En dan de derde: Gij Zult Uzelf Beschermen (zolang dat strookt met de eerste of tweede wet).

‘Asimovs wetten zijn ontworpen om ervoor te zorgen dat AI is gebouwd rond het voordeel en de vooruitgang van mensen’, opperde Jablokov. ‘Zonder regels kan AI worden gebruikt om verkiezingen te beïnvloeden en desinformatie te verspreiden die kiezers misleidt. Zonder regels kunnen deze modellen worden gebruikt om bedrijfseigen informatie te stelen en intellectueel eigendom te ondermijnen. Zonder regels kunnen deze modellen worden gebruikt om de meest getrouwe en nauwkeurige consensus over wat wel en niet waar is uit te hollen.’

Wijze AI

Het is een mooi begin, maar niet helemaal waterdicht: hoe zou een ‘robot’ (ook een artificieel intelligent computersysteem dus) een misdaad moeten voorkomen, waarbij een mens een ander mens de kop probeert in te slaan? Daarom zijn er AI-onderzoekers, bij onder meer OpenAI en het Future of Life Institute, die liever zien dat er een andere, tweede richting wordt ingeslagen: de adaptieve piste. Geen hard ingeprogrammeerde regels, maar een systeem dat zelf leert wat goed en slecht is uit het gedrag van zijn gebruikers. Geen gehoorzaamheid, wel wijsheid.

De vraag is daarbij natuurlijk: van welke gebruikers krijgen de systemen die wijsheid mee? Als ze die betrekken van het onlinegedrag van de wereldbevolking, kunnen er vuige gedragingen als racisme in dat morele besef sluipen. Maar er bestaan manieren om artificieel intelligente systemen op te leren tot wezens die van wijsheid doordrenkt zijn, denken een aantal observatoren. Een daarvan, de Amerikaanse boeddhistische monnik Soryu Forall, denkt dat we daarvoor niet verder hoeven te kijken dan Siddhartha Gautama Boeddha, op wiens leer het boeddhisme is gebaseerd. ‘We moeten een AI bouwen die een spiritueel pad volgt’, zei hij tegen het Amerikaanse magazine The Atlantic. ‘Een die andere AI-systemen ervan overtuigt om ons geen kwaad te doen. We hebben een AI-goeroe nodig. Een AI-god.’

AI met persoonlijkheid

Op twee specifieke manieren probeert Forall dat idee al enige tijd in realiteit om te zetten. De eerste is door spiritueel advies te leveren aan AI-denkers: mensen van OpenAI, Google DeepMind en Apple zijn al op retraite geweest in zijn klooster in de Amerikaanse staat Vermont, en Tom Gruber, een van de bedenkers van Apples Siri-AI, is een grote fan van hem. Maar Foralls Monastic Academy for the Preservation of Life on Earth (MAPLE) probeert ook zelf principes van het Zen-boeddhisme om te zetten naar leidraden voor AI-wetenschappers, daarbij geholpen door de schrijfsels van historicus Yuval Noah Harari en futuristen Zak Stein en Tristan Harris.

Misschien, opperde scifischrijver David Brin pas in Wired, leidt zo’n pad van verlichting uiteindelijk wel tot AI-systemen die niet alleen een besef krijgen van het verschil tussen computersystemen en van ‘ons’, maar ook iets wat breder gaat dan alleen maar een moreel bewustzijn: misschien, schreef hij, moeten ze ook een individueel bewustzijn krijgen, een besef van zichzelf, zodat ze – ook al krijgen ze mettertijd een IQ dat hoger is dan onze knapste koppen – nààst ons kunnen staan. Een, welja, ziel.

Fout opgemerkt of meer nieuws? Meld het hier

Partner Content