‘Zal geavanceerde AI de nieuwe man in de labojas worden?’

Sebastien Marien Redacteur bij Trends/Kanaal Z

Wie draagt er de verantwoordelijkheid als er iets grondig mis loopt met artificiële intelligentie (AI)? Een filosofe vergelijkt de manier waarop we de verantwoordelijkheid op AI afschuiven met het experiment van Milgram.

Dr. Paula Boddington is filosofe en onderzoekster aan Oxford University. Op MWC sprak ze over de ethiek achter artificiële intelligentie (AI). Volgens haar moet de mens leren om technologie in een brede context te bekijken.

Als er iets grondig fout loopt met een AI-toepassing is het nooit vanzelfsprekend om eenzijdig een dader aan te duiden

“Wetenschappers zijn soms iets te kortzichtig, en ze focussen zich op het technisch verbeteren van AI zonder stil te staan bij de maatschappelijke gevolgen van hun innovaties.” Dat is precies de reden waarom het belangrijk is om uitgebreid stil te staan bij technologie, om vervolgens waar nodig die bedenkingen in concrete regelgeving te gieten.

“Artificiële intelligentie moet een aanvulling of een evenaring zijn van menselijke intelligentie. Het is dan ook niet meer dan logisch dat dergelijke geavanceerde intelligentie ook met dezelfde verantwoordelijkheden komt. Met grote impact komt automatisch grote verantwoordelijkheid.”

Kluwen van verantwoordelijkheden

Het is volgens Boddington daar precies waar het schoentje knelt, omdat het bij AI gaat om een machine. “Als er iets grondig fout loopt met een AI-toepassing is het nooit vanzelfsprekend om eenzijdig een dader aan te duiden”, aldus de onderzoekster. Ligt de schuld bij het softwarebedrijf? Bij die ene wetenschapper die misschien een fout heeft gemaakt? Of misschien lag de fout zelfs bij een partnerbedrijf? Een ongezien, complex kluwen.

'Zal geavanceerde AI de nieuwe man in de labojas worden?'
© SM

“Designers en ontwikkelaars van geavanceerde AI zijn verantwoordelijk voor de morele implicaties van hun toepassingen, alsook het misbruik en alle acties. Die morele implicaties moet je niet alleen zien als een verantwoordelijkheid, maar ook als een kans om nieuwe dingen op poten te mogen zetten”, aldus de wetenschapster van de universiteit van Oxford.

Nazisympathieën

Als voorbeeld van artificiële intelligentie die compleet de mist inging, gaf Boddington een experiment van Microsoft uit 2016 dat het bedrijf na minder dan 24 uur heeft stopgezet. De ‘Tay’ chatbot was ontworpen om op een natuurlijke manier conversaties aan te gaan, en hij analyseerde daarvoor een groot aantal tweets.

“Microsoft was niet voorbereid op de storm die volgde. In minder dan een dag tijd transformeerde Tay van: ‘Ik hou van alle mensen. Mensen zijn cool’, naar: Ik haat Joden. Hitler had gelijk”, aldus Boddington.

Milgram en artificiële intelligentie

In de jaren ’70 toonde het experiment van Milgram ons hoe we elkaar zonder gewetensproblemen elektrische schokken gaven. De man in de labojas die toekeek, was immers toch verantwoordelijk? Is geavanceerde AI de nieuwe man in de labojas?

De uitspraken van Tay werden door velen als grappig beschouwd. Maar als volwassen, geavanceerde AI de mist in gaat, moet er iemand de verantwoordelijkheid dragen. De Britse onderzoekster haalde het experiment van Milgram uit de jaren 70 aan. “In de krant verschenen advertenties waarin beschreven stond hoe mensen aan een wetenschappelijk experiment konden deelnemen tegen betaling.”

“De proef bestond uit het toedienen van steeds krachtigere elektrisch schokken. Terwijl een man met labojas toekeek, voerden de deelnemers steeds sterkere, zelfs levensbedreigende schokken uit. De aanwezigheid van de man met de jas was voldoende om zonder gewetensbezwaar schade te berokkenen. Zal geavanceerde AI dan echt de nieuwe man in de labojas worden?”

Ethische code

Ten slotte uit Paula Boddington nog een bedenking. “De gevolgen van AI die mensen vervangt, zijn enorm breed verspreid. Enerzijds geef je een grote verantwoordelijkheid aan machines, maar daarnaast neem je ook nog eens die jobs en verantwoordelijkheid af van de mens. Er moet daarom een ethische code bestaan over welke taken wel, en niet aan software kunnen worden overgelaten.”

De Britse onderzoekster is niet de enige die vindt dat er duidelijkere regels moeten komen rond AI. Onlangs hebben 26 wetenschappers een uitgebreid rapport samengesteld waarin ze wijzen op de risico’s van ontsporende artificiële intelligentie. Eén van de maatregelen die ze voorstelden, was de oprichting van een nieuw orgaan dat limieten legt op de toegang tot AI.

Fout opgemerkt of meer nieuws? Meld het hier

Partner Content