Wanneer wordt gekeken naar de ethische problemen met slimme technologie focust men doorgaans op de problemen die gepaard gaan met het gebruik: privacy, bias, veiligheid, enzovoort. Maar er zijn ook problemen die samenhangen met het maken en ontwikkelen van AI-systemen. Omdat die vaak onder de radar blijven, wil ik er hier even de aandacht op vestigen.

Technologie en uitbuiting

Een AI-systeem dat in staat is om katten te identificeren kan dat niet van meet af aan. Het moet daarvoor worden getraind, bijvoorbeeld door het afbeeldingen met katten voor te schotelen die zijn gelabeld met de term 'kat'. Het systeem zoekt vervolgens naar patronen in de afbeeldingen en na verloop van tijd kan het katten van niet-katten onderscheiden. Machine learning kan wel zonder menselijke tussenkomst, maar duidelijk is dat er voor dit leerproces talloze gelabelde afbeeldingen van katten nodig zijn, soms miljoenen. Het probleem is doorgaans niet dat er onvoldoende foto's zijn, het probleem is vaak dat er niet genoeg gelabeld zijn. Enter de mens.

Denk aan de website die meldt dat eerst duidelijk moet zijn dat jij geen robot maar een mens bent. Je krijgt foto's te zien en jij moet aanvinken welke bijvoorbeeld afbeeldingen van een verkeerslicht zijn. Je krijgt toegang tot de site, maar intussen heb je ook materiaal gemaakt dat nuttig is voor de training van het algoritme. Het gros van het labelen van foto's gebeurt echter door mensen die daarvoor worden betaald. Het gaat wereldwijd om duizenden mensen, vooral in de Verenigde Staten en India. Mensen als Kala bijvoorbeeld die met haar zonen in een appartement in Bangalore in India leeft en van daaruit enkele uren per dag op haar computer foto's van huizen labelt. Of iemand als Justin in Houston, een student management die het volgen van lessen en schrijven van papers afwisselt met het eindeloos klikken op een muis waardoor bedrijven voldoende afbeeldingen hebben om hun AI-systemen te laten functioneren. Hoewel beiden tot dezelfde industrie behoren, hebben ze weinig gemeen met de smoothies drinkende en vegan etende technofielen op de zogenaamd progressieve techcampussen in Californië.

Het werk van Kala en Justin is een voorbeeld van wat ik 'schaduwwerk' noem, of ghost work, naar de titel van het boek van Mary L. Gray en Siddharth Suri. Het is arbeid die in dubbele zin in de schaduw staat: je ziet de arbeid niet, bijvoorbeeld omdat het in kleine appartementen aan de rand van grote steden wordt verricht, en er wordt nauwelijks aandacht aan besteed, onder meer omdat het beloftevolle AI-systeem zelf in de eerste plaats in de schijnwerpers wordt gezet. En toch is het werk van Kala en Justin, net zoals het schaduwwerk van huismannen en -vrouwen, onmisbaar: geen algoritme zonder training, geen leerproces zonder foto's, en geen gelabelde foto's zonder schaduwwerk. In dat opzicht lijkt het schaduwwerk waarover het hier gaat niet op de schaduw van je huis op een zomerse zondagmiddag. Terwijl die laatste een weerspiegeling is van iets dat ook zonder de schaduw kan bestaan (het huis), kunnen de algoritmen, en dus ook de techindustrie, niet bestaan zonder het schaduwwerk van Kala en Justin.

Door in te gaan op schaduwwerk breng ik de mens achter de robot onder de aandacht, en dan vooral de repetitieve arbeid die moet worden verricht opdat die robot kan functioneren. Schaduwwerk is het werk van de robot achter de robot. Maar dat is niet het grootste probleem, of op z'n minst niet het enige probleem. Kala en Justin zijn deel van de gig economy, waartoe ook de chauffeurs van Uber en de fietsers van Deliveroo behoren. Dat betekent dat zij werken op basis van korte, tijdelijke meestal geen voltijdse contracten zonder titel of kans op promotie. Wie daarop antwoordt dat dat hoogstens onaangenaam maar niet moreel problematisch is, moet wel het volgende in gedachten houden. Wie vandaag de dag ghost work verricht, bouwt weinig of geen pensioen op, heeft wellicht geen ziekteverzekering, heeft meestal geen recht op vakantiedagen, heeft doorgaans geen ongevallenuitkering, ontvangt nauwelijks meer dan het minimumloon, en profiteert tot slot waarschijnlijk nooit van de winsten die het platform, Amazon Mechanical Turk bijvoorbeeld, door jouw toedoen opstrijkt. Er is dus ook op dit vlak nog veel werk aan de winkel, al moet ik er wel aan toevoegen dat bijvoorbeeld in Europa stappen in de goede richting worden gezet.

De techindustrie heeft dus naast een glanszijde ook een donkere zijde. AI-systemen bestendigen en creëren niet alleen onrecht, maar vloeien ook voort uit onrecht. Onwenselijke toestanden kunnen het effect van AI zijn en ook aan de basis van AI liggen. Sommigen hebben er wellicht alle belang bij, alle economische belang, dat dat onzichtbaar blijft. Het werk is verborgen, waarschijnlijk omdat het verborgen moet blijven. Dat alleen al is een reden om licht te werpen, en bij voorkeur veel licht, op de schaduwarbeid verricht in de donkere kamers van Bangalore en Houston.

It's the ecology, stupid!

Naast uitbuiting is er nog een ander probleem met AI waaraan weinig aandacht wordt geschonken. Dat heeft alles te maken met het milieu.

Milieu is vandaag een van de belangrijkste thema's, zo niet het belangrijkste. Volgens sommigen plaatst het AI dan ook in de schaduw, hoezeer die technologie ook wordt gehypet. Dat is voor een deel terecht. Hoe nuttig een slimme tandenborstel ook is, hoe interessant het speculeren over superintelligente wezens die de mensheid overnemen ook is, die zaken zijn vrij banaal vergeleken met de milieuschade veroorzaakt door de uitstoot van broeikasgassen door de producten van de industriële revolutie: auto's, vliegtuigen, fabrieken. Niettemin miskent de bewering dat AI minder relevant is in vergelijking met de milieuthematiek de nauwe band tussen AI en milieu. Slimme systemen kunnen zowel milieuschade voorkomen als bestaande milieuproblemen vergroten. Ik verklaar me nader.

Het lijdt geen twijfel dat tal van niet-intelligente technologieën goede effecten hebben op het milieu. Ik denk dan in de eerste plaats aan zonnepanelen en elektrische auto's. Hetzelfde kan echter ook worden gezegd van AI-systemen. Neem het project Green Horizons, dat in 2014 werd opgestart door de stad Beijing in samenwerking met het bedrijf IBM. Met behulp van onder meer verkeerscamera's, sociale media, weerstations en draagbare sensoren worden gegevens verzameld over de verspreiding van fijn stof, de meest gevaarlijke vorm van luchtvervuiling. Op deze data worden AI-systemen losgelaten. Die systemen analyseren de ontvangen informatie en voorspellen waar en wanneer vervuiling zal optreden. Zulke voorspellingen kunnen over tien dagen in de toekomst gaan, waardoor de overheid gericht kan ingrijpen en zo de luchtkwaliteit kan verbeteren. De impact? De hoeveelheid fijn stof nam in enkele jaren tijd met 20 procent af, een erg goed resultaat, zeker als je weet dat in China jaarlijks duizenden mensen sterven ten gevolge van luchtvervuiling.

De keerzijde is evenwel dat AI schadelijk is voor het milieu. De cloud hangt niet in de lucht, maar zit in materialen, resideert in machines. Het vereist computers om grote hoeveelheden gegevens op te slaan en snel berekeningen te maken, computers die zich overigens voornamelijk in datacenters in de Verenigde Staten, China en Europa bevinden en vooral door techgiganten als Amazon worden beheerd. Dat is misschien op zich geen probleem, ware het niet dat voor het maken van computers onder meer tin en zilver nodig zijn, en dat de productie van computers nogal wat van beide vereist. Ongeveer 36 procent van de wereldwijd beschikbare hoeveelheid tin gaat naar het maken van elektronica, voor zilver bedraagt het min of meer 15 procent.

Bovendien vergt het gebruik van die machines energie, bijzonder veel energie, ook omdat datacenters wegens de warmte van de computers zijn uitgerust met een energieslurper als airconditioning. Om een idee te geven: naar schatting 5 tot 9 procent van alle energieconsumptie zou bestemd zijn voor informatietechnologie, waaronder ook AI; het trainen van een groot AI-systeem verbruikt ongeveer 2.8 gigawattuur elektriciteit, wat overeenkomt met het elektriciteitsverbruik van drie kerncentrales in een uur. Volgens onderzoekers uit Zweden zal er vanuit de AI-wereld tegen ongeveer 2030 vijftien keer meer vraag naar elektriciteit zijn. Een daaraan gerelateerd probleem is dat AI gepaard gaat met een grote uitstoot van broeikasgassen. Twee procent van de wereldwijde C02-emissie zou momenteel te wijten zijn aan informatietechnologie en AI. Alleen al het trainen van een populair algoritme is verantwoordelijk voor de uitstoot van meer dan 200.000 kilogram CO2. Ter vergelijking: een gemiddelde Europese vlucht stoot per persoon ongeveer 500 kilogram koolstofdioxide uit in de atmosfeer. Onderzoekers Lotfi Belkhir en Ahmed Elmeligi vermoeden dat rond 2040 naar schatting 14 procent van de wereldwijde uitstoot van C02 afkomstig zal zijn van slimme technologie. Dat ondersteunt niet alleen de bewering dat AI moreel problematisch is, het is bovendien een reden om het ook over AI te hebben wanneer over het milieu wordt gedebatteerd, en niet enkel over vlees eten, wasbare luiers, vliegreizen en autorijden.

Dit hoeft uiteraard geen uitvoerig betoog: het milieuprobleem is ouder dan AI, ook niet-slimme technologieën hebben onwenselijke effecten op het milieu. Denk aan de industrialisering van de samenleving, en dan vooral de tweede industriële revolutie sinds het midden van de negentiende eeuw, met de introductie van industrie. Vanaf die periode, en sterker nog sinds het midden van de vorige eeuw, neemt het milieuprobleem een hoge vlucht, onder meer door de verbranding van fossiele brandstoffen en ontbossing, en begint de mondiale temperatuur te stijgen. De gevolgen zijn bekend: droogte, smeltende ijskappen, extreme weersomstandigheden, de stijgende zeespiegel, enzovoort. De toename van het aantal C02-deeltjes dateert met andere woorden niet uit het tweede decennium van de eenentwintigste eeuw. Die toename is ouder dan de periode waarin machine learning op de markt verschijnt. Ze was er al in die periode in de geschiedenis waarin fabrieken werden gebouwd en spoorwegen aangelegd, toen er nog geen sprake was van smart cities en zelfrijdende wagens.

Tegelijk wil ik wel nog het volgende onderstrepen. Dat het ecologische probleem niet is ontstaan door AI relativeert niet de impact van AI op het milieu; het vermindert niet de noodzaak om over AI in ecologische zin na te denken, wel integendeel. Een ethische blik op AI moet ook een duurzame blik zijn. Vandaar dat het ook beter zou zijn om niet te spreken over Human-Centered AI, nog een andere uitdrukking die vandaag wordt gebruikt in de context van een ethische reflectie op AI. Die benaming suggereert immers dat AI-ethiek uitsluitend gaat over de rechtstreekse effecten van slimme technologie op mensen - denk aan bias en privacy -, terwijl duidelijk is dat ook het milieu de aandacht van de ethiek verdient. We moeten onze morele bezorgdheid in het kader van AI ook richten op zaken die geen mensen zijn - het milieu -, wat uiteraard niet wegneemt dat je kunt argumenteren dat die betrokkenheid op het milieu uiteindelijk enkel relevant is voor zover die met het leven van mensen te maken heeft. Kortom, het is aangewezen te streven naar een brede opvatting van Ethical AI, dat wil zeggen: naar Sustainable AI.

Wij, robots. Een filosofische blik op technologie en artificiële intelligentie

Lode Lauwaert

LannooCampus

ISBN978-94-0147-054-4

Paperback, 305 pagina's

29,99 euro

Nu verkrijgbaar in de boekhandel

LL
© LL

Wanneer wordt gekeken naar de ethische problemen met slimme technologie focust men doorgaans op de problemen die gepaard gaan met het gebruik: privacy, bias, veiligheid, enzovoort. Maar er zijn ook problemen die samenhangen met het maken en ontwikkelen van AI-systemen. Omdat die vaak onder de radar blijven, wil ik er hier even de aandacht op vestigen.Een AI-systeem dat in staat is om katten te identificeren kan dat niet van meet af aan. Het moet daarvoor worden getraind, bijvoorbeeld door het afbeeldingen met katten voor te schotelen die zijn gelabeld met de term 'kat'. Het systeem zoekt vervolgens naar patronen in de afbeeldingen en na verloop van tijd kan het katten van niet-katten onderscheiden. Machine learning kan wel zonder menselijke tussenkomst, maar duidelijk is dat er voor dit leerproces talloze gelabelde afbeeldingen van katten nodig zijn, soms miljoenen. Het probleem is doorgaans niet dat er onvoldoende foto's zijn, het probleem is vaak dat er niet genoeg gelabeld zijn. Enter de mens.Denk aan de website die meldt dat eerst duidelijk moet zijn dat jij geen robot maar een mens bent. Je krijgt foto's te zien en jij moet aanvinken welke bijvoorbeeld afbeeldingen van een verkeerslicht zijn. Je krijgt toegang tot de site, maar intussen heb je ook materiaal gemaakt dat nuttig is voor de training van het algoritme. Het gros van het labelen van foto's gebeurt echter door mensen die daarvoor worden betaald. Het gaat wereldwijd om duizenden mensen, vooral in de Verenigde Staten en India. Mensen als Kala bijvoorbeeld die met haar zonen in een appartement in Bangalore in India leeft en van daaruit enkele uren per dag op haar computer foto's van huizen labelt. Of iemand als Justin in Houston, een student management die het volgen van lessen en schrijven van papers afwisselt met het eindeloos klikken op een muis waardoor bedrijven voldoende afbeeldingen hebben om hun AI-systemen te laten functioneren. Hoewel beiden tot dezelfde industrie behoren, hebben ze weinig gemeen met de smoothies drinkende en vegan etende technofielen op de zogenaamd progressieve techcampussen in Californië.Het werk van Kala en Justin is een voorbeeld van wat ik 'schaduwwerk' noem, of ghost work, naar de titel van het boek van Mary L. Gray en Siddharth Suri. Het is arbeid die in dubbele zin in de schaduw staat: je ziet de arbeid niet, bijvoorbeeld omdat het in kleine appartementen aan de rand van grote steden wordt verricht, en er wordt nauwelijks aandacht aan besteed, onder meer omdat het beloftevolle AI-systeem zelf in de eerste plaats in de schijnwerpers wordt gezet. En toch is het werk van Kala en Justin, net zoals het schaduwwerk van huismannen en -vrouwen, onmisbaar: geen algoritme zonder training, geen leerproces zonder foto's, en geen gelabelde foto's zonder schaduwwerk. In dat opzicht lijkt het schaduwwerk waarover het hier gaat niet op de schaduw van je huis op een zomerse zondagmiddag. Terwijl die laatste een weerspiegeling is van iets dat ook zonder de schaduw kan bestaan (het huis), kunnen de algoritmen, en dus ook de techindustrie, niet bestaan zonder het schaduwwerk van Kala en Justin.Door in te gaan op schaduwwerk breng ik de mens achter de robot onder de aandacht, en dan vooral de repetitieve arbeid die moet worden verricht opdat die robot kan functioneren. Schaduwwerk is het werk van de robot achter de robot. Maar dat is niet het grootste probleem, of op z'n minst niet het enige probleem. Kala en Justin zijn deel van de gig economy, waartoe ook de chauffeurs van Uber en de fietsers van Deliveroo behoren. Dat betekent dat zij werken op basis van korte, tijdelijke meestal geen voltijdse contracten zonder titel of kans op promotie. Wie daarop antwoordt dat dat hoogstens onaangenaam maar niet moreel problematisch is, moet wel het volgende in gedachten houden. Wie vandaag de dag ghost work verricht, bouwt weinig of geen pensioen op, heeft wellicht geen ziekteverzekering, heeft meestal geen recht op vakantiedagen, heeft doorgaans geen ongevallenuitkering, ontvangt nauwelijks meer dan het minimumloon, en profiteert tot slot waarschijnlijk nooit van de winsten die het platform, Amazon Mechanical Turk bijvoorbeeld, door jouw toedoen opstrijkt. Er is dus ook op dit vlak nog veel werk aan de winkel, al moet ik er wel aan toevoegen dat bijvoorbeeld in Europa stappen in de goede richting worden gezet.De techindustrie heeft dus naast een glanszijde ook een donkere zijde. AI-systemen bestendigen en creëren niet alleen onrecht, maar vloeien ook voort uit onrecht. Onwenselijke toestanden kunnen het effect van AI zijn en ook aan de basis van AI liggen. Sommigen hebben er wellicht alle belang bij, alle economische belang, dat dat onzichtbaar blijft. Het werk is verborgen, waarschijnlijk omdat het verborgen moet blijven. Dat alleen al is een reden om licht te werpen, en bij voorkeur veel licht, op de schaduwarbeid verricht in de donkere kamers van Bangalore en Houston.Naast uitbuiting is er nog een ander probleem met AI waaraan weinig aandacht wordt geschonken. Dat heeft alles te maken met het milieu. Milieu is vandaag een van de belangrijkste thema's, zo niet het belangrijkste. Volgens sommigen plaatst het AI dan ook in de schaduw, hoezeer die technologie ook wordt gehypet. Dat is voor een deel terecht. Hoe nuttig een slimme tandenborstel ook is, hoe interessant het speculeren over superintelligente wezens die de mensheid overnemen ook is, die zaken zijn vrij banaal vergeleken met de milieuschade veroorzaakt door de uitstoot van broeikasgassen door de producten van de industriële revolutie: auto's, vliegtuigen, fabrieken. Niettemin miskent de bewering dat AI minder relevant is in vergelijking met de milieuthematiek de nauwe band tussen AI en milieu. Slimme systemen kunnen zowel milieuschade voorkomen als bestaande milieuproblemen vergroten. Ik verklaar me nader.Het lijdt geen twijfel dat tal van niet-intelligente technologieën goede effecten hebben op het milieu. Ik denk dan in de eerste plaats aan zonnepanelen en elektrische auto's. Hetzelfde kan echter ook worden gezegd van AI-systemen. Neem het project Green Horizons, dat in 2014 werd opgestart door de stad Beijing in samenwerking met het bedrijf IBM. Met behulp van onder meer verkeerscamera's, sociale media, weerstations en draagbare sensoren worden gegevens verzameld over de verspreiding van fijn stof, de meest gevaarlijke vorm van luchtvervuiling. Op deze data worden AI-systemen losgelaten. Die systemen analyseren de ontvangen informatie en voorspellen waar en wanneer vervuiling zal optreden. Zulke voorspellingen kunnen over tien dagen in de toekomst gaan, waardoor de overheid gericht kan ingrijpen en zo de luchtkwaliteit kan verbeteren. De impact? De hoeveelheid fijn stof nam in enkele jaren tijd met 20 procent af, een erg goed resultaat, zeker als je weet dat in China jaarlijks duizenden mensen sterven ten gevolge van luchtvervuiling. De keerzijde is evenwel dat AI schadelijk is voor het milieu. De cloud hangt niet in de lucht, maar zit in materialen, resideert in machines. Het vereist computers om grote hoeveelheden gegevens op te slaan en snel berekeningen te maken, computers die zich overigens voornamelijk in datacenters in de Verenigde Staten, China en Europa bevinden en vooral door techgiganten als Amazon worden beheerd. Dat is misschien op zich geen probleem, ware het niet dat voor het maken van computers onder meer tin en zilver nodig zijn, en dat de productie van computers nogal wat van beide vereist. Ongeveer 36 procent van de wereldwijd beschikbare hoeveelheid tin gaat naar het maken van elektronica, voor zilver bedraagt het min of meer 15 procent.Bovendien vergt het gebruik van die machines energie, bijzonder veel energie, ook omdat datacenters wegens de warmte van de computers zijn uitgerust met een energieslurper als airconditioning. Om een idee te geven: naar schatting 5 tot 9 procent van alle energieconsumptie zou bestemd zijn voor informatietechnologie, waaronder ook AI; het trainen van een groot AI-systeem verbruikt ongeveer 2.8 gigawattuur elektriciteit, wat overeenkomt met het elektriciteitsverbruik van drie kerncentrales in een uur. Volgens onderzoekers uit Zweden zal er vanuit de AI-wereld tegen ongeveer 2030 vijftien keer meer vraag naar elektriciteit zijn. Een daaraan gerelateerd probleem is dat AI gepaard gaat met een grote uitstoot van broeikasgassen. Twee procent van de wereldwijde C02-emissie zou momenteel te wijten zijn aan informatietechnologie en AI. Alleen al het trainen van een populair algoritme is verantwoordelijk voor de uitstoot van meer dan 200.000 kilogram CO2. Ter vergelijking: een gemiddelde Europese vlucht stoot per persoon ongeveer 500 kilogram koolstofdioxide uit in de atmosfeer. Onderzoekers Lotfi Belkhir en Ahmed Elmeligi vermoeden dat rond 2040 naar schatting 14 procent van de wereldwijde uitstoot van C02 afkomstig zal zijn van slimme technologie. Dat ondersteunt niet alleen de bewering dat AI moreel problematisch is, het is bovendien een reden om het ook over AI te hebben wanneer over het milieu wordt gedebatteerd, en niet enkel over vlees eten, wasbare luiers, vliegreizen en autorijden. Dit hoeft uiteraard geen uitvoerig betoog: het milieuprobleem is ouder dan AI, ook niet-slimme technologieën hebben onwenselijke effecten op het milieu. Denk aan de industrialisering van de samenleving, en dan vooral de tweede industriële revolutie sinds het midden van de negentiende eeuw, met de introductie van industrie. Vanaf die periode, en sterker nog sinds het midden van de vorige eeuw, neemt het milieuprobleem een hoge vlucht, onder meer door de verbranding van fossiele brandstoffen en ontbossing, en begint de mondiale temperatuur te stijgen. De gevolgen zijn bekend: droogte, smeltende ijskappen, extreme weersomstandigheden, de stijgende zeespiegel, enzovoort. De toename van het aantal C02-deeltjes dateert met andere woorden niet uit het tweede decennium van de eenentwintigste eeuw. Die toename is ouder dan de periode waarin machine learning op de markt verschijnt. Ze was er al in die periode in de geschiedenis waarin fabrieken werden gebouwd en spoorwegen aangelegd, toen er nog geen sprake was van smart cities en zelfrijdende wagens. Tegelijk wil ik wel nog het volgende onderstrepen. Dat het ecologische probleem niet is ontstaan door AI relativeert niet de impact van AI op het milieu; het vermindert niet de noodzaak om over AI in ecologische zin na te denken, wel integendeel. Een ethische blik op AI moet ook een duurzame blik zijn. Vandaar dat het ook beter zou zijn om niet te spreken over Human-Centered AI, nog een andere uitdrukking die vandaag wordt gebruikt in de context van een ethische reflectie op AI. Die benaming suggereert immers dat AI-ethiek uitsluitend gaat over de rechtstreekse effecten van slimme technologie op mensen - denk aan bias en privacy -, terwijl duidelijk is dat ook het milieu de aandacht van de ethiek verdient. We moeten onze morele bezorgdheid in het kader van AI ook richten op zaken die geen mensen zijn - het milieu -, wat uiteraard niet wegneemt dat je kunt argumenteren dat die betrokkenheid op het milieu uiteindelijk enkel relevant is voor zover die met het leven van mensen te maken heeft. Kortom, het is aangewezen te streven naar een brede opvatting van Ethical AI, dat wil zeggen: naar Sustainable AI.