Bram Vanderborght

Technologie is niet neutraal, en dat geldt evenmin voor robots en AI

Bram Vanderborght Professor robotics aan de VUB.

In de ICT-wereld is er door een ‘war for talent’ vaak een rijke diversiteit aan nationaliteiten. Dikwijls wordt Engels als voertaal gehanteerd, maar toch hebben we nog maar weinig zwarte robotici en programmeurs. ‘Het is tijd voor zelfreflectie, we moeten erkennen dat onze gemeenschap het veel beter kan doen als het gaat om inclusiviteit‘ vindt prof. dr. ir. Bram Vanderborght.

Door de dood van de zwarte Amerikaan George Floyd en andere tragische gebeurtenissen, en door de toenemende erkenning van structureel racisme en ongelijkheden, ontvouwt zich momenteel een reeks gebeurtenissen in de wereld. Twee belangrijke aspecten die we moeten overwegen, zijn hoe technologie de samenleving beïnvloedt en wie participeert in de ontwikkeling ervan. Bovendien zijn er veel gemeenschappen die buiten de technologische vooruitgang blijven en er zelfs schade door kunnen lijden.

Ingenieurs en computerwetenschappers hebben vaak te maken met morele keuzes. Technologie en ethiek zijn geen aparte domeinen, zoals ook betoogd door professor computerethiek Katleen Gabriels van de Universiteit Maastricht. Technologie is niet neutraal, en dat geldt ook voor robots en AI.

Bekend voorbeeld is Werner Von Braun, een zogenaamde separatist die de ontwikkeling van rakettechnologie in nazi-Duitsland leidde. Von Braun hield geen rekening met de ethische en sociale implicaties van zijn werk. Soms worden onethische ontwerpkeuzes bewust gemaakt. De bruggen die Robert Moses in New York ontwierp, waren bijvoorbeeld laag gebouwd omdat, zo werd gezegd, de ontwerper niet wilde dat er bussen onderdoor reden die Afro-Amerikanen en Latino’s van New York City naar Jones Beach en andere parken op Long Island konden brengen.

Andere voorbeelden van morele dimensies in technologie zijn soms toevallig, maar hebben nog steeds een huiveringwekkend effect op diversiteit en inclusie. Bekend zijn de racistische zeepdispensers die niet werken voor mensen met een donkere huidskleur. Je kan het systeem omzeilen door er een wit servet onder te houden. De ontwerpers hadden niet voorzien om de technologie te testen met een brede groep eindgebruikers? Dat is niet alleen een technische fout, maar ook een ethische fout. Dergelijke fouten kunnen worden vermeden met een divers team van ontwerpers en evaluatoren.

Hoe veranderen we?

Ten eerste moeten we rekening houden met ethiek in ons werk. Grote technologiebedrijven hebben nu publiekelijk afstand genomen van de gezichtsherkenningstools die door de politie worden gebruikt, omdat is gebleken dat deze tools mensen van kleur, vooral vrouwen, in hogere mate verkeerd identificeren. Sommigen vragen om wetten, anderen om op de pauzeknop te drukken totdat de raciale vooroordelen en andere ongelijkheden zijn verwijderd uit de code, terwijl anderen het zelfs helemaal willen verbieden.

Een andere behoefte is het schrappen van termen als meester en slaaf (master/slave) uit onze code, documentatie en literatuur. We moeten toezien om het gebruik ervan te voorkomen, gezien hun triggerende aard en het gebrek aan noodzaak voor het gebruik ervan. Alternatieve terminologie, voorgesteld door Github, is bijvoorbeeld primary/replica, anderen opteren voor leader/follower. Twitter kondigde ook aan dat het woorden als blacklist, grandfathered en manuren zal veranderen.

De ethische reflex moet een vanzelfsprekend en integraal onderdeel worden van ontwerpen en programmeren

Veel onderzoekers erkennen de sociale aspecten, inclusief opzettelijke of onbedoelde toewijzing van ras en geslacht. Heel wat robots, ook in films, zijn bijvoorbeeld wit. De geschiedenis van de slavernij en de historische associaties tussen robots en slaven betekenen dat racialiseren van robots een ethische uitdaging is. Behalve voor geneeskundestudenten is er momenteel te weinig aandacht voor ethiek als verplicht vak. De maatschappelijke vraag is echter groot. Bewustwording en kennis van (techniek-)ethiek dienen systematisch plaats te vinden tijdens het onderwijs. Ingenieurs, computerwetenschappers en andere toekomstige ontwikkelaars kunnen geleidelijk de ethische vragen onder de knie krijgen en technieken leren om antwoorden te geven. Op deze manier wordt de ethische reflex vanzelfsprekend en een integraal onderdeel van ontwerpen en programmeren.

Ten tweede moeten we de diversiteit en inclusie in ons vakgebied verbeteren. Dit betekent dat mensen uit ondervertegenwoordigde groepen actief worden aangemoedigd om mee aan robotica en AI te werken – van jonge kinderen tot (doctoraats)studenten die een carrière in de industrie en onderzoek overwegen. We moeten omgevingen creëren in onze scholen, onze onderzoekslaboratoria, onze bedrijven en onze events die uitnodigend zijn, niet intimiderend.

Sommige inspanningen, zoals toelating tot doctoraten, zijn institutioneel van aard en vereisen bijzonder zelfbewuste en gepassioneerde leiders om verandering teweeg te brengen. Andere inspanningen zijn persoonlijker; we horen keer op keer verhalen over hoe individuele mentoren een groot verschil hebben gemaakt bij het aanmoedigen van een persoon uit een ondervertegenwoordigde groep. Zo kunnen we allemaal een rol spelen om ons vakgebied aantrekkelijk te maken voor een diverse bevolking.

Daarnaast moeten we ons ervan bewust zijn dat minderheidsgroepen soms veilige ruimtes nodig hebben, dit zijn virtuele of fysieke plaatsen en evenementen om samen te komen met ondersteunende collega’s. Denk daarbij aan Belgian Woman in Science of organisaties, zoals Black in AI, die de specifieke uitdagingen van zwarte mensen aanpakken. We moeten dus kansen creëren om de diversiteit te verbeteren. We moeten dit niet alleen doen omdat het juist is, maar ook omdat het onze technologie beter zal maken voor de samenleving.

Een aangepaste versie van dit opiniestuk verscheen in IEEE Robotics & Automation Magazine, mede geschreven door roboticaprofessor Allison Okamura van Stanford University. Hierin steunen de auteurs de protesten en veroordelen elke vorm van geweld, etnisch profileren en racisme.

Fout opgemerkt of meer nieuws? Meld het hier

Partner Content