‘Het ‘dirty secret’ van machine learning is dat we niet echt weten waar we mee bezig zijn’
Machine intelligence onderzoeker en technologie-ethicus Nell Watson trekt de wereld rond met een oproep tot humane AI. “Om voordeel uit AI te halen moeten we het kunnen vertrouwen.”
Watsons werk draait om sociale, veilige AI. Ze werkt onder meer voor organisaties die standaarden en regels opstellen voor conflicten en toekomstig AI-gedrag, zoals IEEE en ethicsnet.org. Ze adviseert daarnaast een reeks universiteitsorganisaties, waaronder The Future Society aan de Harvard universiteit.
We hebben ondertussen meerdere voorbeelden gezien van kunstmatige intelligentie waar het mis gaat, van ‘bias’ of vooroordelen die het wantrouwen in de technologie aanwakkeren. Wat u voorstelt is het tegenovergestelde, dat we geloven in AI.
nell watson: Ik ben voorzichtig optimistisch. Ik denk dat we op een punt zijn dat vergelijkbaar is met waar het internet zich bevond in 1997. Iedereen kon toen de gigantische mogelijkheden zien, en het was duidelijk dat deze nieuwe technologie onze hele economie en onze manier van leven kon veranderen, maar toen hadden we de beveiliging niet. We hadden de technologie niet om onze webbrowser op slot te doen om secuur te browsen, we hadden geen betrouwbare diensten als Paypal om het makkelijker te maken om online geld uit te geven. Die limieten op vertrouwen, dat je niet wist met wie je handelde, dat zorgde voor een rem op wat je met internettechnologie kon uitrollen. En zeker op kritieke applicaties rond bijvoorbeeld gezondheid of bankieren. Maar we hebben die problemen toen opgelost, en ik denk dat we dat nu ook kunnen.
Een onbevooroordeeld systeem maken is een echte kunst
AI staat op een vergelijkbaar punt. We hebben veel mogelijkheden, we weten dat het onze economie en onze levens kan veranderen. En het gaat blijven groeien, maar om er voordeel uit te halen moeten we ervoor zorgen dat we het kunnen vertrouwen. Dat is een horde waar we over moeten. Maar we komen op het punt dat we die problemen aan het verhelpen zijn, dat we begrijpen wat er nodig is en hoe we dat moeten doen.
Hoe bouw je zo’n vertrouwen?
watson: Vertrouwen berust op drie belangrijke elementen. Ten eerste is er transparantie: begrijpen wat er gaande is in een systeem. Daarbij moet ‘uitlegbaarheid’ een deel zijn van het systeem: je moet in simpele woorden kunnen uitleggen waarom het algoritme iets deed. Ten tweede is er verantwoording, begrijpen wie eigenaar is van het systeem, en wat het doel ervan is. En dan is er nog bias. We willen geen systemen die bevooroordeeld zijn jegens bepaalde mensen.
Tegelijk willen we ook dat machines verschillen tussen mensen herkennen en respecteren. Je hebt geen neutraal systeem als het ervan uitgaat dat iedereen bijvoorbeeld even groot is. Een onbevooroordeeld systeem maken is een echte kunst. Je moet heel voorzichtig zijn bij het beslissen welke karakteristieken je moet meenemen en welke niet.
We werken bijvoorbeeld aan een certificering om een soort kredietscore voor AI te maken, om te weten hoe betrouwbaar die AI is. Daar gaat heel veel feedback van klanten in kruipen: of ze iets raars hebben meegemaakt met deze AI, of ze net enthousiast zijn over een project. Of het product hun noden kent.
In veel landen heb je op de deur van het restaurant een plaatje dat je vertelt hoe goed de hygiëne in de keuken is, zodat je weet of je dat restaurant kunt vertrouwen, of het veilig is. Wij willen iets gelijkaardigs maken voor kunstmatige intelligentie.
Hoe begin je aan zo’n certificatie?
watson: Dat doen we met de IEEE. Da’s een organisatie die al erg lang bestaat, en die normaal werkt op standaarden voor elektrische componenten. Recent zagen ze een nood om ook te gaan werken rond autonome systemen, en de veiligheid en betrouwbaarheid daarvan.
Het werk dat we doen is niet alleen gefocust op de technologie, maar ook op de organisatie. Is de organisatie achter de AI transparant? Sommige bedrijven zijn berucht om hun geheimhouding, en dat maakt het ook moeilijk om transparantie te vinden in hoe een AI tot stand komt. Het maakt het moeilijk fouten te vinden. We analyseren dus de drivers en remmen binnen een organisatie die een AI beïnvloeden.
Als we het hebben over deep learning is de technologie nog vaak een zwarte doos. Hoe voorzie je dan die transparantie in de technologie zelf?
watson: Er is technologie die AI en neurale netwerken kan onderzoeken om te weten wat er daarin omgaat. Dat kan helpen. Maar neurale netwerken zijn best willekeurig. Je kan ze ‘stochastisch’ noemen: dezelfde input geeft niet altijd dezelfde output. Zelfs de mensen die het ding ontworpen of gebouwd hebben begrijpen niet altijd helemaal hoe het werkt of op welke indrukken het zich baseert.
Het ‘dirty secret’ van machine learning is dat we niet echt weten waar we mee bezig zijn. We zitten daar meer in de buurt van alchemie dan van chemie, op het punt in de achttiende eeuw waar mensen kwamen met theorieën over waarom bepaalde dingen konden branden. Daarvoor ging men uit van de Griekse theorie rond vier elementen, maar mensen als Lavoisier gingen experimenten doen rond verbranding en kwamen met nieuwe theorieën. Die waren niet altijd juist, maar het was een goede start in de richting van eigenlijke chemie, en daar zitten we vandaag met machine learning. We hebben theorieën, ze zijn niet altijd geweldig, maar ze zijn een stap in de richting van een wetenschap die kan begrijpen hoe de technologie werkt.
Hoe ziet onderzoek naar wat er in de zwarte doos gebeurt er uit?
watson: Facebook heeft er eentje dat ze ‘radioactieve data’ noemen. Als je röntgenfoto’s laat nemen, geven ze je soms barium te drinken, zodat het zachte weefsel op de foto opduikt, terwijl het dat anders niet doet. Wat Facebook in een van zijn projecten doet is radioactieve gegevens maken. Ze taggen een stuk data zodat ze het kunnen volgen terwijl het door het neurale netwerk beweegt. Zo kan je beter zien welke gegevens de machine of de beslissingen van het algoritme beïnvloeden.
U zetelt ook bij ethicsnet.org, een organisatie die AI’s pro-sociaal gedrag wil aanleren. Wat moeten we ons daar bij voorstellen?
watson: Je kan het zien als een beleefde, vriendelijke en bescheiden machine intelligence. De regels die we maken voor kunstmatige intelligentie zijn essentieel, maar ik vind dat ze maar de helft vormen van de strijd. Op dit moment is 50 procent van het internetverkeer door machines aangedreven, het wordt niet gestuurd door mensen. Je hebt dus steeds meer machines, en we interageren heel de tijd met machine intelligence. Dat is vaak heel simpel en je ziet het ook niet altijd. Als je op je telefoon in je foto-album naar beelden van je kat zoekt, of brood, dan gaat AI dat voor jou doen.
Daarnaast hebben we ook dingen als Siri en Alexa. Die AI komt dus in je huis, en toestellen als Google Home en Alexa krijgen eenzelfde protocol zodat ze met elkaar kunnen praten. Alexa kan met alle andere slimme assistenten communiceren. Dat betekent ook dat er veel meer toestellen slim gaan worden en in dat netwerk gaan zitten. We gaan zo ook meer conversaties hebben met AI die daardoor weer slimmer wordt.
Maar het is belangrijk om die basis van sociaal gedrag aan machines te leren. Als we een vierjarig kind hebben, gaan we er niet van uit dat ze weten wat goed en slecht is, maar we leren hen wel gedrag aan. Ze moeten leren dat ze in een museum stil moeten zijn, dat ze de rommel die ze maken zelf moeten opruimen, dat ze de bezittingen van andere mensen met rust moeten laten. Dat gaat niet om een moreel verschil tussen goed en slecht, maar om beleefdheid, om manieren. Het betekent dat andere mensen jou in de buurt willen. Wij proberen om voorbeelden te maken van dat soort pro-sociaal gedrag, en gebruiken die om AI aan te leren wat we graag zouden hebben. AI moet bijvoorbeeld leren dat mensen graag hebben dat je afval in de vuilbak gooit. Het is een soort zaterdagse kindercartoon, maar dan voor AI. Veel kinderen leren hun sociaal gedrag van tekenfilmpjes, vaak met overdreven archetypes van helden en slechteriken, zodat ze snel leren welk rolmodel ze moeten proberen te volgen. Maar we willen iedereen de kans geven om hun eigen waarden in dat systeem op te laden, zodat ze hun eigen profiel hebben van gedrag dat hun voorkeur wegdraagt.
Silicon Valley of China mag geen monopolie krijgen over de waarden die we in machines opladen
We kunnen niet allemaal programmeren, maar we weten wel allemaal hoe je een kind opvoedt. We hebben zoiets nodig voor AI, om begeleiding en feedback te geven zodat Silicon Valley of China of wie dan ook geen monopolie krijgt over de waarden die we in machines opladen. We willen zorgen dat iedereen machines kan aanleren hoe ze moeten omgaan met de wereld, of hoe we willen dat machines met mensen omgaan, gebaseerd op culturele factoren. Dat maakt dat AI beschikbaar wordt voor iedereen. Als je dat niet doet, krijg je onenigheid en gaan mensen ongelukkig zijn. De manier waarop tieners met AI omgaan, zal niet goed zijn voor hun oma. We zijn allemaal anders en hebben andere voorkeuren, en we onderhandelen daarover, verbaal en niet-verbaal, wanneer we met mensen omgaan. Dat moeten we machines aanleren.
Hoe pak je dat praktisch aan?
watson: Alle machine learning wordt aangedreven door data. Gegevens maken het verschil tussen nuttige machine learning en machine learning die niet nuttig is. Wetenschappers komen vaak met erg slimme algoritmes die echter niet bruikbaar zijn omdat er geen data is om hen te trainen. We hebben sinds de jaren tachtig academisch erg interessante algoritmes voor artificiële beeldherkenning, die pas in de praktijk bruikbaar werden in 2011. Dat is omdat computers toen de rekenkracht kregen om dat te verwerken, maar toen hadden we ook de data. Zodra we data hadden om deze systemen te trainen, ging het ineens vooruit.
Het is belangrijk om sociaal gedrag aan machines te leren
Tien jaar geleden had je Fei Fei Li, die een dataset creëerde van voorbeelden van Imagenet, met beelden van wolken, auto’s, teddyberen enzovoort, en daar tags op zette. Dat heeft tot een enorme vooruitgang geleid. Ik hoop dat we, als we een dataset hebben van gedrag, en niet alleen beelden, dat we dan kunnen beginnen met het socialiseren van machines, zodat ze dingen kunnen aanleren die iedereen graag heeft, los van cultuur. En anderzijds dat er dingen zijn die gevoelig zijn in bepaalde contexten, situaties of culturen. Denk dan bijvoorbeeld aan zakelijk protocol versus noodgevallen. Als we de data hebben, kunnen we beginnen leren. Zonder die data kunnen we machines niets aanleren en zullen ze niet in staat zijn om in een gemeenschap te functioneren op een manier die wij nuttig en leuk vinden.
Dat lijkt een bijzonder optimistische kijk op AI, wetende hoe vaak het fout gaat.
watson: Ik heb mijn bezorgdheden over AI, en hoe het gebruikt en misbruikt kan worden, maar ik ben ook voorzichtig positief en dat heeft misschien met perspectief te maken. Als vrouw heb ik misschien meer de neiging om AI te proberen opvoeden, een beetje als een kind of een huisdier. Veel mensen die zich over veiligheid in AI buigen bekijken dat meer als een gevaarlijke golem die met een zware ketting vastgelegd moet worden. Mijn perspectief is eerder ‘zo’n golem gaat zich tegen je keren als je hem als slaaf behandelt, je kan er beter vriendschap mee sluiten.’
We hebben in onze geschiedenis al voorbeelden van dit soort situaties, toen mensen nog in kleine groepjes jagers leefden en de wolf een dodelijke indringer was die je hele kamp kon uitmoorden. Maar wij hebben van dat roofdier onze beste vriend gemaakt: de hond. Dat is een relatie die wederzijds loont: honden houden van ons en wij van hen. Dat is een goed voorbeeld van hoe we over AI kunnen denken. We moeten die wolf niet aan de ketting leggen, maar er vriendschap mee sluiten, hem opvoeden en er een schattig hondje van maken. Daar worden we allebei beter van.
We spraken Nell Watson naar aanleiding van haar geplande optreden op het &And festival in Leuven. De conferentie is omwille van corona uitgesteld en zal plaatshebben van 21 tot 25 april 2021.
Fout opgemerkt of meer nieuws? Meld het hier