"Wacht even hoor, ik zal even z'n hand anders zetten", zegt professor Pieter Abbeel, terwijl hij de mechanische klauw van robot BRETT (Berkeley Robot for the Elimination of Tedious Tasks) in zijn artificial intelligence (AI) laboratorium aan de universiteit van Berkeley aanpast.

In 2010 zorgden Abbeel en zijn team met BRETT voor een belangrijke doorbraak in de wereld van robots en kunstmatige intelligentie. De onderzoekers leerden de robot om handdoeken op te vouwen. No big deal, zou u zeggen, maar dat was het wel degelijk. "Handdoeken zijn niet rigide", zegt Abbeel. Dat betekent dat de was elke keer anders gepositioneerd is. Een voorgeprogrammeerde robot kan daar niet mee omgaan, want die heeft exacte coördinaten nodig van waar hij de handdoek moet oppakken. "Wij zorgden ervoor dat de robot de hoeken van de handdoek herkende, en vervolgens telkens op dezelfde manier opvouwde."

Dat deed BRETT betrouwbaar: 50 uit de 50 handdoeken werden correct opgevouwen, al duurde het wel twintig minuten per handdoek. "Als we BRETT het nu zouden laten doen, zou het waarschijnlijk maar een minuut duren", zegt Abbeel.

Door zelf een systeem bouwen dat leert, krijg je misschien wel meer inzicht in hoe mensen leren dan door hun hersenen te bestuderen.

De wereld van AI is de afgelopen jaren in een stroomversnelling geraakt, en Abbeel is daar een belangrijke speler in. Hij vertrok in 2000 vanuit Brasschaat naar Californië om een master en vervolgens een promotie-onderzoek te doen aan Stanford University. In die tijd maakte hij een automatische helikopter die onder andere op de kop kon vliegen, aangeleerd door een menselijke bestuurder. In 2008 begon hij als professor aan Berkeley, waar hij het vele nakijkwerk al snel zat was. Dus gebruikte hij AI om het te automatiseren, wat leidde tot zijn bedrijf Grade-Scope. Hij werkte ook twee jaar bij Open-AI, de onderzoeksorganisatie van Elon Musk in San Francisco naar 'veilige AI'. Eind 2017 vertrok hij daar om zijn eigen bedrijf Embodied Intelligence op te richten, dat robots taken aanleert met hulp van virtual reality. Hij combineert het werk met zijn onderzoek aan de Berkeley-universiteit. Data News sprak Abbeel op zijn lab in Berkeley - het pand van Embodied Intelligence is strikt verboden voor de buitenwereld vanwege het state-of-the-art onderzoek dat daar plaatsvindt.

Wat wakkerde uw interesse aan voor kunstmatige intelligentie?

Ik ben altijd gefascineerd geweest door intelligentie en hoe wij als mensen problemen oplossen. Maar het is eigenlijk heel moeilijk om in de hersenen te kijken en te zien wat daar gebeurt. Daar is wel onderzoek naar, en het vordert wel, maar het heeft nog niet tot iets fundamenteels geleid. Het leek mij dat we verder zouden kunnen komen als we onze eigen oplossing zouden bouwen. Als je zelf een systeem bouwt dat leert, geeft je dat misschien wel meer inzicht in hoe mensen leren dan door een microscoop op iemands hersenen te zetten.

En wat heeft u de afgelopen achttien jaar geleerd over hoe mensen leren?

Ik weet niet of we iets hebben geleerd over hoe mensen leren, maar we hebben heel veel geleerd over hoe computers leren. En dat geeft ons een algemeen inzicht in het leerproces. Mijn lab richt zich vooral op 'reinforcement learning', waarbij een robot leert door trial and error. Je geeft de robot een doel, en een set van beloningen. Een zelfrijdende auto krijgt bijvoorbeeld een positieve beloning als hij de eindbestemming haalt, een negatieve als hij een verkeersregel overtreedt en een zeer negatieve als hij een ongeluk veroorzaakt. Het systeem optimaliseert zichzelf dan op basis van dat beloningssysteem. Dat is wezenlijk anders dan 'supervised learning', waarbij je een heleboel input-data geeft, dat annoteert, en koppelt aan bepaalde uitkomsten. Echte AI is iets dat een doel heeft en dat probeert na te jagen, en dat uit zichzelf leert.

Vallen en opstaan

Abbeel pakt zijn laptop erbij en laat een animatiefilmpje zien van een robotfiguur die op z'n rug ligt op een zwart-wit geblokte vloer. Het is een simulatie van een robot die leert lopen. "Normaal gezien zou je allerlei natuurkundige wetten in de computer programmeren, maar een kleuter die begint te lopen weet doorgaans weinig van Newton en zwaartekracht. Ze vogelen het gewoon uit door het altijd opnieuw te proberen." Abbeel probeerde hetzelfde principe op de gesimuleerde robot in het filmpje. "We gaven de computer een doel: ren zo snel mogelijk naar het noorden", zegt Abbeel, "en een paar parameters over z'n lichaam (het figuurtje in de simulatie, nvdr.) en z'n zwaartepunt. Vervolgens lieten we de computer zelf uitvogelen hoe het op kan staan en kan lopen."

Op het scherm zien we de robotfiguur in het begin steeds opstaan en weer vallen, maar na zo'n 1.000 iteraties staat de figuur zonder problemen op en rent het weg. De 1.000 iteraties zijn in werkelijkheid nog veel meer berekeningen. De computer (een zogenaamd 'neuraal netwerk') probeert gewoon keer op keer een willekeurige berekening uit, en als die iets beter gaat dan de vorige, past hij z'n volgende berekening weer aan, tot het figuurtje het doel haalt. "Het mooie is, als de computer berekend heeft hoe het moet rennen, kan je diezelfde code hergebruiken voor een robot met een compleet ander uiterlijk", zeg hij terwijl hij een nieuw simulatiefilmpje van een spin-achtige robot laat zien.

De simulaties worden gebruikt omdat ze veel sneller werken dan een robot in de fysieke wereld. Een computer/robot kan de benodigde berekeningen immers veel sneller maken dan dat hij die in de echte wereld kan uitproberen. Als de robot elke keer nadat hij zou vallen weer opnieuw moest opstaan, zou dat veel meer tijd kosten dan het in een gesimuleerde omgeving kost. Maar hetzelfde leerprincipe werkt ook voor fysieke (niet-gesimuleerde) robots.

Abbeel pakt er een filmpje bij van BRETT, die probeert een gekleurd blokje in het juiste vakje te steken - hetzelfde spelletje dat peuters spelen voor hun ontwikkeling. En een filmpje van BRETT dat een kleerhanger ophangt. En BRETT die een dopje op een fles draait. "Dat is het mooie: we hebben een heel algemene leer-methodologie ontwikkeld, die je op een wijd scala van problemen kan toepassen."

Hoe sluit dit werk aan bij uw nieuwe bedrijf Embodied Intelligence?

Dat komt voort uit werk dat we hier in het lab deden. [Abbeel laat een nieuw filmpje zien] Een van mijn studenten, Tienhao Zhang, is hier met een virtualrealitybril en -controllers BRETT aan het leren een blokje in het juiste vakje te doen. Het mooie is: dit is een perfecte match tussen de belevingswereld van de robot en hoe de mens die waarneemt (via de VR-bril ziet Tienhao precies hetzelfde als de robot, nvdr.). Het is alsof de mens letterlijk het brein van de robot is. De robot krijgt dus het perfecte signaal om van te leren. 'Reinforcement learning' is mooi omdat het vaardigheden helemaal van het begin aanleert, maar het is om die reden ook langzaam. Wat we hier doen, met de VR-tools, is 'imitation learning', waarbij de robot 1-op-1 van een mens krijgt aangeleerd wat hij moet doen. Op deze manier kan je een robot binnen 30 minuten een nieuwe vaardigheid aanleren, en je hoeft geen robot-expert te zijn om dat te doen. Wij zien daar een belangrijke toekomst in.

Hoezo?

Als je op dit moment in een fabriek een robot op een nieuwe plek wilt inzetten, kost dat je een paar weken tot maanden. Robots zijn nu heel goed in een taak heel snel en heel vaak verrichten, maar kunnen slecht afwisselen tussen taken. Als je een robot binnen 30 minuten een nieuwe taak kunt aanleren, kan je aan het begin van de dag zeggen: vandaag leer ik de robot zus of zo, en daarna gaat de robot zelf aan de slag. Binnen 1 tot 2 jaar kunnen we met Embodied Intelligence robots op deze manier dingen aanleren, zonder foutmarge. En het maakt niet uit met welke robot je werkt, het gaat allemaal om de software. Dit gaat de manier waarop robots gebruikt worden helemaal op z'n kop zetten.

Het werk dat nu door tien mensen gedaan wordt, kan straks door een mens met tien robot-helpers gedaan worden.

Zijn mensen terecht bang dat jobs zullen verdwijnen?

Het werk dat mensen doen, zal veranderen. Het werk dat nu door tien mensen gedaan wordt, kan straks door een mens met tien robot-helpers gedaan worden. Het moet ook opgemerkt worden dat robots werk kunnen doen dat gevaarlijk is voor mensen, zoals zware dingen tillen of met gevaarlijke stoffen werken. Maar de vraag is natuurlijk wat die negen mensen die nu zonder baan zitten, gaan doen. Over het algemeen denk ik dat mensen altijd wel iets vinden om te doen. Vroeger wilden we alleen eten kopen. Nu willen we ook telefoons en camera's en auto's, enzovoort. Bovendien, als producten tien keer efficiënter gemaakt worden met hulp van robots, zou in principe, in de ideale wereld, de welvaart ook tien keer omhoog moeten gaan. Niet zozeer in het bedrag dat op onze bankrekening staat, maar de producten die we kopen zouden tien keer goedkoper moeten zijn.

We bouwen nu iets dat slimmer zal worden dan wij. We kunnen het dan niet meer controleren en niet voorspellen wat het zal doen.

Mensen zijn ook bang voor een dystopische toekomst, met robots die de wereld overnemen. Is dat een reële angst?

We bouwen nu iets dat slimmer zal worden dan wij, en we kunnen het dan niet meer controleren en niet voorspellen wat het zal doen. We doen dat omdat zo'n slim systeem ons kan helpen kanker te bestrijden, klimaatverandering op te lossen, nieuwe materialen te ontdekken of om ons naar Mars te brengen. Maar de vraag is: gaat het dat ooit doen? Waarom zou het geven om dat soort dingen? Een robot krijgt geen kanker. Er wordt nu op twee manieren over deze zaken gedacht: de eerste is dat we moeten zorgen dat de robot van mensen leert, inclusief waar mensen om geven, en de robot optimaliseren om daarvoor te zorgen. De tweede is dat we AI niet als aparte entiteit bouwen, maar als uitbreiding van het menselijk brein.

En dat vindt u geen enge gedachte?

Evolutionair gezien had de mens geen neocortex, waarmee we onder andere waarnemen, redeneren en bewegen. Toch ziet niemand de neocortex als een soort AI dat in het brein leeft. En mensen doen het al: ze dragen een bril of nemen een kunstgebit om hun capaciteit uit te breiden. Het uitbreiden van het brein met een kunstmatige extensie is natuurlijk wel anders, maar hetzelfde principe.

AI is een gereedschap dat voor goede of kwade doeleinden gebruikt kan worden.

Exact.

Zijn er waarborgen die ingebouwd kunnen worden om te voorkomen dat AI in een negatieve spiraal terechtkomt?

Het zou niet zo moeilijk moeten zijn om definities te geven van wat wel en niet oké is. Maar dat verschilt niet zoveel van wat oké is voor mensen om wel of niet te doen. Mensen hebben fake news online gezet. AI kan dat straks in tienvoud. We hebben nog niet echt een manier om fake news van mensen te beperken, dus hoe willen we dat voor robots aanpakken?

Kan je een robot leren goed te zijn?

Waarom niet? Maar de vraag is dan: als dat mogelijk is, kan iemand anders hem aanleren het tegenovergestelde te zijn?

Nogmaals: dat is geen enge gedachte voor u?

Het is zeker iets om je van bewust te zijn. We moeten voorzichtig zijn en nadenken over waar dit soort technologie voor gebruikt kan worden en waar het heen zal gaan.