Waarom robots een ‘monologue intérieur’ moeten krijgen
Als we ergens in de toekomst robots aan onze zijde willen zien, zullen we daar eerst een kunstmatige intelligentie voor moeten ontwikkelen die aangepast is aan wezens die zichzelf voortbewegen in de wereld, zeggen onderzoekers. Die embodied reasoning wordt zelfs een belangrijke evolutionaire stap in de ontwikkeling van onze robotbroeders en -zusters.
Het summum van kunstmatige intelligentie waarmee gebruikers vandaag stilaan kennismaken, zoals generatieve AI en taalmodellen, zit ‘vast’ in computerapparatuur. Tegelijkertijd hebben we allemaal al wel de eerste exploten van roboticabedrijven als Boston Dynamics aan het werk gezien: het moment waarop die steeds menselijker lijkende AI in zo’n elektronisch wezen zal belanden, en ze dus in ons midden zal kunnen rondschrijden, ligt wellicht geen tientallen jaren meer voor ons. Al zal daarvoor toch eerst iets meer gespecialiseerde AI moeten worden ontwikkeld.
Hoe én waarom
Natuurlijk zit er ook nu al artificiële intelligentie in robots: hun foundation models, zoals die specifieke AI-technologie heet, staat hen toe om zich te oriënteren in een fysieke wereld en hun ‘lichaam’ aan te sturen. Maar om ooit robots op straat te hebben die zich tussen de mens kunnen voortbewegen, en liefst nog taken in onze plaats kunnen uitvoeren, is er meer nodig dan daar gewoon de recentste versie van ‘stationaire’ AI in te uploaden, zeggen onderzoekers.
Aan de universiteiten van Berkeley, Stanford en Warschau wordt gewerkt aan een AI die robots embodied reasoning verleent: niet alleen zullen ze de taalintelligentie van een ChatGPT en hun eigen motorische AI hebben, maar ze moeten volgens de nieuwe paper Robotic Control via Embodied Chain-of-Thought Reasoning ook kunnen nadenken over hoe én waarom ze handelingen uitvoeren. Ze moeten, zoals Googles Robotics-researchafdeling ongeveer hetzelfde twee jaar geleden al benoemde in een andere paper, een ‘interne monoloog’ krijgen.
Veel om over te denken
Gelukkig, zo blijkt uit de nieuwste paper, zit de kiem van dat soort kunstmatige intelligentie al in de large language models (LLM’s) van vandaag. Chain-of-thought-redeneren betekent in essentie: de oplossing voor een probleem opdelen in concrete tussenstappen. Dat principe wordt nu dus over de drie samenwerkende universiteitscampussen toegepast in de foundation models van robots.
‘Onze doelstellingen bij het ontwerpen daarvan zijn tweeledig: het model aanmoedigen om high-level alle vereiste stappen van een taak goed door te denken, en vervolgens vast te stellen welke stap daarin de volgende moet worden’, schrijven de onderzoekers in hun paper. ‘ Die redenering moet meer en meer gebaseerd zijn op de kenmerken van de scène en de toestand van de robot voordat de volgende robotactie kan worden voorspeld.’
Trial and error
Die nieuwe stappen in Embodied Reasoning voegen zich nu stilaan bij nog altijd verder in ontwikkeling zijnde doorbraken in het zelflerende vermogen en de fijne motoriek van robots. Snel denkende robots werden al gepionierd bij, onder meer, het Artificial Intelligence Lab van VUB-professor Ann Nowé: researchers van haar lab lieten een achttal jaar geleden al een paaltje balanceren op een robotische arm. ‘De eerste paar keren liet hij het vallen. Maar al snel leerde hij de juiste microbewegingen om het perfect in balans te laten staan’, vertelde Nowé twee jaar geleden in een interview met Data News. ‘Dit soort zelflerende AI kan onverwacht nieuwe kennis opdoen, een beetje zoals een kind een fiets leert besturen: via trial and error, een aaneenschakeling van positieve bekrachtigingen.’
Situationeel bewustzijn
Ondertussen sleutelen robotlabo’s ook wereldwijd verder aan het situationeel bewustzijn van onze toekomstige robotische vrienden. Aan het Massachusetts Institute of Technology (MIT) werkten onderzoekers samen met hun collega’s van roboticabedrijf Boston Dynamics bijvoorbeeld aan een versie van Spot, die inmiddels overbekende vierpotige Boston Dynamics-robot, om diens bewustzijn van zijn omgeving uit te breiden tot het inschatten van gevaarssituaties. De belangrijkste toepassing daarvoor is, vanzelfsprekend, defensie: het project in kwestie werd dan ook mee ontwikkeld door de Homeland Protection and Air Traffic Control Division van de Amerikaanse overheid. Maar dat betekent niet dat de nieuwe technologie alleen maar in oorlogssituaties kan worden ingezet.
‘Leden van de kustwacht moeten vaak scheepsruimen betreden die giftige dampen of andere chemisch-biologische gevaren kunnen bevatten’, zegt Amna Greaves, een van de onderzoekers, in een eigen MIT-publicatie. ‘Er is ook de mogelijkheid van vijandigheid van bemanningen. Dan een metgezel bij je hebben die chemische, biologische, radiologische en nucleaire dreigingen kan detecteren door gespecialiseerde sensoren bij zich te dragen, kan het risico voor hulpverleners verminderen.’
Fout opgemerkt of meer nieuws? Meld het hier