Zijn we er écht klaar voor om samen te werken met AI-agenten?

© Getty Images
Kristof Van der Stadt
Kristof Van der Stadt Hoofdredacteur bij Data News

Techgiganten beloven ons een nabije toekomst waarin ‘AI Agents’ autonoom onze bedrijfsprocessen overnemen, van rekrutering tot financiële planning. Maar achter de technologische jubelstemming schuilt een fundamentele onzekerheid bij CIO’s en HR-leiders.

Al maanden hebben we het in de context van zakelijke software over hetzelfde mantra: we evolueren van AI-gebaseerde software die ons adviseert naar AI-software die ook zelf handelt. Deze zogeheten ‘agentic AI’ belooft de ultieme efficiëntie door taken volledig autonoom uit te voeren. Zowat elke leverancier zet er volop op in. Er is een opbod in het aantal AI-agenten, en een strijd om wie de overkoepelende software biedt om al die AI-agenten aan te sturen – over de grenzen van het eigen merk of ecosysteem heen. Hoe luid het geroep aan leverancierskant ook klinkt, de eindgebruiker is niet noodzakelijk even enthousiast. Zo blijven er vooral veel vragen over vertrouwen. Want hoe garandeer je dat een AI-agent die zelfstandig beslist over budgetten of aanwervingen, niet ontspoort?

Op de recente Rising conferentie in Barcelona maakte cloudsoftwareleverancier Workday de claim dat hun enterprise-AI ‘niet hallucineert’ – een boude uitspraak van CEO Carl Eschenbach in een tijdperk waarin Large Language Models (LLM’s) er nog altijd notoir om bekend staan dat ze al eens feiten durven verzinnen. Volgens Jens Lohmar, CTO voor Continentaal Europa bij Workday, zit de nuance in de architectuur. Het risico op hallucinaties wordt niet zozeer uitgesloten door magie, maar door inperking: geen generieke openbare modellen loslaten op bedrijfsdata, maar zeer gespecialiseerde modellen trainen voor specifieke taken. ‘Het is nog steeds machine learning, en de foutmarge is nooit nul’, geeft Lohmar toe, ‘maar door de scope te beperken en strikte governance toe te passen, kan je het risico wel minimaliseren’.

De ‘human in the loop’ als noodrem

Ondanks de technische vangnetten blijft de roep om menselijk toezicht luid klinken. De nood ook aan ‘Responsible AI’, al vindt Kathy Pham, een autoriteit op het gebied van ethische AI en vp AI bij Workday, dat onderscheid niet zou mogen. ‘Responsible AI is voor mij de enige AI, anders bouw je onverantwoordelijke systemen’, stelt ze. Pham vergelijkt de nieuwe lichting AI-agents met een groep stagiairs: ‘Er is veel dat ze autonoom kunnen doen, maar uiteindelijk beslist de leidinggevende, de mens dus, wanneer het werk de deur uitgaat’. De ‘human in the loop’ dus; voor heel wat leidinggevenden nog altijd cruciaal om AI en AI-agenten een kans te geven.

Kathy Pham

Organisaties willen meestal zelf aan de knoppen blijven draaien om te bepalen hoeveel autonomie ze ‘afstaan’ aan AI-agenten. Een van de demo’s op de Rising-conferentie toonde hoe een AI-agent autonoom een bonus toekent aan een werknemer door zelfstandig op de achtergrond ook na te gaan of aan alle voorwaarden voldaan is en ook of er nog wel het nodige budget voor is. ‘Misschien is het prima dat een agent zelfstandig beslist over een bonus van duizend euro, maar wil je bij vijfduizend euro toch even meekijken’, legt Pham uit. ‘Het is een leerproces waarbij bedrijven de teugels pas vieren naarmate het vertrouwen in het systeem groeit. Het hoeft ook geen zwart-wit verhaal te zijn. Een goeie tussenoplossing is dikwijls dat een AI-agent na verloop van tijd opmerkt dat je als mens telkens een zelfde aanpassing doet en je dan voorstelt of hij het voortaan zelf automatisch zal aanpassen’, klinkt het.

Zijn we nog authentiek?

Naast de technische betrouwbaarheid speelt er een groter, menselijker vraagstuk: authenticiteit. Nu AI in staat is om perfecte evaluatiegesprekken voor te bereiden of empathische e-mails naar medewerkers te sturen, dreigt de communicatie paradoxaal genoeg haar menselijkheid te verliezen. Tijdens rondetafelgesprekken met Europese bedrijfsleiders kwam die bezorgdheid sterk naar voren. Als een manager plotseling foutloze, perfect geformuleerde e-mails stuurt, vragen medewerkers zich af: ‘Is dit mijn manager nog wel, of is dit een bot?’. Voor Scott Hill, Chief People Officer bij Capita – een grote Britse outsourcer met meer dan 30.000 werknemers – ligt de hoop juist in het omgekeerde effect. Hij stelt dat de automatisering van transactionele taken – zoals loonadministratie – ruimte moet creëren voor echte gesprekken. ‘Ik hoop oprecht dat dit ons toelaat om authentieker te zijn, doordat we meer tijd hebben om elkaar face-to-face te spreken in plaats van via e-mail’. Pham stelt dat het vooral belangrijk is om het doel van een scenario te begrijpen. ‘Als je doel is om een goede manager te zijn, dan is authenticiteit net zo belangrijk als efficiëntie, zoals snel e-mails beantwoorden. Snel reageren alleen is niet genoeg; je moet ook die menselijke verbinding maken.’ Er zijn volgens haar even goed scenario’s waarin AI authenticiteit niet in de weg staat. Ze geeft het voorbeeld van AI om anomalieën op te sporen of om voorbeelden van goed werk van werknemers te vinden in grote hoeveelheden data. ‘In dat geval helpt de tool je altijd en neemt het zeker geen authenticiteit weg.’ Volgens Pham hebben wij, als mensen, controle over deze scenario’s. Zelfs als we meer processen autonoom maken, kunnen we nog steeds kiezen in welke gebieden we de authenticiteit willen behouden.

Scott Hill

Nog volgens de experte in ethische AI – in het verleden was Pham trouwens ook adviseur voor de Amerikaanse AI-regelgeving – gaat het ook over de normen die je als team of organisatie creëert rondom het gebruik van AI-tools. Je kunt bijvoorbeeld afspreken dat je tools gebruikt om e-mails samen te vatten, maar dat het wel de norm is dat je nog steeds de tijd neemt om op een bepaalde, menselijke manier te reageren. Dit is een ‘spier’ die organisaties moeten trainen volgens haar.

De kloof tussen consument en werknemer

De idee dat ‘de machine alles wel oplost’ wordt niet door iedereen omarmd. Zoals altijd met nieuwe technologie zjjn er early adopters, maar ook mensen die er liever ver van wegblijven. De praktijk op de werkvloer is soms ook weerbarstiger. Bij de Belgische HR-dienstverlener Liantis merkt men tijdens digitaliseringstrajecten af en toe wel weerstand. Er heerst een zekere vrees dat technologie het menselijk contact vervangt. ‘We krijgen soms feedback van mensen die zeggen: vroeger belde ik gewoon mijn payrollpartner. Waarom moet ik nu via een bot gaan?’, vertelt Ellen Heynderickx, HR lead processes & analytics bij Liantis ons. ‘Wij proberen iedereen altijd duidelijk te maken wat de voordelen van de technologie kunnen zijn voor hen, maar ook voor ons; dat alles nu veel meer gestructureerd kan verlopen’.

Angelique de Vries, President EMEA bij Workday, ziet dat wat anders. Zij stelt dat werknemers wel degelijk klaar zijn voor de revolutie, gedreven door hun gedrag als consument. Een recent onderzoek van Salesforce lijkt trouwens ook in die richting te wijzen. ‘Het is er al. De manier waarop we interageren met machines is veranderd’, stelt De Vries. ‘Thuis zijn we gewend geraakt aan directe antwoorden van slimme assistenten, en die verwachting sijpelt door naar kantoor. We zien ook dat 75% van al onze klanten nu al AI-mogelijkheden benut’. Volgens haar is de verschuiving naar een conversationele interface (‘AI as the new UI’) geen technologisch snufje, maar een antwoord op een veranderde mindset. De frustratie van complexe bedrijfssoftware die achterloopt op consumentenapps, wordt daarmee zowat het breekijzer voor acceptatie .

Kathy Pham volgt haar in die redenering. ‘Mensen verwachten als consument niet langer een lijst met zoekresultaten, maar een direct antwoord op een complexe vraag. Waarom zou dat voor werknemers anders zijn?’ De Vries ziet een door consumenten-apps aangedreven vraag: ‘Waarom kan dit op mijn werk niet, is wat sommige werknemers nu al de vraag stellen’, klinkt het. Een beetje te vergelijken dus met de ‘bring your own device’ trend van zoveel jaren geleden toen werknemers ook massaal hun eigen tools naar kantoor wilden brengen.

Scott Hill ziet bij Capita dat qua adoptie er toch grote verschillen zijn tussen generaties. Jongeren adopteren – niet echt onverwacht -de technologie zeer snel, omdat ze ermee zijn opgegroeid. Meer verrassend allicht is dat de ouderen – zij die richting het einde van hun carrière gaan – een bijna even hoge adoptiegraad als de jongeren hebben. Dat komt volgens Hill omdat die ouderen vaak ruimdenkend zijn en, omdat ze wat verder staan in hun carrière ook meer tijd én fascinatie hebben om nieuwe dingen te leren. De middengroep (de ‘middle-aged demographic’) is waar hij de laagste adoptie en de grootste uitdaging ziet. ‘De reden is niet onwil, maar een gebrek aan mentale ruimte. Deze mensen zitten vaak in de drukste fase van hun leven, zowel professioneel als privé, en hebben simpelweg de tijd niet om nieuwe vaardigheden aan te leren bovenop hun bestaande takenpakket’, klinkt het.

Zijn bedrijven er dan klaar voor?

Heel wat (agentic) AI-projecten blijven ondertussen hangen in de pilootfase. Vaak is het project op zich wel geslaagd, maar blijkt het moeilijk om vervolgens verder op te schalen of de AI ook helemaal te embedden in de organisatie. Volgens CTO Jens Lohmar is het probleem meestal niet zozeer de AI zelf, maar een gebrek aan degelijke of juiste fundering. ‘Bedrijven proberen soms AI-modellen los te laten op een lappendeken van verouderde systemen en data-silo’s. Voor een kleine test (PoC) lukt dat nog wel, maar zodra je probeert op te schalen naar de hele organisatie, breekt die zwakke fundering en stopt het project’, aldus Lohmar. Volgens Lohmar zijn bedrijven niet klaar voor AI zolang ze proberen AI als een ‘laag’ bovenop hun soms rommelige legacy-systemen te leggen. Al zit er natuurlijk een zekere bias in zijn antwoord, want laat een AI-native platform nu net dé usp van Workday zijn.

Fout opgemerkt of meer nieuws? Meld het hier

Partner Expertise