AWS zet voluit in op agentic AI, maar geeft tegelijk aan dat we ons nog maar aan het begin van de revolutie bevinden. Er blijven dus nog heel wat uitdagingen. ‘Een AI-agent gedraagt zich soms als een tiener met een kredietkaart.’ Tegelijk is wachten geen optie.
Tijdens de gebruikersconferentie re:Invent in Las Vegas gaf Swami Sivasubramanian, VP voor Agentic AI, twee uur lang tekst en uitleg bij de AI-strategie van AWS. In een typisch Amerikaanse, strak geregisseerde presentatie bracht hij uiteraard vooral een positief verhaal, al ging hij de moeilijke vragen niet uit de weg. ‘Een werkende AI-agent uitrollen is vandaag vaak lastiger dan het probleem dat die agent moet oplossen’, klonk het.
AWS wil die drempel verlagen, onder meer via zijn Strands Agents SDK, bedoeld voor wie concreet met agents aan de slag gaat. En dat zijn nogal wat mensen. De kit is intussen al meer dan vijf miljoen keer gedownload. De eerste stappen zetten, is dus niet zo heel erg moeilijk. Wat daarna komt, des te meer. Een verwijzing naar het schrikwekkend hoge aantal pilootprojecten rond agentic AI dat mislukt, bleef dan ook niet uit.
POC jail
‘We moeten opletten dat we ons niet vastzetten in POC jail’, aldus Swami Sivasubramanian. Want inderdaad, een proeftraject opzetten is maar een eerste stap. ‘Zo’n POC is niet geschikt om de oplossing daarna op schaal uit te rollen. Met je agent ook écht naar productie gaan, blijft lastig: niet alleen door de schaal, ook door de interactie met de ruimere omgeving, de impact van identiteits- en toegangscontrole en de connecties met andere tools. Je wil een werkende workflow creëren. Je moet dus continu observeren, bugs oplossen en bijsturen. Dat zorgt voor een complexiteit die onvermijdelijk je innovatie vertraagt.’
Het is wat AWS probeert op te lossen met het platform Bedrock AgentCore, dat tools aanbiedt voor elk deelaspect van de ontwikkeling van een AI-agent. Tijdens re:Invent lanceerde AWS twee nieuwe modules die een AI-traject zo mee moeten stroomlijnen. De module Policy regelt toegang en security. Wanneer de agent het gebruik van een tool wil inschakelen, dan checkt AgentCore Policy of dat verzoek voldoet aan de vooraf ingestelde regels. AgentCore Evaluations is dan weer gericht op het testen en monitoren van de prestaties en de kwaliteit van de agent.
Sneller vooruit
Het zijn nieuwigheden die mooi aantonen in welke richting het hele agentic AI-verhaal evolueert. ‘Het laat ons toe sneller stappen te zetten’, aldus William Brennan, VP Enterprise Technology bij het ruimtevaartbedrijf Blue Origin. ‘We hebben intussen 2.700 agents in gebruik: om softwarecode te schrijven, om onze supplychain te beheren, en nog veel meer. Het laat ons toe om veel sneller te werken.’ Blue Origin gelooft dat in de toekomst miljoenen mensen in de ruimte zullen leven en werken. De lancering van raketten zal daarbij een essentiële rol spelen. ‘Dankzij het gebruik van agents zal één persoon honderd raketten kunnen lanceren, in plaats van omgekeerd.’
Om die stappen te kunnen zetten, is het belangrijk om de AI-modellen verder te finetunen aan de hand van feedback. ‘Vandaag is het een mens die die feedback geeft’, zegt Swami Sivasubramanian. ‘Maar dat kan natuurlijk sneller en beter, door die taak aan een LLM over te laten.’ AWS ontwikkelde ook daar een nieuwe module voor: Reinforcement Finetuning. Dat moet opnieuw de drempel verlagen. ‘Je kunt makkelijker met agents starten en je hoeft er niet langer een data scientist voor in dienst te nemen die doctoreerde in machine learning.’
AI verandert alles, ook voor AWS
Net als de oude Grieken
De menselijke factor blijkt in de context van AI agents vaak de vertragende factor. ‘LLM’s die hallucineren, tot daar aan toe’, zegt Byron Cook, VP en Distinguished Scientist bij AWS. ‘Maar agents zijn gebaseerd op LLM’s. Een agent kan zich daardoor plots gedragen als een tiener die de kredietkaart van zijn of haar ouders in handen kreeg.’ En daarmee online pakweg een brommer of een pony aankocht. ‘Daar worstelen we vandaag mee. Dus wat doen we? We overcompenseren, door veel – te veel – menselijk toezicht aan het proces toe te voegen.’
AWS vangt dat op door nauwkeurig te definiëren wat een agent mag doen en binnen welke grenzen die acties moeten blijven. Elke stap bouwt zo verder op een eerdere, gedetailleerd gedefinieerde stap. ‘Die aanpak is helemaal niet nieuw’, zegt Byron Cook. ‘Euclides werkte ruim tweeduizend jaar geleden ook al zo.’ Net omdat je met nauwkeurig gedefinieerde stappen werkt, kun je dan met een gerust gemoed een algoritme inzetten om te controleren of een model juist of fout zit. ‘Zo kom je uit bij een vorm van geautomatiseerd redeneren.’

Vooral niet wachten
De voorbeelden tonen aan hoe AWS een antwoord tracht te formuleren op het voorbehoud dat veel bedrijven vandaag rond agentic AI maken: dat het allemaal nog lang niet op punt staat, dat er mogelijk problemen opduiken door verkeerde toepassingen, dat er risico’s zijn rond veiligheid, enzovoort. ‘Maar we zijn het er wel over eens dat AI alles verandert’, aldus Colleen Aubrey, VP Applied AI bij AWS. ‘Moeten we dan zomaar zitten wachten tot alles in orde is, voor we ermee mogen beginnen?’
Dat zou Colleen Aubrey niet doen, stelt ze, want de status quo is niet waar we als maatschappij voor willen gaan. Volgens Aubrey schuilt de moeilijkheid bovendien niet eens in de technologie. ‘De uitdaging is hoe we als mensen samenwerken met AI, hoe we agents als collega’s leren beschouwen. Zeker wanneer ze straks vraagstukken zullen oplossen die we ons vandaag simpelweg nog niet kunnen voorstellen.’ Het is maar de vraag of we er goed aan doen om een agent als collega – op gelijke hoogte met onszelf – te aanvaarden. Of houden we die toch liever in een ondergeschikte, ondersteunende rol? Die vraag bleef op re:Invent onbeantwoord.
Zijn we er écht klaar voor om samen te werken met AI-agenten?