Naarmate artificiële intelligentie zich verder ontwikkelt, bestrijkt ze een steeds breder spectrum aan bedrijfsprocessen.
De AI & Big Data Expo in Amsterdam biedt een blik op hoe internationale spelers hun processen — zowel aan de klantzijde als in de back-end — naar een hoger niveau (moeten) tillen. Het brede palet aan sprekers in Amsterdam laat er geen twijfel over bestaan: in elke sector ontkiemen er AI-initiatieven. Maar of die ook tot volle wasdom komen, moet nog blijken. Toch claimen veel bedrijven dat hun projecten de pilootfase inmiddels zijn ontgroeid.
MLOps voor beautytech

Cosmeticareus L’Oréal legde de fundamenten voor zijn AI-projecten al in 2018. ‘Destijds stonden we niet bekend als een voorloper op het vlak van IT-innovatie’, zegt Ismaïl El Maarouf, ML Ops Lead. Dat is intussen anders. ‘We onderzochten welke technologieën ons konden helpen om de beste producten, diensten en beleving te leveren. Die oefening leidde tot een grondige transformatie van onze IT-organisatie.’
De overname van ModiFace bracht de AI-ambities in een stroomversnelling. Het Canadese bedrijf pionierde met artificiële intelligentie en augmented reality voor virtueel schoonheidsadvies. Op basis van een foto herkent de applicatie huidtypes en detecteert ze tekenen van huidveroudering. L’Oréal visualiseert vervolgens het effect van zijn producten. Het bedrijf verfijnt die diagnoses voortdurend: zo leert een samenwerking met de menstruatie-app Clue hoe hormonale cycli de huidconditie beïnvloeden en brengen geanonimiseerde locatiedata het effect van luchtvervuiling in kaart.
Stijgende complexiteit
De verdere uitbouw van ModiFace brengt verschillende uitdagingen met zich mee. ‘Onze productportfolio groeit en verandert voortdurend’, zegt El Maarouf. ‘De brede waaier aan analyses en adviezen, van huidverzorging tot make-up, verhoogt de complexiteit. Bovendien moeten we omgaan met het niet-deterministische karakter van LLM’s: ze geven niet altijd exact hetzelfde antwoord op dezelfde vraag.’
Om die complexiteit te beheersen, bouwde L’Oréal een MLOps-platform (Machine Learning Operations) op Google Cloud. Dat verdeelt de ML-ontwikkeling volgens de DevOps-principes over vier omgevingen: DataOps, ontwikkeling, staging en productie. ‘Die aanpak bevordert een efficiënte samenwerking, minimaliseert risico’s en zorgt voor een soepele overgang van ontwikkeling naar productie.’
Bij de bouw van LLM-toepassingen maakt L’Oréal gebruik van het open-sourceframework LangChain. ‘Dat laat ons toe om nieuwe versies eenvoudiger te loggen, te isoleren, vergelijken en analyseren. Daardoor sporen we sneller fouten en afwijkingen op en kunnen we objectief vaststellen of een nieuwe modelversie beter, consistenter of betrouwbaarder presteert. Bovendien stelt LangChain ons in staat om meer datasets in kortere tijd te beheren en meer parallelle tests uit te voeren.’
Holmes GPT

Terwijl AI aan de front-end vaak de nadruk legt op klantenservice en personalisatie, speelt ze in de back-end een cruciale rol bij het versnellen van de toegang voor medewerkers. Dat illustreert Siemens, dat zijn financiële afsluitingsproces transformeert met Holmes GPT: een AI-aangedreven assistent voor de financiële afdeling.
‘Financiële afsluiting is een complex en intensief proces met strikte richtlijnen en standaarden’, zegt Davide Aurucci, AI Lead & Solutions Expert bij Siemens. ‘De benodigde info zit in uiteenlopende bronnen die naar elkaar verwijzen.’ Het kost veel tijd en moeite om die informatie op te zoeken, te begrijpen en toe te passen. Daarom zocht de financiële afdeling naar een manier om data te centraliseren en eenvoudiger raadpleegbaar te maken.
Die oplossing vond Siemens in Holmes GPT, een no-code chatbot. Naast GPT-4.1 integreerde de bot ook Language Understanding (LUIS) van Microsoft. Aurucci: ‘Die conversational AI-service van Azure past machine learning toe om waardevolle informatie te herkennen in natuurlijke taal en daarbij de intentie van de gebruiker correct te interpreteren. Holmes GPT connecteert met onze interne wiki-kennisbank en meer dan drieduizend interne en externe documenten in SharePoint. Het model haalt daar relevante informatie uit en presenteert die helder en transparant, mét bronvermelding en referenties. Uiteraard draait Holmes GPT in een beveiligde omgeving. De nieuwe workflows hebben de productiviteit binnen de financiële afdeling verhoogd en de afhankelijkheid van IT-ondersteuning verminderd. Zo draagt Holmes GPT bij aan een modernere en meer aantrekkelijke werkomgeving.’
Uber implementeert centraal ML-platform

Dat technologiegedreven ondernemingen vandaag artificiële intelligentie in vrijwel alle bedrijfsprocessen integreren, spreekt min of meer vanzelf. Bij Uber vormen deeplearningmodellen de kern van een heleboel bedrijfskritische toepassingen. Het platform Michelangelo fungeert er sinds 2016 als het kloppende hart van alle machinelearninginitiatieven. Melda Salhab, AI Technical Product Manager bij Uber, licht toe: ‘Vroeger lanceerden we ML-initiatieven eerder ad hoc, met minder gestructureerde workflows. Dat leidde tot inconsistentie. Ook op het vlak van schaalbaarheid, de herbruikbaarheid van code en de time-to-market zagen we nog veel ruimte voor verbetering. Michelangelo dekt de volledige workflow af vanuit één centraal platform: databeheer, modeltraining, evaluatie, implementatie en het monitoren van voorspellingen.’ Waar Michelangelo zich aanvankelijk richtte op de analyse van gestructureerde data, zette Uber tussen 2019 en 2023 de stap naar deep learning — gevolgd door de transitie naar generatieve AI.
Salhab haalt enkele concrete voorbeelden aan. QueryGPT gebruikt generatieve AI om tekst om te zetten in SQL queries. ‘Ons dataplatform verwerkt maandelijks ongeveer 1,2 miljoen interactieve queries, waarvan meer dan een derde afkomstig is van de operationele afdelingen. Medewerkers willen bijvoorbeeld weten hoeveel ritten we gisteren in een bepaalde stad of regio uitvoerden. Traditioneel vereist zo’n analyse een specifieke expertise rond tabelschema’s en de juiste datasets, waarna de gebruiker de query handmatig invoert. QueryGPT automatiseert dat proces en genereert binnen drie minuten een betrouwbare query, waar dat vroeger gemiddeld tien minuten duurde.’
Vragen niet beantwoorden

Zoals te verwachten viel, verwezen heel wat sprekers in Amsterdam naar het intussen beruchte MIT-onderzoek over pilootprojecten met generatieve AI. Het rapport stelt dat 95% van de initiatieven faalt. De oorzaak daarvan is deels terug te voeren naar de technologie zelf, stelt Indrek Vainu, verantwoordelijk voor conversational AI bij Zurich Insurance. ‘Generatieve AI wil de gebruiker tevreden stellen. In de verzekeringssector, waar dataconfidentialiteit en compliance centraal staan, wil je LLM’s daarom ook trainen op wat ze niet mogen beantwoorden. Bovendien willen mensen niet met een verzekeringschatbot praten, ze verwachten gewoon antwoorden. Daar moet je je genAI-toepassing op afstemmen.’
Volgens Vainu missen AI-agents in veel gevallen cruciale input en stellen ze irrelevante vragen aan gebruikers. ‘Ze vatten verzamelde data soms onjuist samen, wat leidt tot een lage datakwaliteit in de volgende processtappen. En als één stap output van slechte kwaliteit oplevert, besmet dat het hele proces. Daarom zijn toepassingen die volledig vertrouwen op AI-agents in de meeste gevallen nog niet klaar voor de praktijk.’
Tot slot waarschuwt Vainu voor overkill. ‘Je moet niet met een kanon op een mug schieten. Voor veel problemen volstaan rule-based AI-agents met voorspelbare en transparante besluitvorming. Zijn LLM’s toch vereist, begin dan kleinschalig en breid daarna uit.’ Dat levert niet alleen betere resultaten op, het vergroot ook het draagvlak binnen de organisatie.