Interview Reinier van Leuken (Salesforce): ‘Klantenprocessen efficiënter maken met AI: daar is het ons om te doen’

© Getty Images/iStockphoto

Nadat het eerder al datatechnologie in zijn CRM-platform integreerde, zet Salesforce nu voluit in op de integratie van AI-technologie om klantenprocessen te ondersteunen en optimaliseren.

We spraken Reinier van Leuken, director of Product Management bij Salesforce, in de marge van de Salesforce Innovation Day in Brussel. Hij deelde er meteen zijn kijk op AI met ons.

Sinds de uitrol van ChatGPT is artificiële intelligentie niet meer weg te branden uit de actualiteit. Als datawetenschapper legt u zich al langer toe op dat onderzoeksdomein. Geldt dat ook voor Salesforce?

Reinier van Leuken: Toch wel, ja. Al in 2016, toen ik net in dienst was, hebben wij Einstein gelanceerd als onderdeel van het Salesforce-platform. Einstein is vandaag de merknaam voor alles wat wij doen op het vlak van AI. Daarbij ging het toen nog vooral om analysesoftware en ‘predictive’ of voorspellende AI-toepassingen. Wekelijks levert ons platform één biljoen – duizend miljard – voorspellingen af. Dat hoge aantal zegt iets over de schaalbaarheid en adoptiegraad van ons AI-aanbod.

Daar voegen wij nu ook generatieve AI aan toe. Dan hebben we het onder andere over Einstein Copilot, waarmee klanten een autonome virtuele assistent in hun Salesforce-omgeving introduceren. Aan die assistent kunnen werknemers vragen stellen en opdrachten geven zoals: vat de status van een bepaalde account even voor mij samen. Of: schrijf een mailing voor een marketingactie. Zo komen allerlei generatieve gebruiksscenario’s tot stand.

Als ik u zo bezig hoor, lijkt het gebruik van AI op de werkvloer al behoorlijk concreet te worden?

van Leuken: Dat heeft natuurlijk ook te maken met het feit dat onze klanten hele concrete businessprocessen naar ons platform brengen. Serviceprocessen, bijvoorbeeld, zoals je die typisch vindt in grote contactcenters met agenten die de vragen, klachten en problemen van klanten beantwoorden. Daarbij is snelheid van belang, maar ook de productiviteit van al die agenten.

In die omgeving zien wij hele sterke toepassingen van AI ontstaan. Zodra zo’n agent een conversatie opstart met een klant, krijgt hij nu bijvoorbeeld automatisch al een aantal mogelijke antwoorden en oplossingen aangereikt via AI. Doordat onze AI-technologie bij het genereren van die antwoorden en oplossingen ook de data op ons Salesforce-platform mee in rekening brengt, zijn die suggesties bovendien heel contextueel van aard. Je krijgt met andere woorden niet zomaar een algemeen of generiek antwoord geserveerd, zoals dat bij ChatGPT bijvoorbeeld wel vaak het geval is. Door de context erin mee te nemen, vergroot uiteindelijk ook de relevantie en precisie van het antwoord op een specifieke klantvraag. Zo leveren wij met onze generatieve AI-oplossingen waarde aan die agenten in het contactcenter, die op hun beurt hun klanten nog beter kunnen bedienen.

Wat als diezelfde agenten die AI-toepassing als bedreigend ervaren?

van Leuken: Ik geloof dat het belangrijk is om te blijven focussen op ‘the human in the loop’, zoals wij dat noemen. Zelf zie ik dan ook niet zozeer een toepassing die de uitfasering van de mens in het serviceproces beoogt, maar veeleer een toepassing die het potentieel in zich draagt om de ervaring van zowel klanten als werknemers te verbeteren. Een win-win-applicatie, zeg maar.

Wat die klanten betreft: vroeger deden ze nog moeite om de chatbot te omzeilen en bij een menselijke agent uit te komen om het antwoord op een eenvoudige vraag te verkrijgen. Vandaag brengen ze die moeite niet langer op en verkiezen ze zo’n vraag snel door een bot beantwoord te zien. Dat komt goed uit, want menselijke agenten blijken op hun beurt ook het liefst te werken aan die 20% moeilijkere – en dus interessantere – cases, waar menselijke interactie per definitie vereist is. Voor die andere 80%, die eigenlijk helemaal niet bij hen terecht zouden moeten komen, willen ze liever geen tijd vrijmaken.

Reinier van Leuken © Salesforce
Intussen zit ook de concurrentie niet stil. Hoe onderscheidt Salesforce zich van meer generalistische leveranciers van bedrijfssoftware als SAP en Microsoft, als het op AI aankomt?

van Leuken: Salesforce heet natuurlijk niet voor niets ‘The Customer Company’: ons motto is nog steeds om bedrijven dichter bij hun klanten te brengen. Alleen is onze focus door de jaren heen geëvolueerd van pure verkoopondersteuning naar een breder spectrum aan oplossingen, bijvoorbeeld ook voor marketing en klantenservice. Alles wat samenhangt met het optimaliseren van de klanteninteractie, zeg maar. Om dat te bereiken, hebben wij ons platform intussen uitgebreid met allerlei ondersteunende technologieën.
Een voorbeeld is de Data Cloud, waarin we het volledige beeld op de klant onderbrengen. Traditioneel is het voor veel bedrijven een uitdaging om een klant te identificeren binnen hun verkoopomgeving, en om diezelfde klant ook terug te vinden binnen hun marketingomgeving. Die twee profielen moet je samenbrengen in één uniform klant-ID, wil je echt over al je kanalen heen voor die klant relevant kunnen zijn en een uniforme klantervaring aanbieden.

Wat wij nu vaststellen, is dat onze klanten al twee decennia lang niet alleen hun businessprocessen maar ook hun data naar het Salesforce-platform brengen. En dan lijkt het een logische volgende stap om die businessprocessen slimmer, efficiënter en relevanter te maken met behulp van AI. Dat is meteen ook de reden waarom wij zo voluit inzetten op die nieuwe technologie. Omdat wij die drie aspecten willen samenbrengen in ons aanbod: CRM, data én AI. Met als belangrijke kanttekening dat het bij ons, in tegenstelling tot de concurrenten die je net aanhaalde, om klantenprocessen gaat. Maar dat zijn in veel bedrijven het merendeel of toch een groot deel van de processen.

Hoe ziet u generatieve AI verder evolueren? Kan u daarover al een tipje van de sluier oplichten?

van Leuken: Als we het specifiek over tekst hebben, dan komen we natuurlijk bij het LLM uit: het ‘large language model’ of grote taalmodel. Nu zie je dat mensen nog de verwachting koesteren dat als ze een vraag stellen aan zo’n model, dat ze daar dan ook een feitelijk correct antwoord op krijgen. Wanneer het echter om hele gespecialiseerde kennis of informatie gaat, dan bots je al gauw op de grenzen van wat zo’n LLM kan.

Een verschuiving die ik daardoor zie ontstaan, is dat de verantwoordelijkheid voor die feitelijke correctheid wat bij die LLM’s wordt weggenomen en verschuift naar ‘prompts’. Stel je in dat geval een vraag aan zo’n model, dan krijg je direct daaronder ook een aantal kennisartikelen of documentatiemateriaal meegeleverd die het antwoord op je vraag kunnen bevatten en die het model vervolgens ook heel gericht kan analyseren. Dat is een evolutie waar wij sterk op inzetten. Zo ontwikkelen wij nu technologie om die prompt engineering te optimaliseren. Een andere trend die ik bespeur is dat we niet enkel tekst terugkrijgen als we een vraag stellen aan zo’n model of het een gerichte instructie geven. In plaats daarvan krijgen we nu ook acties voorgesteld. Acties die het systeem, indien gewenst, ook meteen kan uitvoeren. Zo evolueert generatieve AI stilaan ook naar een soort van nieuwe gebruikerservaring, waarbij we veel meer kunnen converseren met onze systemen. Die ‘conversational interface’ is meteen ook het idee achter Einstein Copilot.

Fout opgemerkt of meer nieuws? Meld het hier

Partner Content