De adoptie van AI versnelt, maar ook cyberdreigingen worden steeds complexer. Daardoor erkennen IT-securityleiders dat ze hun beveiligingspraktijken grondig moeten herzien. Wie AI op schaal wil uitrollen, krijgt met stevige uitdagingen te maken.
Hoewel 66 procent van de organisaties verwacht dat AI een significante impact op cybersecurity zal hebben, beschikt slechts 37 procent over processen om de security van AI-tools te beoordelen alvorens ze uit te rollen. Dat blijkt uit cijfers van het Wereld Economisch Forum. Het toont aan hoe bedrijven de snelle implementatie van AI niet kunnen verzoenen met de nood aan sterke vangrails.
Ondertussen blijft ook het securitylandschap evolueren. Een belangrijke zorg voor securityleiders is data poisoning – een praktijk waarbij kwaadwillige actoren trainingsdata manipuleren.
Autonome AI agents scheppen hoge verwachtingen om de efficiëntie van teams te vergroten, en dat is in cybersecurity niet anders. Niet alleen kunnen ze de detectie van dreigingen verbeteren, AI agents versnellen ook de responstijden en maken tijd vrij voor het oplossen van meer complexe problemen. Maar als governance niet is afgestemd op de data-infrastructuur, dan zullen AI agents beperkt zijn in hun mogelijkheden om data te beschermen en compliant te blijven.
Organisaties die AI agents op een betrouwbare manier willen gebruiken, hebben een holistische aanpak nodig. Behalve goed beheerde data moeten ze vangrails inbouwen en ervoor zorgen dat ze altijd het overzicht behouden over de AI-levenscyclus.
Bouw een modern framework voor data governance
In veel grote organisaties zit de data verspreid over verschillende systemen en silo’s. Het gaat dan om zowel gestructureerde data in databases en ongestructureerde content zoals video, audio en tekst uit meerdere bronnen.
Het klassieke governance-beleid is vaak gericht op specifieke platformen en volstaat niet voor de naadloze, eengemaakte toegang die AI agents nodig hebben. Deze fragmentatie is een obstakel voor schaalbaarheid, leidt tot inconsistenties, maakt compliance ingewikkelder, en vergroot de securityrisico’s. Gartner stelt dat 60 procent van de AI-projecten niet slaagt zonder een sterke databasis.
Agentic AI vereist dan ook dat we data governance fundamenteel herbekijken. Het doel is niet om alle data op één locatie te consolideren, want dat is vaak heel onpraktisch. Wel moeten we voor een framework zorgen dat is gebouwd op een vlotte datastroom. Het moet een consistent beeld van de gegevens en hun context bieden, ongeacht de fysieke locatie. Die aanpak is essentieel als we het vertrouwen in data willen garanderen.
Hoe bereik je zo’n vlotte datastroom dan precies? Verschillende stappen zijn belangrijk:
- Zorg voor een consistent beleid met gedeelde classificaties en taxonomieën over het diverse datalandschap.
- Geautomatiseerd taggen en classificatie van data zijn essentieel om te garanderen dat deze beleidsregels over alle bronnen worden toegepast.
- Beveilig de toegangspunten (API’s). Aangezien AI agents vaak gebruik maken van API’s om met systemen te communiceren en data op te halen, is het belangrijk om governance en securitycontroles naar deze API-connecties uit te breiden.
- Veilige connecties voor data achter firewalls en het implementeren van flexibele opties voor encryptie zijn ook waardevolle veiligheidsmaatregelen.
Implementeer vangrails voor security en veiligheid
Behalve een structuur voor governance zijn ook stevige security- en veiligheidsvangrails cruciaal. Bedrijven moeten veilige omgevingen bouwen voor het ontwikkelen en testen van AI agents. Het gebruik van sandboxes maakt het voor teams mogelijk om agents geïsoleerd te bouwen en hun gedrag te valideren op basis van realistische data. Het specificeren van instructies en beperkingen helpt om de verwerking en besluitvorming tijdens het testen te sturen. Door na te gaan of de agent zich aan de instructies houdt, kunnen we het gedrag van de agent opvolgen en ervoor zorgen dat hij de juiste handelingen onderneemt.
Zodra agents zijn uitgerold, zijn ingebouwde beveiliging en continue monitoring enorm belangrijk. Deze controles garanderen dat agents binnen de afgelijnde limieten werken. Ze voorkomen dat ze onbedoelde acties uitvoeren en melden schadelijk gedrag. Het opvolgen van het gedrag van zo’n agent in combinatie met observatiemogelijkheden in de governance-laag, maakt troubleshooting eenvoudiger als de policy en classificaties tot onverwachte resultaten leiden.
Hou vast aan de menselijke factor
De meest effectieve manier om digitale arbeid in te zetten, blijft de samenwerking tussen mensen en agents. Het is belangrijk dat agents in complexe situaties hun taken naadloos naar menselijke tegenhangers kunnen doorschuiven. Die hybride aanpak is dan ook essentieel voor organisaties die AI agents met vertrouwen willen gebruiken. Het valt te verwachten dat zo’n manier van werken in de nabije toekomst voor alle toepassingen noodzakelijk zal blijven.
Maar uiteindelijk zijn AI agents zo betrouwbaar als de data waarmee ze werken. Om dit vertrouwen op te bouwen, moeten bedrijven doorheen de organisatie eengemaakte toegang tot data bieden. Daarnaast zijn ook krachtige ontwikkelingstools en ingebouwde security en governance nodig.
De mogelijkheid om AI agents te bouwen die zowel betrouwbaar als verantwoordelijk zijn, en die echte bedrijfswaarde en betere klantervaringen garanderen, zal bepalend zijn voor succes in het tijdperk van Agentic AI.