Wim Casteels

De rol van AI in moderne cyberaanvallen

Cybercriminaliteit neemt toe, en kunstmatige intelligentie neemt daar ook steeds vaker een rol in, schrijft Wim Casteels, Coördinator IT en AI bij de AP Hogeschool Antwerpen.

Cybercriminaliteit in België neemt toe. Dit blijkt onder andere uit de Cyber Survey Belgium 2025 van KPMG. Het Digital Defense Rapport 2025 van Microsoft toont aan dat België een specifiek doelwit is van Russische cyberaanvallen. Recent ondervonden de websites van Proximus, Scarlet en het UZ Gent nog hinder door aanvallen van Russische hackers. Volgens de Vlaamse cybersecurity barometer was in 2024 bijna de helft van de Vlaamse bedrijven slachtoffer van een cyberaanval.

Niet alleen bedrijven zijn slachtoffer van cybercriminaliteit. Ook phishing, waarbij criminelen mensen misleiden om geld af te troggelen, neemt toe. Onderzoek van Febelfin toonde aan dat in 2024 zo’n 49 miljoen euro werd buitgemaakt via deze fraudevorm.

Het Microsoft-rapport benadrukt de groeiende impact van AI op cybercriminaliteit. Criminelen gebruiken AI om overtuigender misleidende berichten te maken, en dat op steeds grotere schaal. Via “vibe hacking” zetten ze AI in tijdens alle fases van cyberaanvallen. Tegelijk biedt AI ook kansen om bedrijven beter te beschermen.

AI maakt phishing overtuigender dan ooit

Met AI kunnen oplichters snel nepwebsites, profielen en klantenservicechats genereren om echte bedrijven na te bootsen. Ze gebruiken deepfake-stemmen en -video’s om zich voor te doen als vertrouwde personen. Door stemmen te klonen kunnen oplichters zich voordoen als een familielid in nood of een collega die dringend geld nodig heeft.

AI maakt gerichtere aanvallen en overtuigender phishing mogelijk

Een voorbeeld zijn oplichters die zich voordoen als medewerkers van technische ondersteuning om gebruikers te verleiden tot betalen voor nepservice of het installeren van malware. Traditioneel werkten deze oplichters via telefoontjes, e-mails en pop-ups. Nu zetten cybercriminelen AI in om stemmen na te bootsen tijdens telefoon- of videogesprekken.

AI maakt gerichtere aanvallen en overtuigender phishing mogelijk. Volgens het Microsoft-rapport klikken mensen in 54% van de gevallen door bij AI-geautomatiseerde phishing-e-mails, vergeleken met slechts 12% bij standaardpogingen. Bovendien kan AI-automatisering de winstgevendheid van phishing met wel 50 keer verhogen. Zeer gerichte aanvallen kunnen nu worden opgeschaald naar duizenden doelwitten tegen minimale kosten.

Van vibe coding naar vibe hacking

Criminelen gebruiken ook bekende chatbots voor hun activiteiten, waardoor AI-bedrijven uniek inzicht krijgen in hoe hun tools worden misbruikt voor cybercriminaliteit. Deze AI-providers publiceren regelmatig rapporten over illegaal gebruik van hun tools en de maatregelen die ze hiertegen nemen.

Een uitgebreid rapport van OpenAI beschrijft hoe ze Russischsprekende en Koreaanstalige ontwikkelaars (vermoedelijk uit Noord-Korea) detecteerden die ChatGPT gebruikten om software voor cyberaanvallen te ontwikkelen. Ze ontdekten ook een groep Chineestalige actoren die cyberspionage en phishingcampagnes uitvoerden, gericht op Taiwan, de Verenigde Staten en dissidente Chinese gemeenschappen in het buitenland. Daarnaast ontmaskerden ze internationale scamnetwerken uit Cambodja, Myanmar en Nigeria. Deze netwerken misbruikten ChatGPT voor fraude, van vertaling en klantenbenadering tot het opzetten van valse investeringswebsites.

Ook Anthropic publiceert over misbruik van hun chatbot Claude en de tegenmaatregelen die ze nemen. Ze introduceerden de term “vibe hacking” voor hoe cybercriminelen Claude inzetten tijdens alle fases van grootschalige afpersingsoperaties. Daarnaast detecteerden ze Noord-Koreaanse operatoren die Claude gebruikten om te solliciteren bij technologiebedrijven, vermoedelijk om deze van binnenuit te saboteren. Ook ontdekten ze dat criminelen Claude inzetten om fraudeoperaties te verbeteren: van het analyseren van gestolen gegevens en het opbouwen van slachtofferprofielen tot het creëren van synthetische identiteiten.

AI als wapen tegen cybercriminelen

AI wordt niet alleen door criminelen ingezet, het helpt ook bij een betere verdediging. Moderne AI-systemen analyseren voortdurend miljarden aanmeldingen en gebruikerssignalen om identiteitsfraude te voorkomen. Ze leren hoe normaal gedrag eruitziet voor elke gebruiker en entiteit, waardoor ze de eerste tekenen van een aanval kunnen herkennen. Binnen milliseconden kennen ze een risicoscore toe.

Organisaties zetten ook AI-tools in om automatisch op bedreigingen te reageren. Deze systemen werken met minimale menselijke begeleiding, soms zelfs volledig zelfstandig, en reageren binnen enkele seconden, veel sneller dan een mens. Bij meerdere risicosignalen kan een AI-agent bijvoorbeeld onmiddellijk een gecompromitteerd account opschorten. De inbreuk wordt zo ingedamd voordat een aanvaller verdere schade kan toebrengen.

AI-tools kunnen ook software testen op beveiligingsrisico’s. Google behaalde met hun AI-agent Big Sleep een doorbraak in digitale beveiliging. De agent is ontworpen om onbekende kwetsbaarheden in software op te sporen voordat ze kunnen worden misbruikt. Hij ontdekte een ernstig beveiligingslek in de open source software SQLite. Google gaf aan dat dit de eerste keer was dat een AI-systeem erin slaagde een cyberaanval te verijdelen nog voordat die begon.

Nieuwe uitdagingen door AI-adoptie

De snelle adoptie van AI brengt nieuwe cyberuitdagingen met zich mee. Er zijn twee hoofdrisico’s. Ten eerste: hoe werknemers AI gebruiken. Ze kunnen onbedoeld gevoelige bedrijfsinformatie lekken via een chatbot. Ten tweede: de risico’s van de tools zelf. Bij prompt injection voert iemand verborgen instructies in de AI-tool, die vervolgens kwalijke acties onderneemt zoals het lekken van gevoelige informatie. Volgens een bevraging van Microsoft over veilige gebruikerstoegang in het AI-tijdperk geeft 84% van de respondenten aan dat het gebruik van GenAI-apps door werknemers het komende jaar zal toenemen. Bovendien verwacht 57% een stijging in incidenten door dit toenemende gebruik.

AI speelt een dubbele rol in cybercriminaliteit. Enerzijds versterkt het criminelen: phishing wordt overtuigender, aanvallen worden gepersonaliseerd en opgeschaald, en geavanceerde cyberaanvallen worden toegankelijk voor minder technische criminelen. Anderzijds biedt AI krachtige verdediging: systemen detecteren en neutraliseren bedreigingen in milliseconden, ontdekken kwetsbaarheden vroegtijdig en analyseren miljarden signalen om onzichtbare patronen te herkennen. Nieuwe uitdagingen zijn AI-misbruik door werknemers en kwetsbaarheden in de AI-tools zelf.

De impact van AI zal waarschijnlijk alleen maar toenemen naarmate nieuwe tools zowel verdediging als aanval versterken. Daarom is het essentieel dat bedrijven en overheden zich actief voorbereiden op deze nieuwe realiteit. Investeren in cyberbeveiliging en het opleiden van werknemers is cruciaal, aangezien de menselijke factor vaak de zwakste schakel blijft in de beveiligingsketen.

 

Fout opgemerkt of meer nieuws? Meld het hier

Partner Expertise