Marc Vael en Jon Brandt
Hoe Generatieve AI ondersteunend werkt bij de verbetering van cybersecurity en cyberbewustzijn
We leven in een maatschappij die vol ontzag is over gadgets en de belofte van life hacks die zowel het professionele als privéleven gemakkelijker maken. Zo ook als het gaat om het gebruik van Generatieve kunstmatige intelligentie, ook wel Generatieve AI genoemd.
Generatieve AI haalt al enige tijd de krantenkoppen en het overgrote deel van de mensen is onder de indruk van de mogelijkheden. Maar waar zij zich niet van bewust zijn, zijn de risico’s die het gebruik van Generatieve AI met zich meebrengt. De discussies over wetgeving en cybersecurity risico’s rondom tools als ChatGPT laaien steeds meer op. Wat organisaties vaak nog niet realiseren, is dat deze technologieën ook de mogelijkheid bieden aan organisaties om hun eigen tekortkomingen op het gebied van cybersecurity en het cyberbewustzijn van de medewerkers aan te pakken.
Zoals bij zoveel technologische innovaties, brengt de toepassing van AI de nodige risico’s met zich mee. Invloedrijke personen uit de industrie vroegen al om een pauze in te lassen in de ontwikkeling van de tool. Een perfecte wereld last een pauze in wanneer alle ontwikkelaars hiermee akkoord gaan, maar laten we nu net leven in een onvolmaakte wereld die gevoed wordt door concurrentie. Organisaties die deze groeiende bedreiging nog niet hebben aangepakt, lopen ver achter.
Wanneer AI menselijke teksten kopieert en dat onopgemerkt blijft, ontstaat er een geheel nieuwe risicodimensie op het gebied van cybersecurity.
Marc Vael & Jon Brandt
Terwijl de massa zich richt op ChatGPT, is het belangrijk om te erkennen dat dit slechts één van de vele beschikbare Generatieve AI-tools is. Met de vele risk assessments, die in hoge frequentie uitgevoerd worden in het moderne dreigingslandschap, doen organisaties – zowel klein als groot – er verstandig aan om voorlopig een verbod op Generatieve AI-tools in te voeren. In ieder geval tijdens het afwachten van de lopende, grondige risicobeoordelingen.
Risico’s van ongedetecteerde AI-teksten
De komst van AI brengt de nodige risico’s met zich mee. Voor de maatschappij, maar ook voor de makers van AI. Neem een voorbeeld aan het vertrek van Geoffrey Hinton bij Google. Dit ligt in lijn met de waarschuwingen dat AI niet genoeg vangrails heeft voor veilig gebruik. Het verspreiden van fake news neemt met de komst van AI-tools flink toe en baart de nodige zorgen.
De tool AI Text Classifier helpt dan wel bij het detecteren van AI-teksten, maar lost het probleem nog niet op. Naar verwachting zullen Generatieve AI-tools ervoor zorgen dat de geloofwaardigheid van phishing e-mails toeneemt, waardoor de bestrijding van social engineering aanvallen onder druk komt te staan. Verbetering in opleiding en bewustzijn op het gebied van cybersecurity is van cruciaal belang. Wanneer AI menselijke teksten kopieert en dat onopgemerkt blijft, ontstaat er een geheel nieuwe risicodimensie op het gebied van cybersecurity. Al helemaal als men bedenkt dat mensen makkelijk beïnvloedbaar zijn en een veilig ogende e-mail al snel vertrouwen.
De menselijke factor
Eerder onderzoek toont aan dat eerlijkheid en empathie de twee minst belangrijke sociale vaardigheden waren. Dit is gevaarlijk, gezien de beschermende aard van de mensen die zich met het ontwerp, de werking, security en de controle van IT-systemen bezighouden. Ook gaf 43 procent van de ondervraagden aan dat cybercriminaliteit niet genoeg wordt gerapporteerd, ondanks het feit dat organisaties hiertoe verplicht zijn. Dit is reden om bezorgd te zijn, want bij de meeste IT-beroepen gelden welbepaalde gedragscodes. Dit geeft aanleiding tot pessimisme, in combinatie met een groot aantal ethische problemen, rondom de transparantie van AI. Vooral als de algoritmes een negatieve invloed hebben. Maar, de opkomst van Generatieve AI heeft uiteraard ook een positieve kant.
Privacy en billijkheid staan centraal in de discussies over AI. Vooroordelen kunnen waarschijnlijk nooit worden afgezwakt. Wat een risico is, zeker als men bedenkt dat AI-modellen zo goed zijn als de input tijdens de opleiding, en waarschijnlijk de aandacht trekken van actoren met slechte bedoelingen.
Generatieve AI en digitaal vertrouwen
Digitaal vertrouwen is noodzakelijk als het gaat om AI. Maar de recente ontwikkelingen op zich maken dat een lastig te bereiken doel. AI is niet onaantastbaar. Het gebrek aan transparantie in de technologische ontwikkeling, het gebruik en de bescherming ervan, creëren problemen. Deze problemen gaan van operationele tot onherstelbare merkschade.
Consumenten worden meestal gedwongen om hun privacy in te leveren in ruil voor toegang tot de diensten. Doen zij dit niet, dan wordt de toegang geweigerd. Helaas zijn we sterk afhankelijk van wetgeving rondom bedrijfspraktijken die misbruik maken van onoplettende of onwetende individuen. Organisaties moeten het gesprek met hun medewerkers aangaan over de kansen en de risico’s van AI. Bespreek hoe men misbruik en stereotyperingen voorkomt, maar kijk ook hoe Generatieve AI, nadat de veiligheid geoptimaliseerd is, kan bijdragen aan het oplossen van organisatorische problemen, zoals social engineering en het herdefiniëren van werk.
Alleen dan vergroot men de bewustwording rondom Generatieve AI en voorkomt men onnodige schade aan de organisatie en aan de medewerkers.
Fout opgemerkt of meer nieuws? Meld het hier