
Door Cameron Camp, ESET Security Researcher
Wat gebeurt er als AI op hol slaat (en hoe kunnen we dit dan stoppen)?

Advertorial verbindt organisaties met de lezers van en doet een beroep op de specialisten van Roularta Brand Studio voor tekst en illustraties. De inhoud wordt eventueel aangebracht door de partner en valt buiten de verantwoordelijkheid van de redactie.
We hebben AI zien evolueren van het beantwoorden van eenvoudige chatvragen voor huiswerk naar het opsporen van wapens in de metro van New York. Nu wordt AI als medeplichtige bevonden bij de veroordeling van een crimineel die het gebruikte om deep fake beelden van seksueel kindermisbruik te maken, gebaseerd op echte foto’s en video’s.
Terwijl AI verder blijft evolueren, proberen sommigen vangrails te maken om te voorkomen dat het fout loopt.
Al jaren gebruiken we AI in een beveiligingscontext, maar er werd ervoor gewaarschuwd dat dit geen wondermiddel was, deels omdat het cruciale dingen verkeerd doet. Beveiligingssoftware die “af en toe” kritieke zaken fout doet, zal nog steeds een behoorlijk negatieve impact hebben, zoals talrijke valse positieven uitspuwen waardoor beveiligingsteams onnodig in de war raken of een kwaadaardige aanval missen die er “net voldoende anders” uitziet dan malware die de AI al kende.
We hebben het dan gecombineerd met tal van andere technologieën om voor controle en evenwicht te zorgen. Als het antwoord van de AI op digitale hallucinatie lijkt, kunnen we steeds terugvallen op de overige technologieën.

Hoewel kwaadaardige spelers weinig pure AI-aanvallen hebben gelanceerd, is het correcter te denken dat vijandige AI-schakels de aanvalsketen automatiseren om efficiënter te zijn, vooral bij phishing en nu ook bij het klonen van stemmen en afbeeldingen uit phishing, om de sociaal engineering-inspanningen gigantisch te vergroten. Als aanvallers digitaal vertrouwen kunnen winnen en systemen kunnen misleiden om zich te authentiseren met behulp van door AI gegenereerde gegevens, is dat voldoende om een organisatie binnen te dringen en manueel aangepaste exploit-tools te lanceren.
Om dit te voorkomen kunnen leveranciers multifactor-authenticatie gebruiken, zodat aanvallers meerdere (hopelijk tijdgevoelige) authenticatiemethoden nodig hebben in plaats van enkel een stem of wachtwoord. Hoewel die technologie nu op grote schaal wordt ingezet, wordt die ook door gebruikers op grote schaal onderbenut. Gebruikers kunnen zich beschermen op deze eenvoudige manier zonder veel werk of grote uitgaves.
Is AI schuldig? Op de vraag om verantwoording als AI het bij het verkeerde eind heeft, is het antwoord steevast “het is zeer ingewikkeld”. Naarmate AI dichterbij komt om fysieke schade te veroorzaken en de echte wereld te beïnvloeden, is dit niet langer een bevredigend en gepast antwoord. Als een door AI aangedreven zelfrijdende auto in een ongeval betrokken geraakt, krijgt de ‘bestuurder’ of de fabrikant de overtreding? De rechtbank zal zich zeker niet tevreden stellen met de verklaring dat AI zeer ingewikkeld en ondoorzichtig is.
Hoe zit het met de privacy? We hebben gezien hoe de GDPR-regels de op hol geslagen technologie aan banden heeft gelegd met het oog op privacy. De van AI afgeleide stukjes en beetjes van originele werken die derivaten opleveren voor winst zijn vast en zeker in strijd met de wetgeving op privacy – en zouden dus door die wetten beschermd moeten worden – maar hoeveel moet AI precies kopiëren om als afgeleid te worden beschouwd, en wat als het net niet genoeg kopieert om die wetgeving te omzeilen?
En hoe kan iemand dit voor de rechtbank bewijzen, met slechts weinig jurisprudentie, waarbij het nog jaren zal duren voordat dit juridisch aangepast wordt? Krantenuitgevers klagen Microsoft en OpenAI aan omdat zij geloven dat hun artikels op hightech wijze herkauwd werden zonder bronvermelding. Het zal interessant zijn om de uitkomst van deze rechtszaak te zien. Misschien wordt het een voorbode voor toekomstige juridische acties.
Ondertussen is AI een handig – en vaak heel goed – hulpmiddel geworden. Maar macht brengt ook verantwoordelijkheid met zich mee. De verantwoordelijkheid van de aanbieders van AI loopt op dit moment jammerlijk achter in het geval dat deze nieuwe macht écht op hol slaat.