Zit security te wachten op GenAI?
Er is geen techconferentie of verkooppraatje in IT waar je de voorbije maanden niet minstens één hoofdstuk over AI zag. Maar wat betekent dat voor bijvoorbeeld security, een sector waarin je liever niet hebt dat er aanvallen gehallucineerd worden? We gingen kijken bij de Europese beveiliger Eset.
Ook op Eset komt GenAI aan bot. De Slovaakse beveiliger kondigt zo bijvoorbeeld zijn eerste AI Advisor aan. De chatbot moet security-analisten bijstaan, onder meer bij het doorgronden van de vele onderzoeksrapporten die het bedrijf uitbrengt. ‘We hebben die bovendien geoptimaliseerd om grotendeels onafhankelijk op endpoints te draaien’, zegt Richard Marko, CEO van Eset, aan het publiek van de Eset World conferentie in Bratislava, Slovakije.
Dat offline werken is opvallend, omdat we ondertussen gewend raken aan de permanente nood aan een internetverbinding die techgiganten vragen om hun kunstmatige intelligentie in de cloud te kunnen draaien. Maar voor security is het ook best logisch dat je af en toe het netwerk wilt afsluiten. Bijvoorbeeld in het geval van een actieve aanval. ‘We hebben ook veel klanten die ‘off the grid’ blijven, met bijvoorbeeld ‘airlocked’ omgevingen,’ voegt Juraj Jánošík toe, die aan het hoofd staat van AI/ML learning bij Eset. Denk daarbij bijvoorbeeld aan containerschepen, die niet op het netwerk zitten, maar wel af en toe een update moeten krijgen en op zo’n moment kwetsbaar zijn voor infectie. ‘Ook daar wil je modules kunnen installeren die kwaadaardige code kan detecteren,’ zegt hij.
Niet nieuw
De scanners van Esets Protect securitysoftware, en die van de meeste andere vendors, bevatten ondertussen al enkele jaren machine learning en algoritmen om beter malware te detecteren. ‘Dat is niet nieuw,’ benadrukt Jánošík aan Data News. ‘We gebruiken al jaren algoritmen om malware en aanvallen te detecteren, en we verfijnen ze ook al even lang. Daar gebruiken we nu de nieuwste technologie voor, zoals transformers. De kunst zit hem echter in het kleiner maken van die AI. In de cloud kun je doen wat je wil, je kunt heel grote modellen draaien die veel energie gebruiken, maar op een toestel willen gebruikers dat de beveiliging de werking zo weinig mogelijk vertraagt.’
Die modellen zijn momenteel geoptimaliseerd om op cpu’s te draaien. ‘Maar we werken met Intel samen om modellen te maken die op nieuwe chips in de npu kunnen werken. Dat zou nog efficiënter moeten zijn;’ zegt Jánošík.
Npu’s
Zo’n npu is het geheime wapen van de ‘AI-enchanced pc’s’ die de voorbije maanden ook opduiken. ‘Je hebt nu een resem vendors die deze producten bouwen’, zegt Alastair Edwards van Canalys. ‘We verwachten dat tegen 2027 zo’n zestig procent van alle verkochte pc’s een npu zullen bevatten.’ Een npu of Neural Processing Unit moet onder meer betere resultaten bieden bij het verwerken van kunstmatige intelligentie. ‘Het laat je toe om AI-functies te draaien op het toestel zelf, in plaats van in de cloud’, zegt Edwards. ‘Dat gaat sneller, en omdat je een deel van het werk wegneemt bij de gpu en cpu, kan dat ook energie-efficiënter. Dat is onder meer goed voor het batterijleven van zo’n toestel.’
Door ook een deel van de malwaredetectie op deze npu te draaien, hoopt Eset een snellere en meer zelfstandige module te bouwen, eentje die ook offline de nieuwste technologie kan gebruiken.
En de andere kant
Securitybedrijven zien dus wel wat in AI, maar heeft de technologie ook niet diezelfde voordelen voor ‘de andere kant’? Voor criminele bendes ziet Eset niet meteen veel beweging in AI, zegt Juraj Malcho, CTO van Eset: ‘Je ziet dat de bendes zelf geen llm’s aan het trainen zijn. Ze zijn vooral bezig met het proberen jailbreaken van bestaande modellen zoals die van van OpenAI of Mistral. Ze proberen die te gebruiken voor hun eigen doeleinden.’
Elod Kironsky, vice-president of Endpoint Solutions treedt hem daarin bij: ‘De criminelen hebben de hardware en de data niet om zelf modellen te maken’, zegt hij. En omdat die modellen met oudere data werken, is het gevaar kleiner dan je zou denken. ‘De data van een Llama of Mistral is bevroren in de tijd, terwijl de organisaties die ze willen raken wel constant evolueren. Criminelen hebben niet de nodige data om offensieve AI te bouwen.’ Dan spreken we, voor alle duidelijkheid, niet over natiestaten die wel de nodige middelen en personeel hebben. Maar bij het securitybedrijf zien ze momenteel vooral het de positieve kanten. ‘Tot nu zijn we altijd bezig geweest met bijbenen,’ zegt Juraj Jánošík. ‘We proberen lagen van bescherming op te bouwen terwijl de aanvallers proberen die te omzeilen. Ze kunnen ook rond AI, dat is een extra laag, maar het geeft ons wel een klein voordeel. De modellen die we nu hebben, kunnen gebruikt worden om researchers te helpen bij het rapporteren en administratie, waardoor ze meer tijd hebben om te focussen op het belangrijke, zoals het zoeken naar dreigingen. Met een tekort aan security-onderzoekers is dat een belangrijk voordeel.’
Fout opgemerkt of meer nieuws? Meld het hier