Check Point Infinity AI Copilot: Willen we wel een AI chatbot voor security?
Nadat marketingbedrijven en makers van besturingssoftware chatbots uitbrachten om gebruikers te helpen zich een weg vinden in hun software, komt beveiligingsbedrijf Check Point met een copilot voor zijn securityplatform. Maar hoe zorg je dat die AI zelf geen zwak punt wordt?
Check Point Software Technologies beloofde op zijn recente partnerconferentie in Wenen dat het zijn klanten nog beter zou beveiligen. Nieuw in het gamma waren onder meer verbeterde firewalls, een uitgebreid cloudplatform en, opvallend, een AI copilot.
Die AI, in principe een chatbot naar het conversationele model van ChatGPT, moet een ‘krachtige security teammate’ worden, aldus CEO Gil Shwed, en rechtstreeks in de verschillende API’s van Check Points Infinity Platform werken. De tool moet het medewerkers makkelijker en sneller maken om beveiliging te regelen. Maar, wetende dat AI-modellen op zich al fouten en lekken kunnen vertonen, willen we dat wel?
Efficiëntie
Het idee achter de AI copilot is vrij simpel: efficiëntie. De chatbot moet het leven van het securityteam makkelijker maken. ‘De bedoeling is om capaciteit te vergroten en zo sneller en effectiever te reageren op incidenten,’ aldus Shwed. Hij geeft het voorbeeld van enkele administratieve taken, zoals een medewerker toegang geven tot een server. In plaats van alle regeltjes manueel te doorzoeken, zou je dat nu aan de chatbot kunnen vragen, die meteen voorstelt om die medewerker aan de nodige processen toe te voegen.
‘AI vermenigvuldigt je krachten’, zegt Dorit Dor, CTO van Check Point, over de nood om tools als chatbots in te zetten. ‘Het kan je helpen om heel efficiënt te werken. Maar de zorgen erover zijn wel gegrond. Het kan allerlei vooroordelen hebben.’ Ze geeft aan dat bedrijven dus best nadenken over welke AI ze willen gebruiken. ‘Wil ik een large language model van een van de techgiganten, waarbij ik niet veel zelf moet programmeren, maar ik wel aan hun regels en limieten vastzit? Of wil ik er in house zelf een trainen, iets wat veel tijd en expertise kan kosten, maar wel meer vrijheid geeft?’
Llm bewaakt llm
Voor zijn eigen chatbot gebruikt Check Point alvast een ‘llm manager’, zo vertelt Ofir Israel, VP Threat Prevention bij het bedrijf. ‘Voor elk type van vraag kiezen we het beste model’, zegt hij. Afhankelijk van de vraag die je stelt, ‘kan je dit analyseren voor mij’, ‘waarom heeft deze medewerker geen toegang’, ‘hoeveel scans werden deze week op die poort uitgevoerd van buitenaf’, kan de software dus beslissen of het een antwoord formuleert via een ChatGPT-model, of Meta’s Llama-model, of nog iets anders.
En omdat het om een security-chatbot gaat, is deze ook uitgerust met, euh, extra security, zegt Israel. ‘Llm’s zijn erg naïef, je moet geen slimme hacker zijn om die om te tuin te leiden’, vertelt hij tijdens een keynote op CPX. ‘Je hebt zowat het niveau van bedrog nodig dat je gebruikt om een kind broccoli te laten eten. Je verzint een verhaaltje om door de vangrails te breken.’
‘Llm’s zijn erg naïef, je moet geen slimme hacker zijn om die om te tuin te leiden’
Om dat tegen te gaan, rustte Check Point zijn eigen chatbot uit met een AI firewall. ‘Die moet ervoor zorgen dat de AI geen dingen doet die hij niet mag doen, of dingen zegt die hij niet mag zeggen. De copilot mag geen slecht advies geven, en mag niet hallucineren. Om dat te regelen gebruiken we een llm om de andere llm te bewaken’, aldus Israel.
Een nieuwe interface
Om nuttig en veilig te zijn, lijkt de copilot momenteel vooral op een intuïtieve ‘user interface’, een laag bovenop de software die heel specifieke skills werd toebedeeld. ‘We hebben het geleerd welke gedachtegang het moet volgen om antwoorden te formuleren op bepaalde vragen,’ legt Ofir Israel uit. ‘Om te antwoorden op de vraag of het netwerk tegen een bepaalde exploit is beschermd, moesten we de chatbot bijvoorbeeld uitleggen welke commando’s hij in welke volgorde moest uitvoeren om tot het antwoord te komen. Om een vraag te beantwoorden naar de meest geblokkeerde aanvallen op een week tijd, moesten we weer nieuwe skills aanleren. We willen namelijk niet alle data van de gebruiker gaan downloaden, dus we hebben de chatbot geleerd om queries te sturen naar de log server.’
Een soort algemene AI die alle securitybestanden onder zich verwerkt, zou de copilot dus niet mogen worden. En ook van dashboards zijn klanten niet meteen vanaf. ‘Generative AI zal nooit een nieuwe versie worden van onze bestaande platformen’, zegt Dorit Dor daarover. ‘Omdat accuraatheid heel belangrijk is, en daar streven we in ons platform naar. Maar dat platform kan geen gesprekken voeren, dus gebruiken we generative AI als een laag daarop. Dat maakt het makkelijker voor bepaalde medewerkers om ermee te werken en om informatie op te nemen.’
Fout opgemerkt of meer nieuws? Meld het hier