Nu al wapent 34 procent van organisaties zich tegen GenAI-problemen

Ronald Meeus
Ronald Meeus Freelance journalist

Volgens marktonderzoeker Gartner bouwt 34 procent van alle wereldwijde organisaties al Application Security-tools in die hun systemen op programmeerniveau beschermen tegen mogelijke problemen met generatieve kunstmatige intelligentie. Er is vooral oog voor hallucinaties en het per ongeluk lekken van gevoelige data.

Buiten de 34 procent van de respondenten uit Gartners Generative AI Security and Risk Management-studie die aangaven dat ze zich nu al wapenen tegen AI-bedreigingen, zei ook nog eens 56 procent dat ze dat soort oplossingen aan het exploreren zijn. De 150 IT- en security-experts die Gartner ondervroeg lijken het er dus roerend over eens dat kunstmatige intelligentie mogelijke bedreigingen met zich meebrengt voor de continuïteit van hun bedrijf.

Risico’s

Vooral het risico dat AI onjuiste of bevooroordeelde outputs zal produceren wordt (door 58 procent van de respondenten) gezien als een AI-dreiging. Verder zijn er (bij 57 procent) zorgen over bedrijfsgeheimen die per ongeluk worden gelekt door AI-gegenereerde code. Gartner waarschuwt ook dat die risico’s constant evolueren.

‘Organisaties die AI-risico’s niet in de gaten houden, zullen zien dat hun modellen niet presteren zoals bedoeld en in het ergste geval menselijke of materiële schade kunnen veroorzaken’, zegt Gartner-analist Avivah Litan. ‘Dat zal resulteren in beveiligingsfouten, financieel en reputatieverlies; en schade aan individuen door onjuiste, gemanipuleerde, onethische of bevooroordeelde uitkomsten. Gebrekkige AI-performantie kan er ook voor zorgen dat organisaties slechte zakelijke beslissingen nemen.’

Remedies

Daarom, denkt Gartner, doen organisaties er goed aan om die interne bedreiging aan te pakken aan de bron: met de Application Security-tools die de aangegeven 34 procent van de ondervraagde experts binnen organisaties al hanteren, en die de beveiliging van een toepassing aanpakken op het niveau van zijn programmatuur. Gebruikte technieken daarbij zijn onder meer privacy-enhancing technologies (PET’s, technologische oplossingen die onder meer het gebruik van privégegevens minimaliseren) en ModelOps (tools, technologieën en best practices om machine learning-modellen te monitoren).

‘Leiders moeten, naast het implementeren van beveiligingstools, ook overwegen om een bedrijfsbrede strategie voor AI TRiSM te ondersteunen: vertrouwens-, risico- en beveiligingsbeheer’, aldus Litan. ‘Dat beheert data- en processtromen tussen gebruikers en bedrijven die generatieve AI-basismodellen hosten. Om een organisatie continu te beschermen moet dat ook een continue inspanning zijn, geen eenmalige oefening.’

Fout opgemerkt of meer nieuws? Meld het hier

Partner Content