42 procent van de Belgen deelt bedrijfsgegevens met ChatGPT
Volgens onderzoek van securitybedrijf Kaspersky deelt 42 procent van Belgen op het werk persoonlijke bedrijfsgegevens met ChatGPT, waardoor ze mogelijk gevoelige informatie in gevaar brengen. Verder meldt 44 procent van het bevraagde personeel dat er geen richtlijnen zijn om het gebruik van ChatGPT op de werkvloer te reguleren en weet 43 procent niet hoe de gegevensverwerking werkt.
Kaspersky concludeert uit deze bevindingen dat het voor het management een topprioriteit is geworden om de privacy van gegevens én de verificatie van inhoud met betrekking tot AI-tools aan te pakken.
‘Ondanks duidelijke voordelen moeten we niet vergeten dat taalmodeltools zoals ChatGPT nog steeds imperfect zijn, omdat ze geneigd zijn ongefundeerde beweringen te genereren en informatiebronnen te fabriceren’, zegt Vladislav Tushkanov, Data Science Lead bij Kaspersky. Ook privacy is volgens hem een groot probleem, omdat veel AI-diensten input van gebruikers kunnen hergebruiken om hun systemen te verbeteren. Dat kan op zijn beurt dan weer leiden tot datalekken. ‘Dit is bijvoorbeeld het geval als hackers de inloggegevens van gebruikers zouden stelen, of kopen op het dark web. Op die manier zouden ze toegang kunnen krijgen tot de potentieel gevoelige informatie die is opgeslagen als chatgeschiedenis.’
Onvoldoende serieus genomen
Ondanks dat soort risico’s geeft bijna de helft van de Belgische werknemers (44%) dus aan dat regels en richtlijnen momenteel volledig ontbreken als het gaat om het gebruik van generatieve AI-tools op de werkplek. Een groep van 21 procent zegt dat die wel bestaan, maar dat de regels niet duidelijk of uitgebreid genoeg zijn. Bovendien is 24 procent van mening dat regels of richtlijnen niet eens nodig zijn.
Op de vraag wat de richtlijnen juist inhouden, antwoordt 38 procent dat ze mondeling instructies krijgen, hetzij in een bedrijfsvergadering (22%) of individueel (16%). Slechts 18 procent zegt dat de regels formeel zijn vastgelegd in een officiële e-mail en een kleine 15 procent laat weten dat er een op zichzelf staand formeel document was opgesteld. De onderzoekers trekken daaruit de conclusie dat de meerderheid van de Belgische organisaties de zaak niet serieus genoeg neemt.
‘Bedrijven die baat kunnen hebben bij ChatGPT en andere LLM-diensten (Large Language Models, nvdr) stellen best een gedetailleerd beleid op voor werknemers om het gebruik ervan te reguleren’, waarschuwt Tushkanov. ‘Met duidelijke richtlijnen kunnen werknemers zowel overmatig gebruik als potentiële datalekken voorkomen, die zelfs de sterkste cybersecuritystrategie zouden ondermijnen.’
Knippen, plakken, nauwelijks controleren…
Overigens geeft een kwart van de vijfhonderd ondervraagden toe dat ze ChatGPT op het werk gebruiken voor tekstuele taken, zoals het genereren van content, vertalingen en het verbeteren van teksten. Ongeveer hetzelfde aantal (24%) gebruikt de tool als tijdbesparende maatregel om bijvoorbeeld lange teksten of notities van vergaderingen samen te vatten.
Als het echter gaat om het gebruik van de inhoud, geeft meer dan de helft van de werknemers (57%) aan dat ze de nauwkeurigheid of betrouwbaarheid ervan niet controleren voordat ze het als hun eigen werk laten doorgaan.
Fout opgemerkt of meer nieuws? Meld het hier