Amerikaanse techbedrijven gaan AI-materiaal watermerken

Zeven grote Amerikaanse techbedrijven hebben vrijdag aangekondigd welke maatregelen ze willen nemen om het gebruik van kunstmatige intelligentie (AI) veiliger te maken. Zo komen er onder meer watermerken in AI-gegenereerd materiaal.

Het gaat onder meer om Facebook-moeder Meta Platforms, Amazon en Alphabet, het moederbedrijf van Google. De concerns zeggen bijvoorbeeld toe AI-systemen grondig te testen alvorens ze worden vrijgegeven. Ook hebben de bedrijven, waartoe ook ChatGPT-oprichter OpenAI en Microsoft behoren, aangegeven informatie met elkaar te zullen delen. Bijvoorbeeld als het gaat om het investeren in betere cyberbeveiliging en het beperken van risico’s. Verder willen de AI-bedrijven virtuele watermerken verwerken in het materiaal dat door hun systemen wordt gegenereerd. Op die manier zijn echte afbeeldingen en video’s te onderscheiden van AI-materiaal.

Topmannen van de betrokken bedrijven kwamen in mei al bij elkaar op het Witte Huis voor een ontmoeting met vicepresident van de Verenigde Staten Kamala Harris. Harris uitte toen al haar zorgen dat AI een bedreiging kan vormen voor de veiligheid, inbreuk kan maken op maatschappelijke rechten en privacy en het vertrouwen van mensen in de democratie kan ondermijnen. Zij riep overheden, bedrijven en andere maatschappelijke partijen op die uitdagingen samen aan te pakken.

Overwinning voor Biden

De plannen die zijn gepresenteerd lijken daaruit voortgevloeid. Maar daarnaast is er ook veel gelobbyd achter de schermen. De aankondiging wordt dan ook gezien als een overwinning voor president Joe Biden, wiens land achterliep qua regelgeving omtrent AI. Zo stemde het Europees Parlement medio juni al in met AI-wetgeving.

De afgelopen maanden hebben veel bedrijven nieuwe AI-systemen aangekondigd of gelanceerd. Zo kan ChatGPT van OpenAI op verzoek van gebruikers hele teksten schrijven. Microsoft bouwde dat systeem in in zijn zoekmachine Bing. Google kwam daarop met een eigen vergelijkbaar systeem met de naam Bard. Maar al die systemen zijn getraind om woorden op een logische manier achter elkaar te zetten en niet om de waarheid te vertellen. Dat leidt tot zorgen bij bijvoorbeeld toezichthouders en overheden.

Partner Content