Google voorziet AI-beelden van een watermerk
Internetreus Google start met het aanbrengen van een watermerk in bepaalde afbeeldingen op het web. Het watermerk, onzichtbaar voor het menselijk oog, moet ervoor zorgen dat detectiesystemen AI-gegenereerde en echte beelden van elkaar kunnen onderscheiden.
Toen we onlangs een passend beeld zochten bij een artikel over (het risico op) botsende satellieten, kwamen we van een koude kermis thuis. Bij geen enkele beeldbank vonden we een realistische afbeelding van zo’n rampscenario. We vroegen het uiteindelijk dan maar aan de Image Creator van Microsoft Bing. Et voilà, het bovenstaande beeld was geboren.
SynthID
Kunstmatige intelligentie wordt steeds beter in het genereren van beelden die niet van echt te onderscheiden zijn. Google is zich daar eveneens van bewust, en ziet ook de gevaren van deze trend. De internetgigant werkt daarom aan tools die herkennen of een foto is gemaakt met behulp van AI, of niet. Het nieuwste speeltje, SynthID, draagt bij aan die detectie door AI-gegenereerde beelden van een (onzichtbaar) watermerk te voorzien.
Natuurlijk kun je een klassiek watermerk op AI-beelden plakken, maar die zijn te eenvoudig weg te werken, geeft Google aan. Ook zijn ze opzichtig. Met SynthID maakt de internetgigant het mogelijk om het watermerk direct in de pixels van een beeld te integreren, zodat wij het niet kunnen zien. Een detectiesysteem van Google neemt het daarentegen wel waar.
Over de nieuwe tool zijn momenteel nog niet veel details bekend. Maar Demis Hassabis, Google DeepMind CEO, laat aan techsite The Verge weten dat het watermerk de kwaliteit van het beeld niet aantast. Ook past het zich automatisch aan als je de afbeelding bijvoorbeeld bijsnijdt of verkleint.
Veiligheidssystemen
Hassabis benadrukt verder dat de eerste tests van SynthID nu pas langzaam worden uitgerold. De tool is in deze fase slechts beschikbaar voor een beperkt aantal klanten van Vertex AI, die ook Googles AI-beeldgenerator Imagen gebruiken. Als Google eenmaal heeft bewezen dat de technologie werkt, is het ‘een kwestie van opschalen, delen met andere partijen die de tool graag gebruiken, en meer klanten toegang geven’, luidt het.
Uiteraard houdt Google zich niet als enige bezig met het ‘beteugelen’ van kunstmatige intelligentie. Onlangs hebben onder meer Meta en OpenAI laten weten bijkomende veiligheidssystemen in hun AI te bouwen. Een aantal techbedrijven gebruikt intussen bijvoorbeeld al het protocol C2PA, dat cryptografische metadata gebruikt om AI-gegenereerde content te labelen.
In samenwerking met KIJK Magazine, bronnen: The Verge, BBC News
Fout opgemerkt of meer nieuws? Meld het hier