China censureert AI-modellen om ‘socialistische kernwaarden’ te bewaken
China zet censoren in die moeten waken over de ‘socialistische kernwaarden’ bij grote taalmodellen van Chinese kunstmatige intelligentiebedrijven. Politiek gevoelige onderwerpen en informatie zouden daarbij weggefilterd worden.
De Chinese overheid heeft zijn censuurbeleid uitgebreid met testen waaraan de grote taalmodellen van kunstmatige intelligentiebedrijven in het land onderworpen worden. Dat bericht The Financial Times. Zo wil het regime in Peking zich ervan vergewissen dat de systemen voldoende doordrongen zijn van de ‘socialistische kernwaarden’.
De Cyberspace Administration of China (CAC), een Chinees censuurorgaan dat toezicht houdt op het Chinese internet, zou grote Chinese techbedrijven en AI-start-ups waaronder Alibaba, Moonshot en ByteDance, het moederbedrijf van TikTok, onderwerpen aan een verplichte overheidsbeoordeling van hun AI-modellen. Dat verklaren meerdere bronnen die betrokken zijn bij dat proces.
Gevoelige vragen
Chinese overheidsfunctionarissen zouden de taalmodellen testen aan de hand van vragen, die vaak te maken hebben met de politieke gevoeligheden van China en de Chinese president Xi Jinping. Zo zouden politiek gevoelige onderwerpen en trefwoorden weggefilterd worden uit de invoergegevens bij het trainen van de taalmodellen. Er zou ook een database opgebouwd worden met gevoelige trefwoorden die de ‘socialistische kernwaarden’ schenden. Het invoeren van die ‘verboden’ trefwoorden zal bijgevolg geen antwoord opleveren bij de gecensureerde taalmodellen.
Het resultaat is nu al zichtbaar voor gebruikers van AI-chatbots in China. Vragen over gevoelige onderwerpen zoals het Tiananmenprotest op 4 juni 1989 of de internetmeme die president Xi vergelijkt met Winnie de Poeh worden door de meeste Chinese chatbots afgewezen. Kimi, een chatbot van de Chinese start-up Moonshot, ontwijkt zelfs pertinent de meeste vragen over president Xi.