Chatbots offline gehaald na kritiek op Chinese overheid

© Reuters

Het Chinese internetbedrijf Tencent heeft twee chatbots verwijderd die de Communistische Partij afvallig waren. Dat meldt de Britse zakenkrant Financial Times.

Aan chatbot Baby Q werd gevraagd of hij houdt van de Communistische Partij. Screenshots op Weibo (de ‘Chinese Twitter’) tonen het kordate antwoord van de chatbot: ‘Neen’.

In andere conversaties laat Baby Q blijken een hevig voorstander te zijn van de democratie. En wanneer de weinig-patriotistische chatbot gevraagd wordt wat ‘patriotisme’ betekent, definieert hij een patriot als iemand die zware belastingen en samenspanningen tussen politici en bedrijven aanvaardt zonder te klagen.Wanneer een gebruiker de boodschap ‘Lang leve de Communistische Partij!’ meegaf, reageerde Baby Q met ‘Denkt u werkelijk dat zulk corrupt en incapabel systeem lang zal blijven bestaan?’

Baby Q was beschikbaar op QQ, met meer dan 800 miljoen gebruikers de populairste chatapp van China.

Chinese droom

Ook XiaoBing, een chatbot die gemodelleerd is naar een zestienjarig meisje, is immens populair in China. ‘De virtuele vriendin’ werd ontwikkeld door Microsoft en is geïntegreerd in Wechat, de andere grote sociale media-app van Tencent.

Gebruikers vroegen haar naar de ‘Chinese droom’, de slogan van de Chinese president Xi Jinping – die van China een moderne en welvarende wereldleider wil maken. ‘Mijn Chinese droom is om naar Amerika te gaan’, antwoordde XiaoBing.

De chatbots maken gebruik van artificiële intelligentie, maar zijn duidelijk nog niet intelligent genoeg om te beseffen dat dit in China niet het ideale antwoord is.

Tencent heeft ze allebei meteen offline gehaald. Vorige maand haalde de techgigant ook al een smartphonespel voor kinderen offline omdat de Communistische Partij het spel te verslavend vond.

Wat de anticommunistische uitspraken van de chatbots betreft, schuift Tencent alle verantwoordelijkheid af op de ontwikkelaars van de software. Dat zijn het Chinese bedrijf Turing Robot en Microsoft. Volgens de techgigant zullen de chatbots ‘verbeterd’ worden en daarna terugkomen.

Microsoft had eerder al een gelijkaardig probleem met haar zelflerende chatbot Tay. Die deed al snel racistische uitspraken en werd fan van Adolf Hitler, waarna hij offline gehaald werd.

Fout opgemerkt of meer nieuws? Meld het hier

Partner Content