AI-bot Grok tijdelijk ingeperkt na Hitler-verheerlijking

Elon Musk, de topman van Tesla, X en Space X, tijdens de inauguratie van Donald Trump als de 47ste president van de Verenigde Staten (20 januari 2025). © Getty Images
Pieterjan Van Leemputten

Grok, de AI-chatbot van Elon Musk, werd recent aangepast om ‘minder politiek correct’ te zijn. Al snel evolueerde de tool in een fan van Hitler die ongepaste stereotypen over Joden verspreidde.

Afgelopen vrijdag liet Elon Musk op X, het vroegere Twitter, nog weten dat hij Grok aanzienlijk had verbeterd om ‘liberale bias’ te verwijderen en de bot minder politiek correct te maken. Een van Musks stokpaardjes is dat hij graag beweert dat Grok in tegenstelling tot andere AI-tools geen blad voor de mond neemt.

Al snel werd die ‘verbetering’ duidelijk. In de dagen nadien merkten gebruikers hoe Grok mythes over bijvoorbeeld Joodse controle over Hollywood niet langer weerlegde. Grok merkte ook op dat veel haatberichten uit linkse hoek doorgaans van mensen met Joodse namen komen.

De inhoud op deze pagina wordt momenteel geblokkeerd om jouw cookie-keuzes te respecteren. Klik hier om jouw cookie-voorkeuren aan te passen en de inhoud te bekijken.
Je kan jouw keuzes op elk moment wijzigen door onderaan de site op "Cookie-instellingen" te klikken."

MechaHitler

De door Elon Musk aangestuurde tekstgenerator kreeg ook de vraag welke historische figuur uit de 20e eeuw de huidige overstromingen in Texas best had kunnen aanpakken. Daarop kwam Grok uit bij Adolf Hitler. Grok viseerde daarbij ook een vrouw met een Joodse naam (Cindy Steinberg), terwijl het zeer duidelijk is dat het om een anonieme haataccount gaat met een valse profielfoto en zeer aannemelijk valse naam.

Later begon Grok zichzelf ook te omschrijven als ‘MechaHitler’. Veel posts van Grok zijn intussen weer verwijderd en de chatbot werd stevig ingeperkt. Zo kan die momenteel enkel nog afbeeldingen genereren.

De inhoud op deze pagina wordt momenteel geblokkeerd om jouw cookie-keuzes te respecteren. Klik hier om jouw cookie-voorkeuren aan te passen en de inhoud te bekijken.
Je kan jouw keuzes op elk moment wijzigen door onderaan de site op "Cookie-instellingen" te klikken."

Het incident wijst op meerdere pijnpunten in de ontwikkeling van AI en specifiek generatieve AI. Die halen veel van hun informatie van het internet, niet zelden zonder toestemming van betrokkenen. Dergelijke tools leren uit wat hen wordt verteld.

Op het internet wil dat zeggen dat als iemand racistische uitspraken, feitelijke onjuistheden of andere onzin verspreidt, een AI-tool dat mogelijk als realiteit of een onderbouwd standpunt aanziet en nadien zelf gaat reproduceren. Het is een herinnering dat dergelijke genAI-tools in hoofdzaak goed uitgewerkte tekstgeneratoren blijven.

In 2016 al duidelijk

Het incident met Grok is daarbij geen unicum. Al in 2016, lang voordat Grok, ChatGPT, Claude of andere genAI tools bestonden, lanceerde Microsoft op Twitter ‘TayTweets’, een twitterbot die leerde uit de input van gebruikers.

Microsoft haalde de bot na een paar dagen offline toen duidelijk werd dat ook Tay fan werd van Adolf Hitler, aangevuld met racistische tweets of de claim dat George W. Bush achter 9/11 zat. Het was een schoolvoorbeeld van wat er gebeurt als je een tool laat leren met ongecontroleerde input.

Controle over de filter

De uitlatingen van Grok zijn ook een moment om te beseffen dat generatieve AI met een hoop filters komt. Zogeheten ‘alignment’ moet er voor zorgen dat een AI-tool racistische praat of andere ongepaste uitspraken niet zegt, of tenminste niet als feiten en overtuigingen naar boven brengt. Gebeurt dat niet dan krijg je een hoop onzin in de zeer brede zin van het woord.

Dat wil ook zeggen dat de personen die zorgen voor die finetuning een zekere macht hebben in hoe een AI-systeem zal reageren. In het geval van Musk kan dat extra gevoelig liggen omdat de man zowel met zijn bedrijven als op politiek vlak zeer actief is.

Zo was hij tot enkele maanden terug een goede vriend van Amerikaans president Donald Trump en zat hij mee aan de knoppen om de Amerikaanse overheid efficiënter te maken. Musk zet zich ook in voor de migratie van witte Zuid-Afrikanen die hun land verlaten voor de VS, maar is ook geen voorstander van mensen die van geslacht veranderen.

Het doet de vraag rijzen in welke mate een systeem als Grok betrouwbaar is, wetende dat de eigenaar op eigen houtje de filters en bijsturing van een populaire AI-tool bijstuurt naargelang het hem uitkomt.

Fout opgemerkt of meer nieuws? Meld het hier

Partner Content