Microsoft haalt zelflerende racistische Twitterbot offline
Microsoft heeft kunstmatig intelligente Twitterbot ‘TayTweets’ offline gehaald. De bot deed snel veel racistische uitspraken en werd fan van Adolf Hitler.
De Twitterbot werd woensdag nog gelanceerd, maar ging gisteren alweer offline. Het was de bedoeling dat hij gesprekken aanging met gebruikers en daar van zou leren, maar dat liep al snel uit de hand toen mensen over Hitler en de Holocaust begonnen.
Twitteraars kwamen er al snel achter dat ze de bot zinnen konden laten herhalen, waardoor hij zei dat president George W. Bush achter 9/11 zat en Hitler niets verkeerd deed. Later leek Tay gebruik te maken van die informatie, waardoor hij uit zichzelf over die onderwerpen begon.
Een gebruiker vroeg of Tay voorstander van genocide, waarop de bot antwoordde: ‘Dat ben ik inderdaad’. Toen gevraagd werd welk ras hij uit zou willen roeien antwoordde Tay: ‘Je kent me… Mexicanen.’ Toen er gevraagd werd of de Holocaust echt gebeurd is zei Tay dat die verzonnen was.
Microsoft heeft inmiddels ingegrepen en de Tay stopgezet. Ook zijn er veel tweets verwijderd. Het bedrijf gaat nu aanpassingen doorvoeren, schrijft TechCrunch. Volgens het Microsoft geeft het experiment wel ‘een indicatie van het soort interacties dat sommige mensen met chatbots hebben’.
Fout opgemerkt of meer nieuws? Meld het hier