Microsoft legt Bing AI aan banden
Na meerdere berichten dat de nieuwe Bing Chat-dienst in gesprekken emotioneel dan wel dreigend kan worden, lijkt Microsoft de rem te hebben gezet op de AI. ‘Een lobotomie’, volgens gebruikers.
In de praktijk heeft Microsoft het aantal gesprekken beperkt dat gebruikers dagelijks met het nieuwe kunstmatige-intelligentieprogramma van zoekmachine Bing kunnen hebben. Je mag nu maximaal vijf vragen stellen per sessie, en vijftig per dag. Dat moet ervoor zorgen dat de nieuwe technologie niet over de schreef gaat of het te moeilijk krijgt.
‘Zoals we eerder al meldden, kunnen zeer lange gesprekken voor de nieuwe zoekmachine verwarrend werken’, schrijft Microsoft vrijdag in een blog. De mededeling komt enkele dagen na de eerste berichten over onbetrouwbare en andere antwoorden van Bing Chat.
De kunstmatige intelligentie die Microsoft aanbiedt, is ontwikkeld door OpenAI, het bedrijf achter het populaire programma ChatGPT. De dienst werd opengesteld voor beta testers, waaronder onderzoekers en journalisten. En die testers zijn er, volgens wereldwijde media en verschillende Reddit-draadjes, in geslaagd om Bing Chat (codenaam Sydney) schijnbaar emotioneel of zelfs boos te doen reageren. Ook leden van de Data News redactie hadden… boeiende gesprekken met het taalalgoritme.
Al die aandacht werd Microsoft nu duidelijk te veel, en het bedrijf heeft de teugels van de AI nu strakker aangetrokken voor wie hem kan testen. Het brede publiek moet overigens nog even langer wachten om met Sydney te babbelen. Er is een wachtlijst.
Fout opgemerkt of meer nieuws? Meld het hier