Ook Bing AI maakte fouten in demonstratie
Een mislukte demonstratie van Google’s nieuwe AI Bard leidde vorige week nog tot veel kritiek, maar ook Bing, aangestuurd door ChatGPT, verzint antwoorden. Dat moet blijken uit een demonstratie van Microsoft en tests van reviewers.
Zoekmachine Bing krijgt het taalalgoritme van ChatGPT ingebouwd. De fel gehypete chatbot kan leesbare teksten schrijven en veel informatie verwerken, waardoor het zoeken naar antwoorden zo een pak makkelijker moet worden. Enige probleem is dat de chatbot fouten maakt. Dat moet blijken nu Microsoft de nieuwe zoekmachine open heeft gesteld voor onderzoekers en reviewers.
Al in een van de eerste demo’s van Bing zou de chatbot dingen hebben verzonnen, van feitjes over stofzuigers en Mexico tot volledig foute financiële informatie over bedrijven. Zo merkt onderzoeker Dmitri Brereton op in zijn blog. Een van de voorbeelden die hij geeft is een stofzuiger voor eigenaars van huisdieren. In een demonstratie schrijft Bing een artikel over de voor- en nadelen van de ‘Bissel Pet Hair Eraser Handheld Vacuum’. En Bing verzint daarbij nadelen zoals een kort snoer van 40 cm, veel lawaai en weinig zuigkracht. Geen van die nadelen is te vinden in de artikels die Bing zelf citeert. Het toestel blijkt draadloos en na wat extra onderzoek geven veel reviews net aan hoe stil het toestel werkt.
Nu steeds meer mensen Bing AI gebruiken, komen ook meer fouten uit. Gebruikers geven op Reddit aan dat de chatbot ervan overtuigd lijkt we nog in het jaar 2022 leven, of dat Kroatië geen lid meer is van de Europese Unie. Het is een interessante evolutie, gezien de reactie die concurrerende Bard vorige week kreeg. Ook Google’s chat-AI, die vorige week werd voorgesteld, maakt fouten in demonstraties. Het koste het bedrijf een stevige hap uit de aandelenwaarde.
Fout opgemerkt of meer nieuws? Meld het hier