Google geeft AI-knoeiboel toe
In een blogpost geeft Liz Reid, Hoofd Zoeken van Google, toe dat het bedrijf fouten geeft gemaakt met zijn AI-zoekfunctie.
‘Doe maar lijm op een pizza’, ‘eet stenen want dat is gezond’: het waren bizarre adviezen die gebruikers vorige week verkregen van Google’s nieuwe AI Overviews-zoekfunctie, die bij ons nog niet is gelanceerd. Nadat screenshots van de onzin viraal ging, reageerde Google aanvankelijk minimaliserend. Donderdag gaf Liz Reid dan toch toe dat de technologie verbetering nodig had.
‘Stenen eten is niet iets wat veel mensen opzoeken, dus er waren niet zoveel bronnen voor de zoekmachine om zich op te baseren’, schreef ze. En dus kwam het algoritme uit op een artikel van de satirische site The Onion dat niet als dusdanig werd herkend omdat het op een andere site opnieuw was gepost. En dat lijmen van de pizza? De schuld van online-fora waar idiote tips werden gedeeld.
Technische verbeteringen
Reid protesteerde dat je de kwaliteit van Googles nieuwe zoekmethode niet mag beoordelen op basis van wat virale screenshots. Zeker nadat Wired kon blootleggen dat enkele van de rondgaande beelden fake zijn. Ze hekelde dat een aantal mensen de nieuwe feature bewust gebruiken om nonsens te genereren. Ook The New York Times moest met schaamrood op de wangen toegeven dat AI Overviews nooit heeft gesuggereerd om bij depressie van de Golden Gatebrug te springen.
Niettemin gaf Reid toch toe dat de originele AI Overview niet helemaal goed werkte, en ze voegt er aan toe dat het bedrijf meer dan een dozijn technische verbeteringen heeft aangebracht. Daaronder een betere detectie van ‘onzinvragen’, minder gewicht geven aan sites als Reddit en sterkere maatregelen die vermijden dat AI advies over belangrijke onderwerpen als gezondheid geeft.
Verder liet Google weten dat ze feedback van gebruikers blijft opvolgen, en de technologie zal bijsturen waar nodig.
Fout opgemerkt of meer nieuws? Meld het hier