Europese privacywaakhond: ‘ChatGPT maakt nog te veel fouten’
Ondanks inspanningen van OpenAI blijft ChatGPT te vaak fouten maken om in regel te zijn met Europese regels rond data. Dat stelt de Europese privacywaakhond.
Op een rapport dat Reuters kon inkijken stelt de European Data Protection Board, die de nationale databeschermingsautoriteiten verenigt, dat OpenAI maatregelen heeft genomen om in lijn te zijn met Europese regels, onder meer om foute resultaten te beperken. Maar die zijn nog niet voldoende.
Vorig jaar werd er een taskforce opgezet rond ChatGPT. De aanleiding was de Italiaanse bezorgdheid over de populaire AI chatbot. Nadien begonnen verschillende Europese lidstaten hun eigen onderzoek, die zijn nog niet allemaal afgerond, maar de voorlopige consensus is wel dat ChatGPT nog niet goed genoeg is naar Europese normen.
‘Door de problematische aard van het systeem, zorgt de huidige trainingsaanpak voor een model dat ook bevooroordeelde of verzonnen resultaten geeft,’ klinkt het in het rapport.
Het wringt daarbij vooral dat die antwoorden als correct worden voorgesteld, en vaak ook als feitelijk juist worden geïnterpreteerd. Daarbij geeft ChatGPT ook regelmatig foute informatie over individuen, wat het des te gevoeliger maakt voor de data-autoriteiten.
Fout opgemerkt of meer nieuws? Meld het hier