Chatalgoritme GPT-3 zonder medeweten gebruikt in psychologisch experiment
Koko, een online platform voor mentaal welzijn, heeft zo’n 4.000 gebruikers advies gegeven dat werd geschreven door een AI, zonder hen daarvan eerst op de hoogte te stellen. De oprichter van Koko meldt dat trots op Twitter, maar werd al snel op de ethische consequenties gewezen.
Koko is nonprofit die een (engelstalig) online platform voor mentaal welzijn uitbaat. In de praktijk gaat het om een Discord-server waar je kan inloggen om anoniem je zorgen te uiten tegenover een andere anonieme gebruiker. Die andere gebruikers zijn geen psychologen, maar ‘mensen net als jij’, volgens de inleiding op de server zelf.
Maar soms is het dus een AI. Rob Morris, oprichter van Koko, kondigde op Twitter aan dat hij een psychologisch experiment heeft uitgevoerd waarbij hij voor 4.000 hulpzoekers een antwoord liet genereren door GPT-3, een geavanceerd taalalgoritme. De gebruikers die aan de antwoordkant zaten, konden dan dat bericht kiezen om sneller te antwoorden.
Conclusie van het experiment, schrijft Morris in zijn tweet, is dat deze gesimuleerde vorm van empathie sneller gaat maar ‘vreemd aanvoelt’. De hulpzoekers waren initieel zeer blij met de antwoorden van de AI, maar reageerden negatief wanneer ze te weten kwamen dat het geen echte mens was.
Morris deed de test naar eigen zeggen om te waarschuwen voor het gebruik van te veel technologie in psychologisch welzijn, maar werd er op Twitter ook al snel op gewezen dat hij een illegaal psychologisch experiment heeft uitgevoerd op kwetsbare mensen en dat dat redelijk onethisch is. In de VS (en in de meeste landen ter wereld) moet elk psychologisch experiment, ook als dat niet ‘officieel’ is, eerst worden goedgekeurd door een panel van wetenschappers die nagaan of het experiment schadelijk kan zijn.
Fout opgemerkt of meer nieuws? Meld het hier