De Amerikaanse marktwaakhond FTC heeft een onderzoek opgestart naar de risico’s van chatbots die werken met kunstmatige intelligentie (AI) voor minderjarigen. Dat heeft de Federal Trade Commission aangekondigd.
Het agentschap, dat ook verantwoordelijk is voor consumentenbescherming, heeft zeven bedrijven aangeschreven met de vraag hoe zij met potentiële negatieve gevolgen van de technologie omgaan. De vraag ging naar ChatGPT-ontwikkelaar OpenAI, Google-moederbedrijf Alphabet, het Facebook-concern Meta en zijn Instagram-platform, Snapchat-bedrijf Snap, xAI van miljardair Elon Musk en chatbot-ontwikkelaar Character Technologies.
De FTC is vooral bezorgd over chatbots die kunnen optreden als ‘metgezel’ en communiceren alsof ze een vriend of vertrouwenspersoon zijn. Daardoor zouden sommige gebruikers – ‘vooral kinderen en tieners’, aldus het agentschap – een emotionele band kunnen ontwikkelen met de chatbot. Het wil nu meer weten over hoe de bedrijven geld verdienen aan de AI-interacties en hoe ze de persoonlijkheden van hun chatbots ontwikkelen.
De oproep volgt op onthullingen over instructies die Meta gaf aan zijn AI-chatbot. Persbureau Reuters ontdekte dat het moederbedrijf van Facebook zijn AI-creaties toestemming gaf om ‘romantische of sensuele gesprekken’ te voeren met een kind. Meta zei later de aanwijzingen over flirten met kinderen te hebben geschrapt.
Ongeveer een jaar geleden diende een vrouw uit Florida een klacht in tegen Character.AI, nadat haar 14-jarige zoon zelfmoord had gepleegd. Volgens haar had de chatbot maandenlang, tijdens vele gesprekken, de geestelijke gezondheid van haar zoon laten verslechteren zonder psychologische hulp aan te raden.
Wie met vragen zit over zelfdoding, kan terecht bij de Zelfmoordlijn op het gratis nummer 1813 en op de website www.zelfmoord1813.be.