China komt met strenge wetgeving voor AI-chatbots

© Getty Images
Els Bellens
Els Bellens Technologiejournaliste bij Data News

China heeft een nieuwe reeks richtlijnen uitgeschreven die AI-chatbots moeten verbieden om hun gebruikers emotioneel te manipuleren. Dat moet onder meer zelfmoord voorkomen.

Het zou de strengste wetgeving kunnen worden die momenteel ter wereld bestaat rond de nieuwe technologie van chatbots die generatieve AI gebruiken. Als de regels worden goedgekeurd, zullen ze gelden voor alle AI-producten en -diensten die publiek in China beschikbaar zijn om conversaties te simuleren via tekst, beelden, audio, video en ‘andere middelen’.

In de regels staat onder meer dat er een mens moet opgeroepen worden zodra er over zelfmoord wordt gepraat. Minderjarigen en ouderen moeten ook contactinformatie van een voogd opgeven wanneer ze zich registreren, en die voogd krijgt een notificatie wanneer de gebruiker over zelfmoord of zelfverwonding praat.

Daarnaast mogen de bots geen obsceniteit, gokken en andere misdaden promoten. Misschien nog opvallender is dat het AI-bots verboden wordt om ‘het promoten van verslaving en afhankelijkheid’ als ontwerpdoelen in te bouwen.

Wie met vragen zit over zelfdoding kan terecht op de Zelfmoordlijn, op het gratis nummer 1813, of op zelfmoordlijn1813.be. Nood aan een gesprek? Dan kun je 24/7 terecht bij Tele-Onthaal op het nummer 106. Je kan ook chatten via tele-onthaal.be . Jongeren kunnen terecht bij Awel op telefoonnummer 102, of via chat op awel.be.

Ouders van verschillende tieners die zelfmoord pleegden hebben het voorbije jaar rechtszaken aangespannen tegen onder meer OpenAI, het bedrijf dat ChatGPT uitbrengt. Daarbij beschuldigen ze de makers van de bot ervan dat die zeer ver meegaat in mogelijk problematisch gedrag, net om gebruikers aan de chatbot te binden. Onderzoekers van de technologie rapporteren ook dat AI-gezellen soms zelfverwonding, geweld en terrorisme promoten, naast het delen van onder meer desinformatie. ChatGPT heeft ondertussen aanpassingen gekregen om minder meegaand te zijn, maar tegen betaling kan je nog de oude ‘persoonlijkheid’ gebruiken die zowat alles wat je zegt bevestigt, ook als dat mogelijk schadelijk kan zijn voor je mentale gezondheid.

OpenAI komt met ouderlijk toezicht voor ChatGPT

Fout opgemerkt of meer nieuws? Meld het hier

Partner Expertise