OpenAI komt met veiligheidsplan voor AI
OpenAI zegt dat het een framework klaar heeft om de mogelijke gevaren van haar AI-systeem te beperken.
Het zogenaamde Preparedness Framework moet processen beschrijven, opvolgen, evalueren en voorspellen om zo te beschermen tegen ‘catastrofische risico’s’ door sterker wordende AI. Dat gebeurt op technisch niveau.
Er komt onder meer een scorekaart die onder meer rond cybersecurity en autonomie systemen moet labelen, om in te schatten hoe groot het risico is. Ook zal de raad van bestuur beslissingen rond AI kunnen terugdraaien als het dat nodig acht.
Het geheel blijft nog vrij vaag en theoretisch, maar OpenAI moet ook duidelijk maken dat het wel degelijk met veiligheid bezig is. Sinds de komst van ChatGPT is er veel speculatie over hoe fout het kan gaan met AI. Ook duiken er soms voorbeelden op van hoe het mogelijk is om een chatbot te ‘hacken’ door het bepaalde vragen te stellen en andere taken te laten uitvoeren of bepaalde antwoorden te laten genereren.
Tegelijk werd er afgelopen jaar ook opgeroepen om OpenAI haar ontwikkelingen te laten pauzeren, al kwam die oproep ook van partijen die achterop lopen, zoals Elon Musk. Met dergelijke initiatieven rond veiligheid wil OpenAI vermoedelijk duidelijk maken dat veiligheid en mogelijke risico’s wel degelijk worden bestudeerd en mogelijk tegengehouden.
Fout opgemerkt of meer nieuws? Meld het hier