Indiase regering wil AI-tools goedkeuren voor lancering
Wie een AI-tool in India beschikbaar maakt, moet daarvoor goedkeuring vragen aan de overheid en waarschuwen voor fouten.
Het gaat om tools die in hun testfase onbetrouwbare antwoorden genereren, waarvan de overheid wil dat ze op voorhand toestemming vragen aan de overheid. Dat stelt het ministerie van Electronika en Informatietechnologie, cyberwetgeving en data governance in een nieuwe richtlijn.
De richtlijn stelt verder dat LLM’s, software of algoritmes geen onwettige inhoud hosten, tonen, uploaden, delen of publiceren. Ook stelt het voor dat AI-tools een label krijgen om te melden dat ze mogelijk foute of onbetrouwbare antwoorden geven.
Verder in de richtlijn klinkt het dat kunstmatige creaties zoals deepfake video’s of gemanipuleerde audio die kunnen gebruikt worden om te misleiden, een label krijgen, mogelijk in de metadata, om daarop te wijzen.
Enerzijds de tekst geen wet en geen absolute verplichting om elke tool langs de overheid te sturen, bijvoorbeeld als die voldoende getest werd en relatief onschuldig is. Maar de richtlijn stelt wel dat wie de regels niet naleeft, mogelijk kan vervolgd worden.
Europa en VS
De opkomst van AI gaat de laatste maanden sterk gepaard met pogingen tot regulering. In Europa werkt met momenteel aan de AI Act, maar ook in de VS wordt er momenteel over nagedacht.
De regels in India komen er een week na sterke kritiek op Google’s Gemini AI tool. Er doken immers voorbeelden op die het beleid van huidig premier Modi als fascistisch bestempelden. Google excuseerde zich daarvoor en zei dat de tool niet altijd betrouwbaar kon zijn voor actuele en politieke onderwerpen.
Fout opgemerkt of meer nieuws? Meld het hier