Is de overheid klaar voor AI?
Overheden hebben cloud, smart cities, micro services. Er is ondertussen ook een overkoepelende privacyregeling, maar hoe ver staan we als het op kunstmatige intelligentie aankomt? Zijn daar regels voor, en hoe zou zo’n framework er dan uit moeten zien?
Midden maart stelde ons land zijn strategie voor kunstmatige intelligentie voor. Uittredend ministers Alexander De Croo en Philippe De Backer kwamen, na overleg met sectorfederaties en onderzoekers, naar buiten met een reeks aanbevelingen en een plan onder de naam AI4Belgium. “We zijn naar de experten gestapt, en hebben hen gevraagd wat er nodig is om een Belgische strategie te bouwen”, zegt Philippe De Backer. “Bedoeling is momentum te creëren om België op de kaart te zetten voor AI.”
Dat momentum moet er komen met, onder meer, een universeel opleidingsprogramma, een hedendaags wettelijk kader, ethische richtlijnen en transparantie. België loopt met zijn plan iets achter op de buurlanden, maar als het om ethische richtlijnen gaat, kijkt iedereen op dit moment vooral naar Europa, dat eerder ook de regels voor bijvoorbeeld digitale privacy uittekende.
Met regels voor AI is de organisatie nog bezig, zegt Mieke De Ketelaere op dat moment nog Ethical AI Evangelist bij SAS, ondertussen bij imec. Zij werkt voor de Europese Commissie als ‘challenger’ mee aan deze richtlijnen. Het komt er op neer dat zij de voorstellen kritisch bekijkt. “En ik vind ze te generiek”, vertelt ze aan Data News. “Als je het voorbeeld neemt van bias (vooringenomenheid), dat gaat in zoveel richtingen dat wat eruit komt nog altijd vrij vaag is. De richtlijnen die voorliggen zijn erg overkoepelend, zonder concreet te gaan.”
Voor haar wordt er vooralsnog te weinig rekening gehouden met de insteek van verschillende sectoren. “Bias in HR is heel anders dan bias in misdaadbestrijding”, legt ze uit. “En bias is dan nog maar een onderdeel van ethiek. Ze zijn ermee bezig, maar er is nog veel werk aan. Als je zegt, ‘ik ben expert in AI’, dan is dat als zeggen ‘ik ben expert in geneeskunde’. Dan ben je niet echt expert. Je kan wel bijvoorbeeld expert zijn in kankerbestrijding voor huidkankers. Met AI is dat net zo. Je gaat geen expert zijn in AI, maar je bent misschien expert in AI specifiek voor systemen die een impact hebben op mensen in human resource domeinen. Maar zo specifiek gaan die guidelines niet, en in die zin kunnen ze nog een pak beter.”
En elders
Europa is natuurlijk niet de enige die aan een kader werkt. Een van de landen waar ze al wel vrij ver staan is bijvoorbeeld Singapore. Het land schuift zichzelf naar voren als model voor AI governance, zeker in Azië, en het is het eerste land in die regio dat een Model AI Governance Framework naar buiten brengt. Voor de ontwikkeling ervan werkte de IMDA (de Infocomm and Media Development Authority, de Singaporese telecomregulator) samen met de private sector en datawetenschappers.
“We wilden een framework dat gebouwd is op twee principes. Ten eerste, de beslissingen die gemaakt worden met, of met de hulp van, kunstmatige intelligentie moeten verklaarbaar, transparant en rechtvaardig zijn ten opzichte van consumenten. Daarnaast moeten de AI-oplossingen die bedrijven maken de mens centraal zetten”, zegt Zee Kin Yeong, assistant chief executive bij de IMDA.
In de richtlijnen staat onder meer de nood aan data management. Ook boeiend, een shift van ‘compliance’ ( het naleven van de wet) richting ‘accountability’ (verantwoordelijkheid). “Singapore erkent dat een robuust gegevensbeschermingsregime noodzakelijk is [om mensen vertrouwen in de technologie te geven nvdr.]. Om een ecosysteem van vertrouwen te bouwen, moeten we verder gaan dan pro forma naleving van de wetten voor gegevensbescherming [..].”
Fout opgemerkt of meer nieuws? Meld het hier