De Sutter schrijft de brief naar de verschillende federale overheidsdiensten in het kader van openbaarheid van bestuur. Ze pleit daarin om zo transparant mogelijk te zijn rond welke algoritmes worden gebruikt. 'Burgers zouden moeten kunnen lezen welke algoritmes overheidsinstellingen gebruiken, zeker degenen die te maken hebben met beslissingen die mensen raken,' klinkt het bij De Sutter.

Vandaag is het gebruik daarvan binnen de federale overheid nog maar beperkt. Maar er worden wel al tools gebruikt om vragen van burgers te beantwoorden, maar op termijn zal het gebruik er van toenemen, daarom dat De Sutter pleit om nu al duidelijke afspraken te maken.

VK: Punten op basis van woonplaats

Die transparantie is geen overbodige luxe. De afgelopen jaren zijn al vaker situaties opgedoken waarbij bleek dat een algoritme zorgt voor een ongelijke behandeling. In 2020 kregen heel wat Britse studenten door de corona pandemie een cijfer door AI toegewezen voor hun GCSE, de examens die hun toelatingskansen op prestigieuze universiteiten bepalen.

Officieel was dat op basis van hun eerdere prestaties, maar in praktijk nam het algoritme ook zaken mee zoals hun locatie. Dat zorgde er voor dat armere leerlingen, vaak wonend in specifieke wijken of steden, lagere punten kregen dan een leerling uit een rijke buurt. Het systeem werd later bijgesteld, maar pas na fel protest.

Uitlegbaar

Hoe ver die transparantie moet gaan, staat nog niet vast. De kern is vooral dat er transparantie is over hoe er wordt beslist. 'Dat moet uitlegbaar zijn,' zegt De Sutter. 'Federale overheidsdiensten kunnen dat publiceren op hun websites. Niet alle algoritmes moeten zomaar online worden gezet. De wet Openbaarheid van Bestuur zegt bijvoorbeeld dat privacy of geheimhouding moeten gerespecteerd worden. Maar we willen bij overheidsdiensten het bewustzijn aanscherpen over de mogelijke gevolgen van zoiets gecompliceerd als kunstmatige intelligentie,'

De minister is zeker niet tegen AI en benadrukt daarbij het nut van kunstmatige intelligentie voor heel veel sectoren. Maar tegelijk wil ze vooral voorkomen dat ons land geen systemen inzet die leiden tot onterechte uitkomsten, verwijzend naar de toeslagenaffaire in Nederland. 'Zeker als overheid kunnen we echt mee nadenken over standaarden waardoor kunstmatige intelligentie niet leidt tot onterechte uitkomsten en beslissingen,' aldus minister De Sutter.

Momenteel bezoekt De Sutter een conferentie rond AI en ethiek in Praag, georganiseerd door de EU en de VN. 'De baseline van de conferentie is duidelijk: "ensuring inclusion in the AI world". We moeten onze waarden en onze ethiek toepassen op algoritmen. Ook de belangrijke rol die menselijke toezicht krijgt in al de ontwikkelingen van kunstmatige intelligentie is een cruciaal aspect.' Aldus de minister.

De Sutter schrijft de brief naar de verschillende federale overheidsdiensten in het kader van openbaarheid van bestuur. Ze pleit daarin om zo transparant mogelijk te zijn rond welke algoritmes worden gebruikt. 'Burgers zouden moeten kunnen lezen welke algoritmes overheidsinstellingen gebruiken, zeker degenen die te maken hebben met beslissingen die mensen raken,' klinkt het bij De Sutter. Vandaag is het gebruik daarvan binnen de federale overheid nog maar beperkt. Maar er worden wel al tools gebruikt om vragen van burgers te beantwoorden, maar op termijn zal het gebruik er van toenemen, daarom dat De Sutter pleit om nu al duidelijke afspraken te maken.Die transparantie is geen overbodige luxe. De afgelopen jaren zijn al vaker situaties opgedoken waarbij bleek dat een algoritme zorgt voor een ongelijke behandeling. In 2020 kregen heel wat Britse studenten door de corona pandemie een cijfer door AI toegewezen voor hun GCSE, de examens die hun toelatingskansen op prestigieuze universiteiten bepalen.Officieel was dat op basis van hun eerdere prestaties, maar in praktijk nam het algoritme ook zaken mee zoals hun locatie. Dat zorgde er voor dat armere leerlingen, vaak wonend in specifieke wijken of steden, lagere punten kregen dan een leerling uit een rijke buurt. Het systeem werd later bijgesteld, maar pas na fel protest.Hoe ver die transparantie moet gaan, staat nog niet vast. De kern is vooral dat er transparantie is over hoe er wordt beslist. 'Dat moet uitlegbaar zijn,' zegt De Sutter. 'Federale overheidsdiensten kunnen dat publiceren op hun websites. Niet alle algoritmes moeten zomaar online worden gezet. De wet Openbaarheid van Bestuur zegt bijvoorbeeld dat privacy of geheimhouding moeten gerespecteerd worden. Maar we willen bij overheidsdiensten het bewustzijn aanscherpen over de mogelijke gevolgen van zoiets gecompliceerd als kunstmatige intelligentie,' De minister is zeker niet tegen AI en benadrukt daarbij het nut van kunstmatige intelligentie voor heel veel sectoren. Maar tegelijk wil ze vooral voorkomen dat ons land geen systemen inzet die leiden tot onterechte uitkomsten, verwijzend naar de toeslagenaffaire in Nederland. 'Zeker als overheid kunnen we echt mee nadenken over standaarden waardoor kunstmatige intelligentie niet leidt tot onterechte uitkomsten en beslissingen,' aldus minister De Sutter.Momenteel bezoekt De Sutter een conferentie rond AI en ethiek in Praag, georganiseerd door de EU en de VN. 'De baseline van de conferentie is duidelijk: "ensuring inclusion in the AI world". We moeten onze waarden en onze ethiek toepassen op algoritmen. Ook de belangrijke rol die menselijke toezicht krijgt in al de ontwikkelingen van kunstmatige intelligentie is een cruciaal aspect.' Aldus de minister.