Een ongenoemd politiedepartement in Californië wilde de gezichtsherkenning inzetten om verdachten te zoeken, maar Microsoft heeft dat afgewezen, zegt directeur Brad Smith. Hij geeft aan dat die gezichtsherkenning voornamelijk getraind werd op foto's van blanken en mannen en dat die dus zou kunnen leiden tot een oneerlijke profilering van vrouwen en minderheden. Het plan van de politie was om een gezichtsscan te doen bij verkeerscontroles, om te zien of de chauffeurs ook in een database van verdachten zaten. Door een onevenwicht in de database zouden er echter vaker fouten gebeuren met vrouwen en minderheden, waardoor die ook vaker zouden worden opgepakt ter verhoor. "We zeiden, dit is niet het antwoord op je vraag", aldus Smith.

Hij deed de uitspraken op een conferentie over 'op de mens gerichte kunstmatige intelligentie' aan de universiteit van Stanford. Het was een van de voorbeelden die hij gaf om aan te tonen dat zijn bedrijf durft nee te zeggen tegen deals waarbij de technologie mogelijk tot discriminatie of misbruik kan leiden.

Tijdens hetzelfde gesprek meldde Smith ook dat Microsoft een aanbod heeft afgewezen om gezichtsherkenning in te bouwen in een systeem van camera's die overal in de hoofdstad van een ongenoemd land staan. Die deal zou zijn afgesprongen omdat het land volgens non-profit Freedom House geen vrij land is, en er dus de angst bestaat dat het systeem wordt gebruikt om de bevolking te onderdrukken.

Ethisch of lucratief?

Microsoft is een van de luidste stemmen in de discussie over hoe techbedrijven de ethische impact van hun werk moeten balanceren met hun winstmarge. Kunstmatige intelligentie is hier een typevoorbeeld, omdat het bijzonder krachtig kan zijn, maar ook misbruikt kan worden door autoritaire regimes. Microsoft heeft eerder al opgeroepen tot regulering van de technologie, en belooft zelf dat het nooit zal meewerken aan autonome wapens of 'killer robots'. Het bedrijf probeert ook om de ethische redenering achter zijn beslissingen uit te leggen. Zo geeft Microsoft aan dat dat het wel besloot om gezichtsherkenning te leveren aan een Amerikaanse gevangenis, nadat het bedrijf zich ervan verzekerd had dat de camera's in een specifieke, afgelijnde omgeving zou worden ingezet, en dat ze de veiligheid in de instelling zou verbeteren.

Veel techbedrijven worstelen met de ethische impact van hun technologie. Google heeft bijvoorbeeld ethische richtlijnen voor zichzelf uitgeschreven, nadat eigen medewerkers in opstand kwamen tegen projecten rond drone-camera's van het Pentagon. Amazon, van zijn kant, krijgt dan weer kritiek van werknemers en zelfs aandeelhouders voor het verkopen van gezichtsherkenningstechnologie aan politiediensten.

Maar ook voor bedrijven die hun best doen om ethisch te handelen, is het niet altijd makkelijk. Zo kwam Microsoft zelf in opspraak omdat het bedrijf samenwerkte met een universiteit die gerund wordt door het Chinese leger. Het bedrijf en de universiteit brachten samen drie AI-papers uit, waaronder eentje dat methodes beschrijft om de locatie te identificeren waar beelden zijn genomen, via de mensen die erop staan. Gevreesd wordt dat de Chinese overheid met die technologie haar surveillance-mogelijkheden nog zou kunnen uitbreiden.