Als je op Twitter een foto post, dan wordt die op je tijdlijn bijgesneden om te passen in de twitterfeed. Maar in de herfst van vorig jaar doken verschillende voorbeelden op van zeer selectief bijgesneden foto's. Het algoritme achter de tool zou daarbij opvallend vaker vrouwen en witte mensen tonen.

Twitter onderzocht in de maanden nadien haar tool en bevestigde in mei dat het algoritme inderdaad een voorkeur heeft voor die mensen. Mede daarom wordt het automatisch bijsnijden niet meer toegepast in de smartphone-app, maar de ambitie is wel om het probleem aan te pakken.

Nu organiseert Twitter, gedurende een week, een bug bounty om fouten in het systeem te ontdekken. Via HackerOne kan je 500 tot 3500 dollar verdienen als je kan aantonen waar het automatisch bijsnijden verkeerd loopt. Twitter geeft daarbij zelf een paper over het onderwerp vrij en heeft de code van de tool intussen gedeeld op Github.

AI bias

Aanvankelijk werd aangenomen dat computergestuurde beslissingen objectiever zouden zijn, maar de afgelopen jaren duiken wel vaker voorbeelden op van AI die dat net niet is. Dat kan onder meer gebeuren omdat de dataset waarop een tool zich baseert niet representatief is, of omdat de tools zijn ontwikkeld door bijvoorbeeld overwegend witte mannen.

Maar soms gaat het ook om data die in eerste instantie los van geslacht of huidskleur lijken te staan. Zo kregen scholieren in het VK vorig jaar een score op basis van een algoritme omdat er door corona geen examens mogelijk waren. Achteraf bleek dat het algoritme zich daarvoor baseerde op eerdere prestaties, maar ook op de postcodes van eerdere studenten, waardoor studenten uit bepaalde gebieden systematisch lagere scores kregen.

Als je op Twitter een foto post, dan wordt die op je tijdlijn bijgesneden om te passen in de twitterfeed. Maar in de herfst van vorig jaar doken verschillende voorbeelden op van zeer selectief bijgesneden foto's. Het algoritme achter de tool zou daarbij opvallend vaker vrouwen en witte mensen tonen.Twitter onderzocht in de maanden nadien haar tool en bevestigde in mei dat het algoritme inderdaad een voorkeur heeft voor die mensen. Mede daarom wordt het automatisch bijsnijden niet meer toegepast in de smartphone-app, maar de ambitie is wel om het probleem aan te pakken.Nu organiseert Twitter, gedurende een week, een bug bounty om fouten in het systeem te ontdekken. Via HackerOne kan je 500 tot 3500 dollar verdienen als je kan aantonen waar het automatisch bijsnijden verkeerd loopt. Twitter geeft daarbij zelf een paper over het onderwerp vrij en heeft de code van de tool intussen gedeeld op Github.Aanvankelijk werd aangenomen dat computergestuurde beslissingen objectiever zouden zijn, maar de afgelopen jaren duiken wel vaker voorbeelden op van AI die dat net niet is. Dat kan onder meer gebeuren omdat de dataset waarop een tool zich baseert niet representatief is, of omdat de tools zijn ontwikkeld door bijvoorbeeld overwegend witte mannen.Maar soms gaat het ook om data die in eerste instantie los van geslacht of huidskleur lijken te staan. Zo kregen scholieren in het VK vorig jaar een score op basis van een algoritme omdat er door corona geen examens mogelijk waren. Achteraf bleek dat het algoritme zich daarvoor baseerde op eerdere prestaties, maar ook op de postcodes van eerdere studenten, waardoor studenten uit bepaalde gebieden systematisch lagere scores kregen.