Politici in de VS hebben een wetsvoorstel ingediend dat grote bedrijven zou verplichten om hun machine-learning systemen te auditen voordat ze worden uitgerold. Het gaat dan bijvoorbeeld om algoritmes rond gezichtsherkenning of systemen om advertenties op maat te sturen. Die moeten eerst getest worden op discriminatie. Het wetsvoorstel moet vermijden dat er 'bias' of vooringenomenheid, in die systemen sluipt.

Als het wetsvoorstel erdoor geraakt, dan zal de Federal Trade Commission, de Amerikaanse consumentenwaakhond, regels moeten maken voor het evalueren van 'gevoelige' geautomatiseerde systemen. Bedrijven moeten dan dubbelchecken of hun algoritmes niet discrimineren, en of ze een mogelijk gevaar voor de privacy of de veiligheid van consumenten kunnen vormen.

Het wetsvoorstel speelt in op een (bij momenten gegronde) angst voor kunstmatige intelligentie die via machine learning of deep learning is opgebouwd, en die mogelijk gevolgen heeft voor het leven van mensen. Voorbeelden van algoritmische bias zijn er ondertussen genoeg, van seksistische vertaalrobots over antisemitische zoeksuggesties tot gezichtsherkenning die het lastig heeft met donkere huidskleuren. Nu die systemen steeds vaker gebruikt worden voor mogelijk gevoelige processen, zoals het invullen van vacatures, of surveillance, lijkt het des te belangrijker dat de algoritmes ook neutraal zijn.

Het wetsvoorstel zou gelden voor bedrijven die meer dan 50 miljoen dollar per jaar aan inkomsten hebben, en gegevens beheren van minstens een miljoen mensen of toestellen. Zij worden nu geacht om hun algoritmes te evalueren op fouten die een effect kunnen hebben op de legale rechten van consumenten. In de praktijk komt dat neer op een meerderheid van de huidige tech-economie. Tegenstanders van het wetsvoorstel, zeggen dat het een limiet zet op de mogelijke efficiëntie van dit soort toepassingen.