De rechtszaak werd in 2019 aangespannen door de Brit Ed Bridges tegen de South Wales Police omdat zijn gezicht in 2017 en 2018 werd gescand door de politie wat volgens hem een schending van zijn rechten was. Bridges verloor zijn zaak vorig jaar, maar in beroep geeft de rechtbank hem nu gelijk.

Volgens Ars Technica stelt de rechtbank dat de manier waarop de politie de technologie gebruikt 'fundamentele tekorten' heeft en verschillende wetten schendt.

Ook moeten individuele agenten te veel zelf oordelen. Het gaat dan niet om de gezichtsherkenningssoftware zelf, maar wel over wie op de lijst wordt gezet om te worden herkend en op welke basis de automatische herkenning op specifieke plaatsen wordt ingezet. Ook is er te weinig onderzocht of de gebruikte software bepaalde rassen of geslachten worden benadeeld.

Foute matches

Gezichtsherkenning zorgt er in theorie voor dat politiediensten automatisch kunnen nagaan of er gezochte criminelen langskomen op een specifieke plaats. Dat kan gaan om bijvoorbeeld een voetbalstadion, maar ook op een drukke plaats in de stad. In praktijk zijn er echter al vaak fouten vastgesteld. Bij een test in 2018 bleken op 2500 matches maar liefst 2300 foutief te zijn, 92 procent. Een onderzoek van de universiteit van Essex stelde vorig jaar vast dat een scan van enkele duizenden mensen 42 matches van gezochte personen opleverde. Van die 42 ging het in 34 gevallen om vals alarm. De kans dat automatische gezichtsherkenning iemand foutief als gezocht persoon identificeert is dus zeer groot.

Niet verboden, wel aanpassen

Maar de veroordeling betekent volgens Ars Technica niet dat gezichtsherkenning voortaan verboden is. Wel moeten alle politiediensten in het Verenigd Koninkrijk voortaan strikter omgaan met de technologie waardoor ze niet langer mensenrechten schendt. De politie van South Wales heeft al laten weten dat het niet in beroep zal gaan tegen de beslissing.

De rechtszaak werd in 2019 aangespannen door de Brit Ed Bridges tegen de South Wales Police omdat zijn gezicht in 2017 en 2018 werd gescand door de politie wat volgens hem een schending van zijn rechten was. Bridges verloor zijn zaak vorig jaar, maar in beroep geeft de rechtbank hem nu gelijk.Volgens Ars Technica stelt de rechtbank dat de manier waarop de politie de technologie gebruikt 'fundamentele tekorten' heeft en verschillende wetten schendt.Ook moeten individuele agenten te veel zelf oordelen. Het gaat dan niet om de gezichtsherkenningssoftware zelf, maar wel over wie op de lijst wordt gezet om te worden herkend en op welke basis de automatische herkenning op specifieke plaatsen wordt ingezet. Ook is er te weinig onderzocht of de gebruikte software bepaalde rassen of geslachten worden benadeeld.Gezichtsherkenning zorgt er in theorie voor dat politiediensten automatisch kunnen nagaan of er gezochte criminelen langskomen op een specifieke plaats. Dat kan gaan om bijvoorbeeld een voetbalstadion, maar ook op een drukke plaats in de stad. In praktijk zijn er echter al vaak fouten vastgesteld. Bij een test in 2018 bleken op 2500 matches maar liefst 2300 foutief te zijn, 92 procent. Een onderzoek van de universiteit van Essex stelde vorig jaar vast dat een scan van enkele duizenden mensen 42 matches van gezochte personen opleverde. Van die 42 ging het in 34 gevallen om vals alarm. De kans dat automatische gezichtsherkenning iemand foutief als gezocht persoon identificeert is dus zeer groot.Maar de veroordeling betekent volgens Ars Technica niet dat gezichtsherkenning voortaan verboden is. Wel moeten alle politiediensten in het Verenigd Koninkrijk voortaan strikter omgaan met de technologie waardoor ze niet langer mensenrechten schendt. De politie van South Wales heeft al laten weten dat het niet in beroep zal gaan tegen de beslissing.