Dit gesprek kan worden opgenomen voor kwaliteitsdoeleinden. Wie dat zinnetje nog nooit gehoord heeft, moet zowat de gelukkigste mens ter wereld zijn. Gelukkig, want bespaard gebleven van lange wachttijden bij de klantendienst. Maar misschien ook gelukkig omdat hij of zij niét geprofileerd wordt op stem. Hoe we spreken, onze intonatie, de klemtonen die we leggen, het volume, en de woorden die we gebruiken zijn namelijk allemaal voer voor analyse. Dat kan ook in real time én het bepaalt vervolgens hoe de medewerker aan de andere kant van de lijn je het best benadert.

Ik ben het niet die dit beweert, maar wel Dr. Joseph Turow, professor aan de University of Pennsylvania, wiens boek 'The Voice Catchers' ik onlangs las. Daarin waarschuwt hij voor de gevaren van stemanalyse en patroonherkenning en hoe die best wel eens een nieuw hellend vlak kunnen zijn voor 'big tech' om nog meer persoonlijke gegevens over u en mij te gaan vermarkten. Een slimme assistent als Google Assistent, Siri of Alexa die niet langer alleen onze stem herkent, maar daar ook ons gemoed uit afleidt. "Hier, koop wat chocolade want je bent er duidelijk aan toe", zoiets.

Biometrisch instrument

Aanvaarden we het risico dat onze eigen stem voortaan een biometrisch instrument is waarop naar hartenlust algoritmes kunnen worden losgelaten? Aanvaarden we de zo meer gepersonaliseerde promoties? Als we er effectief voordeel uit kunnen halen, is het antwoord voor velen onder ons nog wel ja. Maar aanvaarden we dan ook dat het mis kan lopen? Dat de algoritmes een verkeerde analyse van ons stempatroon maken en ons niet laten solliciteren voor een bepaalde job op basis van ons geanalyseerde profiel?

Want wat als de digitale assistenten van nu écht evolueren en ook onze onderliggende wensen, diepe gedachten en karaktereigenschappen denken te kunnen herkennen? En als die gegevens vermarkt worden richting verzekeraars, banken, rekruteerders of securitybedrijven en zelfs lokale politiediensten? Onder het mom dat we er als maatschappij beter van worden maar in de wetenschap dat die analyse helemaal niet waterdicht is. En voor zover ik weet op dit ogenblik ook nog helemaal niet bewezen, waardoor stemanalyse in hetzelfde bedje ziek is als frenologie: de pseudo-wetenschappelijke theorie die stelt dat aanleg en persoonlijkheid kunnen worden afgeleid uit de vorm van een schedel. Frenologie lag zo aan de basis van heel wat racisme; wie zegt dat dit niet kan gebeuren met stemanalyse?

Aanvaarden we dat het mis kan lopen met onze stem?

Het meest verontrustende is dat bedrijven op z'n minst onderzoeken hoe ze meer waarde uit uw stem kunnen halen. Rohit Prasad, de chief scientist achter slimme Amazon-assistent Alexa, liet in 2019 al weten dat Amazon 'frustration detection' gaat testen. Google heeft een patent in handen waarmee het aan de hand van stemanalyse bepaalt waar alle gezinsleden zich in huis bevinden. Een ander patent gaat over het herkennen van geslacht en leeftijd.

En er zijn ook nieuwe spelers: 'Hey Spotify' is de bijna stiekem gelanceerde voice-assistent van muziek-app Spotify. Van datzelfde Spotify raakte in januari bekend dat het een patent kreeg toegekend om stemmen te herkennen en songs aan te raden op basis van 'geslacht, leeftijd, accent of emotionele toestand'. Na protest van muzikanten, mensenrechtenorganisaties en bezorgde burgers liet Spotify weten dat het geen concrete plannen heeft om het patent te gebruiken.

Heeft Joseph Turow nu gelijk om ons te waarschuwen dat onze eigen stem data genereert voor marketingdoeleinden? Eerlijk, ik weet het niet 100% zeker. Maar ik weet wel dat we niet naïef moeten zijn. Het bedenkelijke ethische palmares van 'big tech' in de afgelopen jaren - Facebook voorop - bewijst dat alleen maar. Joseph Turow hoopt met zijn boek vooral een debat over de kracht en de gevaren van voice-technologie te openen. Daarvoor is het nog net niet te laat.

Dit gesprek kan worden opgenomen voor kwaliteitsdoeleinden. Wie dat zinnetje nog nooit gehoord heeft, moet zowat de gelukkigste mens ter wereld zijn. Gelukkig, want bespaard gebleven van lange wachttijden bij de klantendienst. Maar misschien ook gelukkig omdat hij of zij niét geprofileerd wordt op stem. Hoe we spreken, onze intonatie, de klemtonen die we leggen, het volume, en de woorden die we gebruiken zijn namelijk allemaal voer voor analyse. Dat kan ook in real time én het bepaalt vervolgens hoe de medewerker aan de andere kant van de lijn je het best benadert. Ik ben het niet die dit beweert, maar wel Dr. Joseph Turow, professor aan de University of Pennsylvania, wiens boek 'The Voice Catchers' ik onlangs las. Daarin waarschuwt hij voor de gevaren van stemanalyse en patroonherkenning en hoe die best wel eens een nieuw hellend vlak kunnen zijn voor 'big tech' om nog meer persoonlijke gegevens over u en mij te gaan vermarkten. Een slimme assistent als Google Assistent, Siri of Alexa die niet langer alleen onze stem herkent, maar daar ook ons gemoed uit afleidt. "Hier, koop wat chocolade want je bent er duidelijk aan toe", zoiets. Aanvaarden we het risico dat onze eigen stem voortaan een biometrisch instrument is waarop naar hartenlust algoritmes kunnen worden losgelaten? Aanvaarden we de zo meer gepersonaliseerde promoties? Als we er effectief voordeel uit kunnen halen, is het antwoord voor velen onder ons nog wel ja. Maar aanvaarden we dan ook dat het mis kan lopen? Dat de algoritmes een verkeerde analyse van ons stempatroon maken en ons niet laten solliciteren voor een bepaalde job op basis van ons geanalyseerde profiel? Want wat als de digitale assistenten van nu écht evolueren en ook onze onderliggende wensen, diepe gedachten en karaktereigenschappen denken te kunnen herkennen? En als die gegevens vermarkt worden richting verzekeraars, banken, rekruteerders of securitybedrijven en zelfs lokale politiediensten? Onder het mom dat we er als maatschappij beter van worden maar in de wetenschap dat die analyse helemaal niet waterdicht is. En voor zover ik weet op dit ogenblik ook nog helemaal niet bewezen, waardoor stemanalyse in hetzelfde bedje ziek is als frenologie: de pseudo-wetenschappelijke theorie die stelt dat aanleg en persoonlijkheid kunnen worden afgeleid uit de vorm van een schedel. Frenologie lag zo aan de basis van heel wat racisme; wie zegt dat dit niet kan gebeuren met stemanalyse? Het meest verontrustende is dat bedrijven op z'n minst onderzoeken hoe ze meer waarde uit uw stem kunnen halen. Rohit Prasad, de chief scientist achter slimme Amazon-assistent Alexa, liet in 2019 al weten dat Amazon 'frustration detection' gaat testen. Google heeft een patent in handen waarmee het aan de hand van stemanalyse bepaalt waar alle gezinsleden zich in huis bevinden. Een ander patent gaat over het herkennen van geslacht en leeftijd. En er zijn ook nieuwe spelers: 'Hey Spotify' is de bijna stiekem gelanceerde voice-assistent van muziek-app Spotify. Van datzelfde Spotify raakte in januari bekend dat het een patent kreeg toegekend om stemmen te herkennen en songs aan te raden op basis van 'geslacht, leeftijd, accent of emotionele toestand'. Na protest van muzikanten, mensenrechtenorganisaties en bezorgde burgers liet Spotify weten dat het geen concrete plannen heeft om het patent te gebruiken. Heeft Joseph Turow nu gelijk om ons te waarschuwen dat onze eigen stem data genereert voor marketingdoeleinden? Eerlijk, ik weet het niet 100% zeker. Maar ik weet wel dat we niet naïef moeten zijn. Het bedenkelijke ethische palmares van 'big tech' in de afgelopen jaren - Facebook voorop - bewijst dat alleen maar. Joseph Turow hoopt met zijn boek vooral een debat over de kracht en de gevaren van voice-technologie te openen. Daarvoor is het nog net niet te laat.