Googles onderzoeksrapporten over AI moeten positief zijn
Alphabet, het moederbedrijf van Google, heeft de controle over zijn onderzoekers verstrengd en eist onder meer dat hun technologie in rapporten niet in een negatief daglicht wordt gesteld.
Dat schrijft persagentschap Reuters op basis van interviews met onderzoekers. Google zou een nieuwe reviewprocedure hebben ingevoerd rond gevoelige thema’s. Daarin staat onder meer dat onderzoekers het legale departement, maar ook het PR-team moeten consulteren voordat ze onderwerpen als gezichtsanalyse, emotie-analyse of AI rond ras, gender of politieke voorkeur aansnijden. Het zou om een nieuwe procedure gaan die in juli dit jaar werd ingevoerd.
De procedure komt bovenop bestaande reviews die rapporten nakijken op bijvoorbeeld het vrijgeven van bedrijfsgeheimen, voordat ze worden gepubliceerd. Reuters schrijft onder meer over een rapport rond het aanbevelen van content, waarop een van de managers kort voor publicatie de auteurs aanspoorde om toch vooral een positieve toon te gebruiken als het gaat om de technologie, “weliswaar zonder de uitdagingen van de software te verbergen”. Googles dochtersite YouTube gebruikt dit soort aanbevelings-AI om nieuwe filmpjes aan te reiken
Censuur
Onderzoeken van bedrijfswetenschappers zijn natuurlijk nooit volledig onafhankelijk. We weten uit ervaring dat een sigarettenfabrikant geen rapport zal publiceren waaruit blijkt dat je van zijn product kanker krijgt. Google heeft echter lang het imago hooggehouden dat het een goede omgeving vormde voor wetenschappers en onderzoekers. Op zijn website meldt het bedrijf dat wetenschappers er ‘wezenlijke vrijheid’ krijgen bij hun onderzoeken. Maar dat is de laatste maanden dus een pak minder. “Als we onderzoek doen naar wat in onze expertise het juiste onderwerp is, en we mogen dat niet publiceren op een manier die in lijn ligt met peer review van hoge kwaliteit, dan komen we in de buurt van censuur”, zegt Margaret Michell, senior wetenschapper bij Google aan Reuters.
Vooral gevoelig liggen onderwerpen als ras, gender, en hoe AI daar mee omgaat. Er is – terecht – discussie over de impact van kunstmatige intelligentie bij het in stand houden of zelfs versterken van bestaande sociale problemen. Denk bijvoorbeeld aan de afgevoerde HR-bot van Amazon die geen vrouwen wilde aannemen, omdat Amazon in het verleden zo weinig vrouwen had aangenomen.
Vragen stellen over de ethische kant van AI komt echter vaak in het vaarwater van de commerciële belangen van een bedrijf dat vooral veel AI wil verkopen. Dat Google deze vragen niet publiek wil stellen, zagen we begin deze maand bij het ontslag van Timnit Gebru, een AI-onderzoekster die was aangetrokken om haar expertise rond ethiek in AI. Ze werd ontslagen om een rapport over ethiek in AI, specifiek bij het gebruik van bepaalde taalmodellen. Google had gevraagd dat rapport niet te publiceren, en zij ging daarop met haar werkgever in discussie, wat tot haar ontslag leidde. Volgens Jeff Dean, hoofd van het AI-departement, ging het rapport iets te diep in op bepaalde problemen waarvoor het bedrijf aan oplossingen werkt. Het miste met andere woorden ‘een positieve toon’.
Google is een van de grootste onderzoeksinstellingen ter wereld als het gaat om kunstmatige intelligentie. Het bedrijf publiceerde het voorbije jaar meer dan tweehonderd papers over het ontwikkelen van verantwoorde AI, maar de objectiviteit van dat onderzoek wordt nu wel extra in vraag gesteld. Google en Alphabet zijn de laatste tijd duidelijk bijzonder voorzichtig om zowel de politieke als commerciële belangen niet te verstoren. Onder de ‘gevoelige onderwerpen’ die een extra rondje proeflezen krijgen, zitten onder meer de olie-industrie, China, Iran, Israël, Covid-19, locatiegegevens en personalisering van web content.
Fout opgemerkt of meer nieuws? Meld het hier