Hee Jung Ryu en Florian Schroff, twee machine learning-experten van Google, werken aan een uitvinding die ze zelf een 'elektronische schermbeveiliger' noemen. Via de selfiecamera van de Google Pixel en patroonherkenning kunnen ze detecteren hoeveel ogen naar het scherm staren.

Volgende week worden de resultaten gepresenteerd tijdens een AI-conferentie in Longvast Beach, Californië, maar in een YouTube-demo geven ze al een voorproefje. Daarin is te zien hoe een pottenkijker gedetecteerd wordt, waarna de camera-app geopend wordt en hij genadeloos in beeld gebracht wordt, samen met een waarschuwing en een Snapchat-achtige regenboog.

Omdat het AI-algoritme rechtstreeks op de smartphone uitgevoerd wordt en niet in de Google Cloud, heeft het slechts 2 milliseconden nodig om te detecteren of een extra paar ogen naar het scherm staart. Op 47 milliseconden kan ook het gezicht herkend worden. Volgens de onderzoekers is de techniek zeer robuust en werkt ze ook bij slechte belichting.

De technologie zit nog volop in de onderzoeksfase en het is nog niet duidelijk of ze daadwerkelijk zal geïntegreerd worden in de Google Pixel. Aangezien de selfie-camera moet aanstaan, slurpt de software wellicht veel batterij. Maar als die optie even kan ingeschakeld worden op het moment dat je een mail met vertrouwelijke informatie leest (of een beschamende video bekijkt), lijkt ze voor menig treinreiziger geen overbodige luxe.

Hee Jung Ryu en Florian Schroff, twee machine learning-experten van Google, werken aan een uitvinding die ze zelf een 'elektronische schermbeveiliger' noemen. Via de selfiecamera van de Google Pixel en patroonherkenning kunnen ze detecteren hoeveel ogen naar het scherm staren. Volgende week worden de resultaten gepresenteerd tijdens een AI-conferentie in Longvast Beach, Californië, maar in een YouTube-demo geven ze al een voorproefje. Daarin is te zien hoe een pottenkijker gedetecteerd wordt, waarna de camera-app geopend wordt en hij genadeloos in beeld gebracht wordt, samen met een waarschuwing en een Snapchat-achtige regenboog.Omdat het AI-algoritme rechtstreeks op de smartphone uitgevoerd wordt en niet in de Google Cloud, heeft het slechts 2 milliseconden nodig om te detecteren of een extra paar ogen naar het scherm staart. Op 47 milliseconden kan ook het gezicht herkend worden. Volgens de onderzoekers is de techniek zeer robuust en werkt ze ook bij slechte belichting.De technologie zit nog volop in de onderzoeksfase en het is nog niet duidelijk of ze daadwerkelijk zal geïntegreerd worden in de Google Pixel. Aangezien de selfie-camera moet aanstaan, slurpt de software wellicht veel batterij. Maar als die optie even kan ingeschakeld worden op het moment dat je een mail met vertrouwelijke informatie leest (of een beschamende video bekijkt), lijkt ze voor menig treinreiziger geen overbodige luxe.