Het gaat hier om een 'split-second phantom attack', waarbij een afbeelding van een stopteken enkele milliseconden wordt getoond op een elektronisch reclamebord. Hackers zouden hier misbruik van kunnen maken.

De onderzoekers hebben twee geavanceerde zelfrijdende systemen getest - het systeem van een Tesla Model X en Mobileye 630. Naast het beeld van een stopteken op een reclamebord dat heel kort te zien was hebben de onderzoekers ook de afbeelding van een voetganger op de weg geprojecteerd met een beamer. In beide gevallen remde de auto direct af. Omdat het beeld zo kort te zien is hebben mensen niet in de gaten dat de auto gevaar detecteert, en kan zo'n gemanipuleerd reclamebord moeilijk preventief worden uitgeschakeld.

Gelukkig is er volgens de onderzoekers ook een manier om de zelfrijdende systemen zo te trainen dat ze niet langer gevoelig zijn voor deze manipulaties. Ze hebben een systeem ontwikkeld dat ze 'GhostBusters' noemen en dat op basis van onder meer een neuraal netwerk moet kunnen detecteren of een object echt is, dus een echte voetganger of een fysiek stopbord, in plaats van een projectie. Dat zou het systeem doen op basis van licht, context, oppervlakte en diepte.

In november presenteren de onderzoekers hun bevindingen op de ACM Computer and Communications Security-conferentie.

Het gaat hier om een 'split-second phantom attack', waarbij een afbeelding van een stopteken enkele milliseconden wordt getoond op een elektronisch reclamebord. Hackers zouden hier misbruik van kunnen maken.De onderzoekers hebben twee geavanceerde zelfrijdende systemen getest - het systeem van een Tesla Model X en Mobileye 630. Naast het beeld van een stopteken op een reclamebord dat heel kort te zien was hebben de onderzoekers ook de afbeelding van een voetganger op de weg geprojecteerd met een beamer. In beide gevallen remde de auto direct af. Omdat het beeld zo kort te zien is hebben mensen niet in de gaten dat de auto gevaar detecteert, en kan zo'n gemanipuleerd reclamebord moeilijk preventief worden uitgeschakeld.Gelukkig is er volgens de onderzoekers ook een manier om de zelfrijdende systemen zo te trainen dat ze niet langer gevoelig zijn voor deze manipulaties. Ze hebben een systeem ontwikkeld dat ze 'GhostBusters' noemen en dat op basis van onder meer een neuraal netwerk moet kunnen detecteren of een object echt is, dus een echte voetganger of een fysiek stopbord, in plaats van een projectie. Dat zou het systeem doen op basis van licht, context, oppervlakte en diepte.In november presenteren de onderzoekers hun bevindingen op de ACM Computer and Communications Security-conferentie.