Nieuwe ogen voor autonome voertuigen

© Getty Images
Els Bellens
Els Bellens Technologiejournaliste bij Data News

Wat als u de ‘ogen’ van autonome voertuigen kon verbeteren? De Belgische start-up Autonomous Knight denkt een oplossing te hebben voor veel van de problemen waar de technologie momenteel mee worstelt.

De start-up is in principe een spin-off van de Limburgse ‘mining tech’ start-up Behault. Geoffrey Ejzenberg en Noël Jans, oprichters van beide bedrijven, leerden elkaar kennen bij het Nederlandse ETF Holding, een maker van modulaire mijnbouwvoertuigen. “We hebben daar een managment buy-out gedaan”, zegt Geoffrey Ejzenberg, “en ons dan een week in isolatie gezet om te zien wat we gingen doen.” Het initiële bedrijf focuste zich op autonome vrachtwagens die in mijnen kunnen worden ingezet.

Ondertussen hadden Jans en Ejzenberg echter uitgebreider plannen. “Dat die camion ging rijden, was wel duidelijk voor ons”, zegt Ejzenberg. “De moeilijkheid zat hem in het autonoom maken. We hebben naar bestaande sensorentechnologie ‘off the shelf’ gekeken, want autonome voertuigen bestaan al even, maar voor ons voldeden ze niet.” Ze werkten dan maar een nieuw sensorsysteem uit dat onder verschillende weersomstandigheden kan werken. Omdat het nut van zo’n sensor verder ligt dan puur mijnbouwvoertuigen, brachten ze die onder in een nieuw bedrijfje, Autonomous Knight.

Het is dat laatste bedrijfje dat als enige buitenlandse start-up bij Volvo Group binnengehaald werd in diens incubator. Autonomous Knight wil dan ook het systeem waarmee autonome voertuigen hun weg zoeken heruitvinden.

De ogen van de auto

Is dat dan nodig? Volgens Jans en Ejzenberg wel. De meeste zelfrijdende technologie is momenteel gebaseerd op lidar of camera’s, en in het geval van militaire voertuigen soms ook radar of zelfs sonar voor boten. “Maar als je gaat kijken naar mijnbouwvoertuigen, dan merk je dat het niet veilig is om daarmee een voertuig autonoom te maken”, legt Noël Jans uit. Mijnbouw is namelijk per definitie stoffig en moet kunnen doorgaan onder verschillende omstandigheden: ’s nachts, in slecht weer, en vaak in afgelegen, onherbergzame gebieden, iets wat lidar en camera’s voorlopig niet kunnen. “Een mijnbouwvoertuig moet 24 uur op 24 kunnen rijden. Het autonoom maken heeft alleen zin als het die hele periode ook autonoom kan blijven, onder alle omstandigheden”, aldus Jans.

Een mijnbouwvoertuig moet 24 uur op 24 kunnen rijden. Het autonoom maken heeft alleen zin als het die hele periode ook autonoom kan blijven, onder alle omstandigheden

En daar zijn we dus nog niet. Om te begrijpen waarom een nieuw sensorsysteem zo belangrijk is, moeten we eerst weten wat er mis is met de huidige systemen. In de praktijk zijn er een tweetal die vaak gebruikt worden. “Alles van auto’s tot treinen en robotaxi’s gebruiken lidar als hun mid-to-long range sensor, zegt Ejzenberg, “en die hebben allemaal hetzelfde probleem.” Een lidar-systeem stuurt een golf van laserpunten uit, en gaat, kort door de bocht, objecten detecteren door te meten hoe snel en in welke staat die golven licht terugkomen. Op die manier gaat de sensor een 3D-scan van de omgeving maken en kan hij bijvoorbeeld objecten voor de auto opmerken. Het probleem hier is onder meer dat de lasers niet alleen terugbotsen vanaf een voetganger of een paaltje aan de kant van de weg, maar ook van bijvoorbeeld een regendruppel. Slecht weer kan de resultaten in de war sturen.

Het alternatief zijn camera’s, en dat is het systeem dat bijvoorbeeld Tesla gebruikt. “Die hebben echter dezelfde limitaties als het menselijk oog”, zegt Jans. “Ze kunnen ’s nachts niet zo goed zien, kunnen niet door mist kijken enzovoort.” Het is, grapt Ejzenberg, een van de redenen waarom autonome auto’s wel vlotjes kunnen rijden in regio’s als Californië, waar het meestal droog en zonnig is, en niet in het regenachtige België. Ook hier dus geen ideaal systeem voor extremere omstandigheden.

Identificatie

Een en ander wordt nog ingewikkelder als u er ook het soort software tegenaan gooit dat een autonoom voertuig nodig heeft om veilig te zijn voor zijn omgeving. “Voor autonome voertuigen heb je twee dingen nodig”, zegt Jans, “detectie en identificatie. Detectie zijn de ogen. Je detecteert een object op de weg, maar om te beslissen of je daarvoor moet stoppen, moet je dat ook kunnen identificeren. Is dat een kind? Een stuk papier? Voor het eerste moet het voertuig een noodstop maken, voor het tweede niet.”

Het is die identificatie die vaak roet in het eten gooit, omdat ze redelijk veel detail nodig heeft. “Een mijnbouwvoertuig heeft een typische remafstand van 50 meter. Reken daar de verwerkingstijd bij en je moet dus op honderd meter afstand kunnen identificeren of er een mens in de baan van het voertuig staat, of iets anders,” zegt Jans.

Om aan hogere snelheden en van verdere afstanden objecten te identificeren, hebt u een fijnmazig net van detail nodig, zegt Jans, en dat is moeilijk met lidar, dat tegen de limieten van zijn eigen ‘wet van Moore’ lijkt aan te lopen. “De basis, de ledjes waar het licht uit komt, kunnen niet meer verkleind worden”, zegt Jans. Daardoor kunnen er moeilijk meer details aan de sensor worden toegevoegd. “Er zijn veel systemen die lidar proberen te versnellen, door de verwerking van data te versnellen, maar de kern van het probleem is daarmee niet opgelost. Die lidar zal nooit kleiner worden.”

Met camera’s die niet door stof kunnen kijken, en lidar die niet snel genoeg gaat, lijkt de oplossing een combinatie van sensoren. “Onze multi-spectrale sensor leunt aan bij het camerasysteem, maar biedt betere identificatie omdat hij niet alleen het visuele gebruikt, maar ook het infrarode spectrum dat het menselijk oog niet kan waarnemen”, legt Jans uit.

Het idee van ‘sensor fusion’, het samenbrengen van verschillende types camerabeelden, bestaat al even. Multi-spectrale camera’s worden onder meer in militaire systemen en in de ruimtevaart gebruikt. De vernieuwing waar Autonomous Knight op inzet is een systeem dat alles op de chip zelf zet, op één optische as. “Sensor fusion systemen gaan die verschillende beelden vaak via software op elkaar leggen”, zegt Jans. “Maar de meeste algoritmes hebben een extra stap nodig om die beelden alleen maar te aligneren, nog voor er identificatie wordt uitgehaald. Dat is te lang. Wij hebben die vertraging niet.”

Een en ander heeft te maken met het feit dat sensoren voor infrarood vaak in VGA-resolutie werken, terwijl camera’s ondertussen beelden maken in Full HD of 4k resolutie. Die beelden moeten perfect op elkaar worden gelegd, een extra stap die te veel tijd inneemt als een voertuig aan 50 per uur probeert uit te vissen of het een object moet ontwijken. Door dat vanuit de hardware te regelen, kan de identificatie fijner en sneller gebeuren, met minder giswerk, zeggen de founders. “We gebruiken nog altijd dezelfde data mining AI die men typisch voor zelfstandig rijden inzet, maar het zal accurater zijn”, vertelt Jans.

Toekomstmuziek

Autonomous Knight haalde bij een eerste pre-seed round 500.000 euro op bij onder meer het Urban Mobility Europees Agentschap en een aantal angel investors. De start-up werd ook geselecteerd voor het Camp X incubator van Volvo Group, het deel van de constructeur dat zich op trucks en transport focust. De sensoren komen de eerste jaren dan ook niet naar de modale gezinswagen, om de simpele reden dat zo’n systeem vrij duur is. “We zetten in op commercieel transport”, zegt Ejzenberg.

Bedoeling is om in het incubatiecentrum in Zweden de technologie verder matuur te krijgen. “We zijn wel trots op die selectie door Volvo Group”, zegt Jans. “Omdat we al lang zien dat er veel geïnvesteerd wordt in lidar. Er was lang een echte hype rond de technologie, waardoor wij met ons systeem moeilijk gehoord werden. Maar ondertussen hebben autobedrijven zelf door dat lidar beperkingen heeft. Het idee bestaat dat je met data mining en AI alles kan oplossen, maar als je daar iets slechts insteekt, kan je er geen betere informatie uithalen.”

“Je kan nog zoveel AI tegen een blinde aangooien, die gaat niet ineens zien”, zegt Ejzenberg. “Hoe beter je ogen, des te makkelijker het is om je omgeving te herkennen.”

Fout opgemerkt of meer nieuws? Meld het hier

Partner Content