Eerste fatale ongeluk met zelfrijdende Tesla: wie is er schuldig?
Een zelfrijdende auto van Tesla is voor het eerst de oorzaak van een dodelijk ongeluk. Statistisch gezien zat het eraan te komen dat dit zou gebeuren en nu zag de Tesla de truck niet die haaks op de weg stond.
Heeft Tesla schuld aan het dodelijk ongeval? Dat is nu de vraag, want de Amerikaanse overheid doet onderzoek naar het ongeluk dat op 7 mei al gebeurde.
De autopilot-functie van Tesla werd vorig jaar oktober geïntroduceerd via een software-update. Iedereen met een Model S – het model dat betrokken was bij het ongeluk – kan de functie sindsdien aanzetten. Maar de zelfrijdende modus zit nog de testfase. Tesla waarschuwt keer op keer dat hij nog niet voor honderd procent werkt en zegt dat de chauffeur zelfs de handen aan het stuur moet houden, zodat hij in kan grijpen. Het bedrijf van Elon Musk zegt dat de autopilot al goed is, maar nog niet goed genoeg om volledig zelfstandig te opereren. De wagen kan in zijn eigen baan blijven, inhalen en afstand houden van de wagen voor zich. Ook uitwijken voor een auto die veel langzamer gaat nog, maar op afstand een stilstaande wagen detecteren gaat nog niet goed genoeg, blijkt nu.
Tesla heeft de overeenkomst die het met de chauffeur afsluit wanneer hij over de autopilot-functie wil beschikken uiteraard goed dichtgetimmerd om niet verantwoordelijk te zijn bij ongevallen. Hierdoor zullen Elon Musk en co juridisch wellicht niet in de problemen komen na de ongeval.
Ethische kwestie
Maar bij vooralsnog onbewezen technologie als de zelfrijdende wagen speelt er ook een ethische kwestie mee als er mensenlevens op het spel staan. Juridisch kan alles in orde zijn, maar moet een bedrijf zijn chauffeurs als proefdieren gebruiken op de openbare weg? Een product in bèta op de markt brengen is voor techbedrijven niet vreemd, maar nieuwe software of een computerspel door een deel van het publiek laten testen is anders dan een auto. Zijn de ‘chauffeurs’ hierbij bijvoorbeeld wel genoeg op de hoogte van de risico’s die ze lopen?
Wanneer je de autopilot in de wagen activeert verschijnt er altijd de melding dat de functie een assistent is waarbij je ten allen tijde de handen op het stuur moet houden. Maar is het dan voor de gebruiker duidelijk genoeg dat de dood een risico vormt?
Worden ze eraan herinnerd dat mensen niet goed zijn in het monitoren van een systeem voor lange periodes en dat de verveling snel toe kan slaan? Weten ze dat het 2 tot 30 seconden – of meer – kan duren voor een mens er weer volledig bij is, als hij het stuur weer over moet nemen? Zijn ze voldoende op de hoogte van de limieten die er nog altijd aan het systeem vast hangen? Het zijn vragen die Forbes terecht stelt.
Grijs gebied
Wanneer een zelfrijdende auto volledig autonoom reageert weten we dat hij zéér veilig zal zijn; wanneer de technologie er klaar voor is zullen er veel minder verkeersdoden vallen en had dit ongeluk voorkomen kunnen worden doordat beide wagens met elkaar in verbinding zouden staan – de Tesla had afgeremd en er was geen enkel probleem geweest.
Maar de tussenfase waar we ons nu in begeven is grijs en onzeker. In de Verenigde Staten zijn er geen wetten tegen de zelfrijdende auto, maar echte toestemming is er vaak ook niet. ‘Bedrijven kunnen met veel wegkomen in dit juridische grijze gebied, zolang er niets mis gaat’, zei techexepert Bryant Walker Smith onlangs. Hoe gaan de wetgevers hier mee om, nu er wel iets misgegaan is?
Tesla is een pionier wanneer het op de zelfrijdende wagen aankomt. Andere fabrikanten wachten nog even af voordat ze het grote publiek met een soortgelijke functie kennis laten maken. Google rijdt als een van de weinige fabrikanten ook met een zelfrijdende auto op de weg, maar hier zit altijd een medewerker van het bedrijf achter het stuur die getraind is.
Dit was het eerste dodelijke ongeluk met de Tesla-autopilot in 130 miljoen kilometer, terwijl er bij gewone auto’s gemiddeld één ongeluk per 60 miljoen kilometer plaatsvindt. Er is dus wat voor te zeggen dat hij een stuk veiliger is dan de mens. Tesla spreekt bij dit ongeluk van ‘een uitzonderlijke situatie’, maar perfectie – waar men bij de zelfrijdende auto zoveel mogelijk naar streeft – is nog niet in zicht. Moeten we daar tot die tijd wel genoegen mee nemen?
Fout opgemerkt of meer nieuws? Meld het hier