Eerste Tesla Autopilot-dode filmde eerder 'close-call'

In de Verenigde Staten is een Tesla-bestuurder om het leven gekomen nadat zijn Model S in Autopilot-modus in een vrachtwagen crashte. De bestuurder heeft voor zover bekend zelf geen input gegeven om het ongeluk te voorkomen.

Het ongeluk vond op 7 mei plaats in Florida, maar komt nu naar buiten. Een vrachtwagen stak op een kruispunt de rijbaan over, waarop de Tesla in Autopilot-modus reed. Deze reageerde niet of onvoldoende, en schoof onder de truck. Het eerste punt van impact was ter hoogte van de A-stijl/voorruit, waarbij de bestuurder dodelijk gewond raakte. Tesla meldde het ongeval direct bij de Amerikaanse verkeerswaakhond NHTSA, dat een onderzoek startte, en bracht de kwestie gisteren zelf in de openbaarheid.

In de post onderstreept Tesla dat dit de eerste dode is in 210 miljoen afgelegde Autopilot-kilometers.

Persbureau Reuters meldt dat het slachtoffer is geïdentificeerd als Joshua Brown, een 40-jarige ex-Navy Seal uit Ohio (foto). Hij is tevens auteur van het meest bekeken Autopilot-filmpje op youtube, waarop het systeem een botsing met een kraanwagen die van rijstrook wisselt voorkomt . De video was tot vandaag 1,7 miljoen keer bekeken, en ontving ook een reactie van Elon Musk op twitter:

Browns laatste upload op zijn youtube-kanaal dateert van 10 april.

Update: de bestuurder van de truck beweerde dat Brown ten tijde van het ongeluk een Harry Potter-film aan het kijken was, hoewel dit zonder hack volgens Tesla helemaal niet mogelijk is. Quote:

The driver of the truck, Frank Baressi, said the Tesla driver was 'playing Harry Potter on the TV screen' at the time of the crash. 'It was still playing when he died and snapped a telephone pole a quarter mile down the road,' Baressi, 62, said. 'He went so fast through my trailer I didn't see him,' he added.

Toen Tesla zijn Autopilot functie uitrolde kwam dat ze op de nodige kritiek te staan. Tal van andere autofabrikanten testen volop met autonome functies, maar implementeren het nog niet in hun productie-auto's, omdat de techniek nog onvoldoende ontwikkeld is. De benadering van Tesla is meer hands-on, want de snelste manier om een systeem te laten leren is het in de praktijk toe te passen. Hiermee leg je wel een grote verantwoordelijkheid bij de bestuurder zelf, want ook al hamert Tesla er op dat er niet lichtzinnig met de functie omgesprongen moet worden, weet je dat er altijd mensen zijn die gaan experimenteren. Niet dat we willen insinueren dat dat hier ook is gebeurd, dat moet het onderzoek uitwijzen.

Op internet circuleren tal van video's die tonen hoe de Autopilot ongelukken voorkom (zoals hier en daar). Hier tegenover staan ook video's waarbij ingrijpen van de bestuurder ongelukken moet voorkomen (zoals hier).

In Nederland was deze week nog een Model S betrokken bij een zware crash. Op de A2 bij Best sloeg een S over de kop na een botsing met een vrachtwagen. Het is onbekend of ten tijde van het ongeluk de Autopilot ingeschakeld was, of dat louter menselijk falen de crash veroorzaakte (in het geval van een ingeschakelde Autopilot zou het nog steeds menselijk falen zijn, aangezien Autopilot zelf geen verantwoordelijkheid draagt).

In januari botste een Model S bij Utrecht achterop een vrachtwagen. De bestuurder van de Tesla verklaarde dat hij ten tijde van het ongeval de Autopilot ingeschakeld had.