Zelfrijdende of semi-autonome auto's zijn wonderen der techniek. Ze zijn steeds beter in staat menselijke bestuurders te kopiëren. Tesla gaat echter een stap verder en heeft ook het rijgedrag van de chromosomaal uitgedaagde weten te programmeren. Dus ramde een Model S in de United States of Awesome een stilstaande truck. Het gekke is dat er geen menselijke bestuurder aan te pas kwam: die zat ten tijde van het ongeluk niet eens in de auto.
Wat er gebeurde is het volgende: de eigenaar parkeert zijn auto voor de deur bij een bedrijf waar hij moet zijn. Hij spreekt dertig seconden met een medewerker. Daarna gaan ze beiden bij het bedrijf naar binnen. De eigenaar komt vijf minuten later buiten en ziet dat zijn Tesla de vrachtwagen op eigen houtje is gaan inspecteren, wat resulteerde in een halfslachtige poging tot onthoofding.
Volgens de data in de auto, werd de Summon-functie drie seconden nadat de eigenaar de auto verliet ingeschakeld. Deze functie kan een auto parkeren terwijl de bestuurder buiten de wagen is. De eigenaar ontkent dit zelf te hebben gedaan. Maar volgens Tesla is het toch allemaal zijn fout, want als hij buiten stond zoals hij claimde, moet hij hebben gezien dat zijn auto met zichzelf aan de haal ging. De eigenaar zegt dat dat absoluut niet het geval was.
Maar al zou hij de functie per ongeluk op zijn telefoon hebben geactiveerd (er is ook een app namelijk), dan nog mag hij toch verwachten dat de Tesla niet tegen een enorme truck aanrijdt? Nee hoor, zegt Tesla: "Tesla has reviewed the vehicle’s logs, which show that the incident occurred as a result of the driver not being properly attentive to the vehicle’s surroundings while using the Summon feature or maintaining responsibility for safely controlling the vehicle at all times..."
Hahaha, right. Goed dat we dit weten. De laatste tijd horen we dat bedrijven als Google, Volvo en Mercedes zichzelf volledig verantwoordelijk houden bij crashes met hun zelfrijdende auto's. Nu weten we hoe Tesla hier instaat. Met een moraalwapperende middelvinger.