De mensheid is nog niet klaar voor Autopilot

We zijn op punt aangekomen dat de techniek slimmer is dan de gebruiker. Je kan het de mens nog zo vaak uitleggen, maar ze zijn te eigenwijs/dom/optimistisch om er naar te handelen. Dat blijkt maar weer uit de onderstaande Tesla-crash.

Tesla heeft al vaak duidelijk proberen te maken dat de Autopilot nog geen persoonlijke chauffeur is en dat de bestuurder altijd moet blijven opletten om meteen te kunnen ingrijpen. Toch blijft de mens eigenwijs en blijven ze andere dingen doen terwijl de Tesla zichzelf over de weg transporteert. 

En dat kan best vervelend uitpakken als de Autopilot een situatie tegenkomt waar het programma niet op voorbereid is. Dat geldt bijvoorbeeld voor de wegwerkzaamheden in de onderstaande video. De weg maakt een zigzag, wat wordt aangegeven door kattenogen. De originele belijning loopt echter gewoon door in de tijdelijke betonnen barrière en laten dat nu net de strepen zijn die de Tesla volgt. 

De bestuurder geeft op Reddit toe dat hij Autopilot aan had staan en inderdaad niet zat op te letten, of in zijn woorden "I misread the road". Gelukkig raakte er niemand gewond, maar de Tesla Model S 70D is er slecht aan toe. 

Het is een uitstekend voorbeeld van een bestuurder die zijn Autopilot overschat. Hij gaat er blind vanuit dat de Tesla deze bijzondere verkeerssituatie goed inschat en zich netjes de slecht aangegeven tijdelijke route volgt. Als dat niet het geval blijkt te zijn, is hij niet alert genoeg om bijtijds in te grijpen. 

Dit is de reden dat Tesla waarschuwingen heeft ingebouwd in de laatste update en tevens de reden dat de meeste fabrikanten huiverig zijn om semi-autonoom rijden te introduceren terwijl de techniek dat wel zou toelaten. Zij wachten liever tot volledig zelfrijdende auto's mogelijk zijn, zodat de bestuurder het niet langer kan verkloten. Want zelfs als ze maar één taak hebben, weten de mensen het te verpesten.