... en dat op de openbare weg. Toch gevaarlijk, niet?
Verleden week heeft Tesla zijn Full Self Driving (FSD) update uitgestuurd naar een selecte groep gebruikers. Met die software kunnen de chauffeurs gebruik maken van verschillende assistentiefuncties van de Autopiloot, en wel op plaatselijke wegen, niet op snelwegen.
Normaal gezien vereist het gebruik van die functies voortdurende monitoring - Tesla zelf waarschuwt dat de software gekke dingen kan doen op het verkeerde moment. Maar de naam "Autopiloot" heeft in het verleden er al voor gezorgd dat mensen echt denken dat ze de volledige besturing kunnen overlaten aan de software - met desastreuze gevolgen.
Het valt dus te verwachten dat ook nu de Tesla-chauffeurs die deelnemen aan deze bèta-test, dezelfde fout gaan maken. En dat op de openbare weg. Je moet maar als gewone chauffeur op dat moment voorbijrijden en hardhandig kennis maken met een foutje van de software... (1)
Zelfrijdende auto's blijken toch nog altijd niet op punt te staan. Dat mag blijken uit dit verhaal bij Engadget. Daar lees je over een race die gehouden werd met robot-auto's, de Roborace. Een van de robot-auto's reed plots direct tegen een muur. Wat de oorzaak was is niet geweten, zo lees je bij Engadget. De auto reed namelijk in een flauwe bocht en was zelfs niet aan het racen tegen andere auto's op het moment van het ongeval.(2)
Tijdens diezelfde race "verloor" een van de andere wagens zijn positie op de baan, en zette zelf de race vroegtijdig stop. Met andere woorden: autonoom rijdende wagens: het zal nog niet voor dit jaar zijn!
https://www.theverge.com/2020/10/22/21528508/tesla-full-self ...
https://www.engadget.com/roborace-self-driving-race-car-driv ...
|