Bei Tests der aktuellen Beta des Tesla Autopiloten in einem Model 3, kollidierte der Wagen wiederholt mit einer Puppe in Kindergröße.
Bei von The Dawn Project durchgeführten Tests des aktuellen Tesla Autopiloten in einem Model 3, kollidierte der Wagen wiederholt mit einer Puppe in Kindergröße. Der Projektgründer stuft die Software als potenziell tödlich ein.
Drei Anläufe, drei Kollisionen
Die neueste Beta des Tesla Autopiloten, bezeichnet als Full Self Driving (FSD), weist mindestens einen gravierenden Mangel auf. Laut einer Kampagnengruppe scheint die Software keine Objekte in Kindergröße zu erkennen.
The Dawn Project führte demnach mit einem Tesla Model 3 inklusive FSD Version 10.12.2, veröffentlicht am 1. Juni, eigene Tests durch. Das Fahrzeug hatte dabei eine Strecke von 110 Metern zwischen zwei Kegelreihen zurückzulegen. An deren Ende saß eine Puppe in Kindergröße. Trotz insgesamt drei Anläufen, kollidierte der Wagen jedes Mal mit der Puppe. Die Geschwindigkeit des Fahrzeugs lag bei etwa 40 km/h.
Die Tester merkten an, dass 100 Meter Entfernung für den Tesla Autopiloten mehr als genug sein sollte, um ein Kind auf der Straße zu erkennen. „Teslas Full-Self-Driving-Software fällt bei diesem einfachen und sicherheitskritischen Test wiederholt durch, mit potenziell tödlichen Ergebnissen„, heißt es in der Analyse der Tests.
Laut Aussage der Tester, waren die Hände des Fahrers während der Tests nie am Lenkrad. Tesla selbst betont stets, dass der Autopilot kein vollständig autonomes System ist. Der Fahrer muss demnach stets bereit sein, um in das Geschehen einzugreifen. Er sollte daher seine Hände immer am Lenkrad halten und jederzeit die Kontrolle des Fahrzeugs übernehmen können.
Dan O’Dowd sieht im Tesla Autopiloten eine große Gefahr
Dan O’Dowd, der Projektgründer von The Dawn Project, teilte in einem Video auf Twitter mit, dass er Teslas FSD-Software für die schlechteste kommerzielle Software halte, die er je gesehen habe.
O’Dowd, der sich schon lange für Softwaresicherheit einsetzt, ist seit einiger Zeit ein Gegner von Tesla. Das erklärte Ziel von The Dawn Project ist es, „Computer für die Menschheit sicher zu machen„. Die Analyse des Tesla FSD ist die erste Kampagne dieses Projekts.
Der Tesla Autopilot ist bereits für mehrere Unfälle bekannt, bei denen sowohl Fahrer, als auch Fußgänger tödlich verletzt wurden. Im vergangenen Jahr hatte Tesla ein Update der Software zurückgezogen, nachdem sich darin gravierende Mängel herausgestellt hatten.
Doch nicht nur der Autopilot von Tesla weist immer wieder gravierende Sicherheitsmängel auf. So hatten wir erst im Mai darüber berichtet, wie die Sicherheitsforscher der NCC Group einen Tesla durch einen Bluetooth-Relay-Angriff innerhalb von 10 Sekunden aus der Ferne entsperren konnten.