Tesla Autopilot scheitert am Laub
In den vergangenen Monaten kursierten mehrere Videos aus den USA, in denen eine ältere Version von Teslas FSD-Software herumwirbelndes Laub gelegentlich als Hindernis einstufte und darauf mit unnötigem Abbremsen reagierte. Dabei handelte es sich vermutlich um ein zeitlich begrenztes Problem, das laut Berichten bereits adressiert wurde und zuvor nie als systematische Schwäche aufgefallen war.
Die Ursache lag dabei nicht direkt am Kamerakonzept, wie oft behauptet wurde, sondern vor allem wohl daran, dass dieses spezielle Szenario im Training der neuronalen Netze noch nicht ausreichend abgedeckt war. Teslas Ansatz, ausschließlich Kameradaten zu nutzen, hat sich bisher in Milliarden gefahrenen Kilometern bewährt, schließlich erkennt auch ein menschlicher Fahrer Laub nicht immer zuverlässig, ohne eine Vollbremsung einzuleiten.
Dass FSD grundsätzlich zuverlässig arbeitet, zeigen hingegen unzählige Aufnahmen, in denen Teslas Software stunden- oder tagelang völlig unauffällig, ruhig und präzise fährt, dabei oft souveräner als manch menschlicher Fahrer. Parallel dazu bereitet Tesla in Deutschland Testfahrten für das neue „Full Self-Driving (Supervised)“ vor.
Ab dem 01. Dezember 2025 sollen Interessenten an ausgewählten Standorten als Beifahrer miterleben können, wie das System komplexe Verkehrssituationen meistert. Das hat jedoch nichts mit dem klassischen „Autopiloten“ zu tun, der häufig fälschlicherweise in denselben Kontext gestellt wird. Insbesondere alte Unfallfälle, etwa aus dem Jahr 2019, beziehen sich ausschließlich auf frühere Autopilot-Versionen und sagen nichts über das moderne FSD-System aus.
Während Tesla in Europa weiterhin auf regulatorische Freigaben wartet, zeigt die internationale Nutzung, dass die Technologie in den letzten Jahren enorme Fortschritte macht.
