Teslas Robotaxis sind schlecht
Zu sagen, dass die Zukunft von Tesla von Robotaxis abhängt, ist eine Untertreibung. Tesla muss diese Branche komplett dominieren oder wird auf der Strecke bleiben. Das Unternehmen hat seine Investitionen in die Entwicklung neuer Elektrofahrzeuge und -technologien fast vollständig eingestellt, sodass seine Konkurrenten den Markt für sich gewinnen können, während Tesla sich auf Robotaxis konzentriert. Die hypothetischen Chancen dieser neuen Branche haben den Aktienkurs von Tesla in schwindelerregende Höhen getrieben. Wenn Tesla diese hohen Erwartungen jedoch nicht erfüllen kann, wird es ausschließlich als Autohersteller bewertet werden, und sein Wert wird durch seine Schulden in den Schatten gestellt werden, sodass es in die roten Zahlen rutscht. Für Tesla geht es wirklich um alles oder nichts. Doch nach einem Jahrzehnt der Entwicklung sind die Robotaxis von Tesla völlig unbrauchbar.
Tesla hat seinen Robotaxi-Dienst in Austin, Texas, "soft gelauncht". Anstelle der versprochenen Cybercabs wurden jedoch 12 unveränderte Model Ys mit der Aufschrift "Robotaxi" an der Seite geliefert. Der Dienst war außerdem nur auf Einladung zugänglich, sodass nur Personen, die direkt mit Tesla zu tun haben, mitfahren konnten. Außerdem waren sie nicht allein im Auto, da immer ein Sicherheitsfahrer auf dem Beifahrersitz sitzen muss, der jederzeit bereit ist, das Steuer zu übernehmen.
Doch trotz dieser geringen Anzahl von Fahrzeugen, einer geringen Anzahl von Kunden und einem engagierten Sicherheitsfahrer an Bord wurden diese Robotaxis innerhalb von nur zwei Tagen dabei gefilmt, wie sie illegal und unberechenbar fuhren.
Die Videos zeigen, wie Robotaxis beim Vorbeifahren an einem Polizeiauto willkürlich und abrupt bremsen, zu schnell fahren, willkürlich am Lenkrad reißen und sogar in den Gegenverkehr ausscheren und dort für längere Zeit fahren! Die Tatsache, dass in so kurzer Zeit so viele besorgniserregende Videos aufgetaucht sind, hat die NHTSA dazu veranlasst, sich direkt an Tesla zu wenden.
Das sollte jedoch keine große Überraschung sein. Diese Robotaxis fahren höchstwahrscheinlich mit FSD v13. 8.000 Meilen an Crowdsourcing-Daten haben gezeigt, dass FSD v13 durchschnittlich 493 Meilen zwischen kritischen Deaktivierungen zurücklegt, was bedeutet, dass die tatsächlichen Interventionsintervalle wahrscheinlich noch kürzer sind.
Nehmen wir an, dass diese 12 Model Y Robotaxis jeden Tag ihre volle Reichweite von 230 Meilen in der Praxis ausschöpfen. Wenn man die Zahlen durchrechnet, bedeutet dies, dass diese Flotte statistisch gesehen 12 kritische Vorfälle erlebt hätte, bei denen der Sicherheitsfahrer zwischen dem Start des Dienstes und dem Zeitpunkt, zu dem die Videos hochgeladen wurden, hätte eingreifen müssen.
Also, warum hat der Sicherheitsfahrer nicht eingegriffen? Warum konnte das Auto so gefährlich fahren?
Der Grund: Diese Sicherheitsfahrer sind ein riskanter Marketing-Gag.
Wenn Sie sich erinnern, sollte Teslas Cybercab kein Lenkrad und keine Pedale haben. Die einzige Möglichkeit für einen Passagier, das Fahrzeug zu steuern, bestand darin, einen Knopf zu drücken, der eine Notbremsung auslöste, und sobald das Fahrzeug angehalten hatte. Es scheint, dass Musk beschlossen hat, diese Konfiguration in den Model Y Robotaxis nachzuahmen, entweder um das System zu testen oder, was wahrscheinlicher ist, um virale Videos von Teslas zu generieren, die ohne Fahrer am Steuer fahren. Schließlich verdient Musk so sein Geld – er vermarktet seine Unternehmen an Investoren.
Aber diese Konfiguration mit einem Sicherheitsfahrer hat einen offensichtlichen Mangel. Sie funktioniert einfach nicht! Denken Sie nur an den Vorfall, als FSD verwirrt war und auf die falsche Spur fuhr, oder an die zahlreichen Fälle, in denen es wegen Geschwindigkeitsüberschreitungen erwischt wurde. Der Sicherheitsfahrer kann nicht eingreifen und das Fahrzeug auf die richtige Spur lenken oder sanft bremsen. Sie können lediglich eine Notbremsung auslösen, was in solchen Situationen zu einem Unfall führen kann!
Aus diesem Grund setzten alle anderen Robotaxi-Unternehmen, die Sicherheitsfahrer einsetzten (das ist nun schon Jahre her; fast alle haben diese Phase inzwischen hinter sich gelassen), diese auf den Fahrersitz, damit sie bei Bedarf tatsächlich die volle Kontrolle übernehmen konnten.
Es ist unwahrscheinlich, dass für jeden Fall, in dem diese Robotaxis gefährlich oder illegal fahren, eine Videoaufzeichnung öffentlich zugänglich gemacht wird. Die Tatsache, dass es mindestens vier Videos dieses Vorfalls aus nur zwei Betriebstagen gibt, zeigt, dass die Berechnung der 493 Meilen zwischen den Vorfällen korrekt ist.
Das ist alles schön und gut, aber warum erreicht Waymo eine durchschnittliche Distanz zwischen den Eingriffen von 17.060 Meilen, während Tesla bei 493 Meilen stagniert?
Nun, es ist alles eine Frage der Herangehensweise. Waymo verwendet ein hochredundantes und stark eingeschränktes System, während Teslas FSD keine Redundanz aufweist und ein uneingeschränktes System ist.
FSD ist ein reines Bildverarbeitungssystem.
Es verwendet nur neun Kameras und eine einzige Computer-Vision-KI, um die Welt um sich herum zu verstehen. Waymo hingegen verwendet 13 Kameras, fünf LiDAR-Einheiten und sechs Radarsensoren. Diese Waymos verwenden ebenfalls Computer-Vision, um die 13 Kamera-Feeds in eine 3D-Karte der Welt um sie herum umzuwandeln. Diese Informationen werden dann mit den 3D-Karten abgeglichen, die von den LiDAR- und Radarsystemen erstellt wurden. Dadurch verfügt Waymo über mehrere Redundanzebenen. Wenn die Kameras aufgrund von Regen oder grellem Licht ausfallen oder die KI für Computer Vision das Gesehene falsch interpretiert (was häufig vorkommt), können diese Anomalien durch den Vergleich mit den Daten der anderen Sensoren identifiziert und ignoriert werden. Dies bietet Waymo auch ein starkes Sicherheitsnetz. Wenn das Radar eine Kollision erkennt, wird eine Vollbremsung ausgelöst; dieses System ist wahrscheinlich vom autonomen Fahrsystem getrennt.
Ingenieure haben seit Jahrzehnten die Bedeutung von Systemredundanz und robusten Sicherheitsmaßnahmen erkannt. Aus diesem Grund wollten die FSD-Ingenieure ursprünglich, dass FSD über mehrere Sensortypen und eine weitaus größere Sensorausstattung verfügt. Musk hat sich jedoch über ihre Meinung hinweggesetzt und damit das System aktiv weniger sicher gemacht. Wenn Sie mehr darüber erfahren möchten, seit wann Ingenieure um die Bedeutung von Redundanz wissen, empfehle ich Ihnen das Video von Kyle Hill.
Allein dieser einfache Unterschied reicht aus, um Waymo um Lichtjahre vor Tesla zu platzieren. Aber auch in ihrem KI-Ansatz gibt es einen grundlegenden Unterschied.
Tesla versucht, eine universelle selbstfahrende KI zu entwickeln, die die Straße versteht und überall fahren kann. Waymo hingegen trainiert seine KI speziell für bestimmte Orte und integriert dabei hochdetaillierte 3D-Karten, Straßenkarten und ähnliche Daten in sein KI-Training.
Das klingt vielleicht so, als hätte Tesla einen Vorteil. Schließlich könnten ihre Robotaxis theoretisch überall fahren, sobald das System funktioniert. Die Waymos, die beispielsweise in Phoenix im Einsatz sind, sind hingegen auf den Ort beschränkt, für den sie trainiert wurden.
Wenn man jedoch versteht, wie KI funktioniert, wird schnell klar, dass dies ein massiver Fehler im Design von Tesla ist.
Je eingeschränkter eine KI ist, desto genauer wird sie. Aus diesem Grund sind KIs, die zur Optimierung von Designs, zur Entschlüsselung von Proteinstrukturen oder zur Identifizierung medizinischer Probleme eingesetzt werden, atemberaubend genau, da ihr Fokus stark eingeschränkt ist. KIs, die breiter gefächert und für den allgemeinen Gebrauch konzipiert sind, wie ChatGPT, sind dagegen wesentlich ungenauer. Das liegt daran, dass KI im Wesentlichen ein statistisches Modell ist, dem das Verständnis für seine eigenen Vorgänge fehlt, und wenn es zu viele Variablen gibt, kann dieses statistische Modell leicht zusammenbrechen.
In den letzten zehn Jahren haben KI-Unternehmen versucht, die Probleme dieser Allzweck-KIs zu lösen, indem sie diese Modelle gigantisch groß gemacht und sie mit einer riesigen Datenmenge gefüttert haben. Das hat OpenAI mit ChatGPT gemacht, und das hat Tesla mit FSD gemacht. Dieser Ansatz stößt jedoch an seine Grenzen, da ab einem bestimmten Punkt der Ertrag immer geringer wird, und wir haben diesen Punkt leider bereits erreicht. Darüber hinaus ist dieser Ansatz so verdammt teuer, dass keine dieser KI jemals rentabel sein wird.
Der Ansatz von Waymo, seine KI standortspezifisch und eingeschränkter zu gestalten, macht sie nicht nur von Natur aus genauer, sondern auch kostengünstiger in der Entwicklung und im Betrieb.
Der breitere Ansatz von Tesla hingegen macht ihre KI von Natur aus weniger genau und teurer in der Entwicklung.
Waymo kann seine Kameras und LiDAR nutzen, um seine Daten mit der hochdetaillierten 3D-Karte seines Einsatzgebiets zu vergleichen und so einfach und genau seinen Standort und damit auch seine Aufgaben zu bestimmen.
Die KI von Tesla hingegen hat weniger Daten zur Verfügung und muss zunächst ihre Umgebung erfassen, die Straße lesen und dann entscheiden, was zu tun ist. Da KIs nicht wirklich verstehen, was sie tun, sondern lediglich als statistische Modelle funktionieren, ist es offensichtlich, dass der Ansatz von Waymo derjenige ist, der funktionieren wird.
Warum hat sich Tesla also für den offensichtlich fehlerhaften Weg entschieden? Das war die Richtung, in die Musk das Projekt gedrängt hat. Und warum liegt Tesla so weit zurück? Weil Musk KI überhaupt nicht versteht.
Auch wenn die Tesla-Fans sagen: "Es ist noch früh." Nein, ist es nicht. Tesla hat über ein Jahrzehnt und mehr als 10 Milliarden Dollar für FSD ausgegeben. Und nach all dem und selbst mit einem Sicherheitsfahrer im Auto können sie nicht einmal legal fahren, geschweige denn sicher. Das ist eine absolute Blamage.