banner
Nachrichtenzentrum
Die ISO-Zertifizierung hilft uns, Vertrauen bei unseren Kunden aufzubauen.

Elon Musks Appetit auf Zerstörung

Oct 05, 2023

Eine Welle von Klagen argumentiert, dass die selbstfahrende Software von Tesla gefährlich überbewertet sei. Was können wir aus seinen blinden Flecken über den unberechenbaren CEO des Unternehmens lernen?

Credit...Fotoillustration von Justin Metz

Unterstützt durch

Von Christopher Cox

Für mehr Audiojournalismus und Storytelling laden Sie New York Times Audio herunter, eine neue iOS-App für Nachrichtenabonnenten.

Um weitere Audio-Geschichten von Publikationen wie der New York Times zu hören, laden Sie Audm für iPhone oder Android herunter.

Schon früh hatte die Software die bedauerliche Angewohnheit, Polizeikreuzer zu treffen. Niemand wusste, warum, obwohl Teslas Ingenieure einige gute Vermutungen hatten: Stationäre Objekte und blinkende Lichter schienen die KI auszutricksen. Das Auto fuhr normal weiter, der Computer hatte alles unter Kontrolle, und plötzlich drehte es nach rechts oder links und – zerschmetterte – mindestens zehnmal in etwas mehr als drei Jahren.

Für ein Unternehmen, das auf einen grenzenlosen Optimismus unter den Anlegern angewiesen war, um seinen hohen Aktienkurs aufrechtzuerhalten – Tesla war einst mehr wert als Toyota, Honda, Volkswagen, Mercedes, BMW, Ford und General Motors zusammen –, könnten diese Abstürze wie ein Problem. Aber für Elon Musk, den Vorstandsvorsitzenden von Tesla, stellten sie eine Chance dar. Bei jeder Kollision wurden Daten generiert, und mit genügend Daten könnte das Unternehmen die Entwicklung des weltweit ersten wirklich selbstfahrenden Autos beschleunigen. Er glaubte so stark an diese Vision, dass sie ihn zu wilden Vorhersagen veranlasste: „Meine Vermutung, wann wir es für sicher halten würden, dass jemand im Wesentlichen einschläft und an seinem Zielort aufwacht: wahrscheinlich gegen Ende des nächsten Jahres.“ Musk sagte 2019: „Ich würde sagen, da bin ich mir sicher. Das ist kein Fragezeichen.“

Die Zukunft von Tesla könnte davon abhängen, ob die Fahrer wussten, dass sie an diesem Datenerfassungsexperiment beteiligt waren, und wenn ja, ob ihre Risikobereitschaft mit der von Musk übereinstimmte. Ich wollte von den Opfern einiger der kleineren Unfälle hören, aber sie ließen sich in der Regel in zwei Kategorien einteilen, von denen keine sie zum Reden veranlasste: Entweder liebten sie Tesla und Musk und wollten der Presse nichts Negatives sagen Oder sie verklagten das Unternehmen und schwiegen auf Anraten des Anwalts. (Umair Ali, dessen Tesla 2017 gegen eine Autobahnschranke fuhr, hatte eine andere Ausrede: „Legen Sie mich als abgelehntes Interview fest, weil ich den reichsten Mann der Welt nicht verärgern will.“)

Dann habe ich Dave Key gefunden. Am 29. Mai 2018 fuhr ihn Keys 2015er Tesla Model S im Autopilot-Modus vom Zahnarzt nach Hause. Es war eine Route, die Key schon unzählige Male zuvor beschritten hatte: eine zweispurige Autobahn, die hinauf in die Hügel oberhalb von Laguna Beach, Kalifornien, führte. Doch auf dieser Fahrt geriet das Auto, während Key abgelenkt war, von der Spur und prallte auf den Rücksitz eines geparkten Polizei-SUV, der das Auto herumwirbelte und den SUV auf den Bürgersteig schob. Keiner wurde verletzt.

Key, ein 69-jähriger ehemaliger Software-Unternehmer, betrachtete seinen eigenen Unfall nüchtern und aus der Sicht eines Ingenieurs. „Das Problem mit stationären Objekten – tut mir leid, das klingt dumm – ist, dass sie sich nicht bewegen“, sagte er. Jahrelang hatte Teslas künstliche Intelligenz Schwierigkeiten, unbewegliche Objekte vom Hintergrund zu trennen. Key war nicht frustriert darüber, dass der Computer ein so scheinbar elementares Problem nicht gelöst hatte, sondern tröstete sich mit der Erkenntnis, dass es einen Grund für den Absturz gab: eine bekannte Softwarebeschränkung und nicht irgendein Black-Swan-Ereignis.

Letzten Herbst habe ich Key gebeten, mit mir den Unfallort zu besichtigen. Er sagte, er würde es mir noch besser machen; Er würde mich mit Teslas neuem „Full Self-Driving“-Modus dorthin bringen, der sich noch in der Betaphase befand. Ich erzählte Key, dass ich überrascht war, dass er immer noch einen Tesla fuhr, ganz zu schweigen davon, dass er für neue autonome Funktionen extra zahlen musste – FSD kostet jetzt 15.000 US-Dollar. Wenn mein Auto versucht hätte, mich umzubringen, hätte ich die Marke gewechselt. Doch in den Monaten und Jahren nach dem Totalschaden seines Model S kaufte er drei weitere.

Wir trafen uns zum Frühstück in einem Café in Laguna Beach, etwa fünf Kilometer von der Absturzstelle entfernt. Key trug ein schwarzes T-Shirt mit V-Ausschnitt, khakifarbene Shorts und Sandalen: südkalifornischer Halbruhestands-Chic. Als wir zu unserem Tisch gingen, schloss er die Türen seines roten Model S 2022 ab und die Seitenspiegel klappten hoch wie die Ohren eines Hundes, wenn er gestreichelt wird.

Key hatte ein vierseitiges Memo mitgebracht, das er für unser Interview verfasst hatte und in dem Fakten über den Unfall aufgeführt und unter Überschriften wie „Tesla Full Self-Driving Technology (Diskussion)“ geordnet waren. Er ist der Typ Mann, der mit einer Fülle fundierter Meinungen zu den wichtigsten Themen des Lebens – Computer, Software, Bewegung, Geld – herumläuft und bereit ist, diese zu teilen. Er war besonders besorgt darüber, dass ich verstehe, dass Autopilot und FSD Leben gerettet haben: „Die Daten zeigen, dass ihre Unfallrate während der Beta weitaus geringer ist als bei anderen Autos“, hieß es in einem Aufzählungspunkt im 11-Punkte-Calibri. „Eine Verlangsamung der FSD-Beta wird laut harten statistischen Daten zu mehr Unfällen und Todesfällen führen.“

Unfälle wie dieser – und sogar die tödlichen – seien bedauerlich, argumentierte er, aber sie könnten die Gesellschaft nicht von dem größeren Ziel der weit verbreiteten Einführung autonomer Fahrzeuge ablenken. Key zog eine Analogie zu den Coronavirus-Impfstoffen, die Hunderttausende Todesfälle verhinderten, aber auch seltene Todesfälle und Verletzungen durch Nebenwirkungen verursachten. „Als Gesellschaft“, schloss er, „wählen wir den Weg, um die meisten Leben zu retten.“

Wir beendeten das Frühstück und gingen zum Auto. Key hatte gehofft, die neueste Version von FSD vorführen zu können, aber sein System war noch nicht aktualisiert. „Elon sagte, es würde Ende der Woche veröffentlicht werden“, sagte er. „Nun, es ist Sonntag.“ Musk hatte seit Wochen angedeutet, dass das Update eine drastische Verbesserung gegenüber FSD 10.13 darstellen würde, das im Sommer veröffentlicht worden war. Da Musk aus den Namen und Zahlen in seinem Leben gerne kleine Witze machte, würde die Versionsnummer mit dieser Veröffentlichung auf 10.69 steigen. (Die vier verfügbaren Tesla-Modelle sind S, 3, X und Y, vermutlich weil das Wort „sexy“ bedeutet.)

Key wollte nicht über Musk sprechen, aber der Ruf des Managers war nicht mehr zu ignorieren. Zum Entsetzen der Tesla-Anhänger befand er sich mitten in seiner bizarren, immer wieder andauernden Kampagne zur Übernahme von Twitter. Und obwohl er Anthony Fauci noch nicht angegriffen oder Verschwörungstheorien über den Ehemann von Nancy Pelosi verbreitet hatte oder auf der Plattform eine Journalistenverbotsserie veranstaltet hatte, drängte sich bereits die Frage auf: Wie erklären Sie Elon Musk?

„Die Leute haben Fehler“, sagte Key vorsichtig, bevor er einen Gedanken wiederholte, den Musk oft über sich selbst sagte: Wenn Anhänger auf beiden Seiten ihn hassten, muss er etwas richtig machen. Ganz gleich, in welche Schwierigkeiten sich Musk geriet, sagte Key, er sei ehrlich – „aufrichtig zu seinem Nachteil.“

Während der Fahrt verglich Key FSD und die Version des Autopiloten auf seinem 2015er Tesla. Autopilot, sagte er, sei wie ein schicker Tempomat: Geschwindigkeit, Lenkung, Unfallvermeidung. Allerdings sagte er in seinem Fall: „Ich schätze, es hat nicht zur Unfallvermeidung beigetragen.“ Er war weitaus mehr von FSD beeindruckt gewesen. Es war in der Lage, nahezu jede Situation zu meistern, vor die es gestellt wurde. „Mein einziger wirklicher Kritikpunkt ist, dass nicht immer die Spur ausgewählt wird, die ich gerne hätte.“

Nach einer Minute warnte das Auto Key, die Hände am Lenkrad zu lassen und den Blick auf die Straße zu richten. „Tesla ist in dieser Hinsicht mittlerweile eine Art Kindermädchen“, beschwerte er sich. Wenn der Autopilot einst gegenüber unaufmerksamen Fahrern gefährlich nachsichtig war und ihnen sogar erlaubte, hinter dem Lenkrad einzunicken, wurde dieser Fehler ebenso wie der Fehler bei stationären Objekten behoben. „Zwischen dem Lenkrad und der Blickverfolgung ist das einfach ein gelöstes Problem“, sagte Key.

Bald waren wir nahe am Unfallort. Auf beiden Seiten von uns erhoben sich mit Gestrüpp bedeckte Hügel, durch die sich Mountainbike-Strecken schlängelten. Das war es, was Key am Tag des Unfalls in Schwierigkeiten brachte. Er blickte auf einen Lieblingsweg und ignorierte die Straße. „Ich schaute nach links und das Auto fuhr nach rechts weg“, sagte er. „Ich war in diesem falschen Sicherheitsgefühl.“

Wir parkten an der Stelle, an der er vor vier Jahren den Polizei-SUV angefahren hatte. Die Straße hier war nichts Besonderes: keine seltsamen Linien, kein verwirrender Spurwechsel, keine Einmündung. Nur eine einzige Fahrspur, die entlang einer Reihe geparkter Autos verläuft. Warum der Tesla in diesem Moment scheiterte, war ein Rätsel.

Schließlich forderte Key FSD auf, uns zurück zum Café zu bringen. Als wir jedoch unsere Linkskurve begannen, zuckte das Lenkrad und das Bremspedal zitterte. Key murmelte nervös: „OK. …“

Nach einem weiteren Moment fuhr das Auto auf halber Strecke über die Straße und blieb stehen. Eine Reihe von Autos rollte auf unserer Breitseite entlang. Key zögerte eine Sekunde, übernahm dann aber schnell die Führung und vollendete den Turn. „Wahrscheinlich hätte es dann schneller gehen können, aber ich war nicht bereit, so weit zu kommen“, sagte er. Wenn er sich geirrt hätte, bestand natürlich eine gute Chance, dass er auf demselben Straßenabschnitt von einer Meile seinen zweiten durch KI verursachten Unfall gehabt hätte.

Drei Wochen vorher Als Key den Polizei-SUV traf, schrieb Musk eine E-Mail an Jim Riley, dessen Sohn Barrett starb, nachdem sein Tesla bei überhöhter Geschwindigkeit verunglückt war. Musk drückte Riley sein Beileid aus, und der trauernde Vater schrieb zurück und fragte, ob die Software von Tesla aktualisiert werden könne, um es einem Besitzer zu ermöglichen, eine Höchstgeschwindigkeit für das Auto festzulegen, zusammen mit anderen Einschränkungen bei der Beschleunigung, dem Zugang zum Radio, dem Kofferraum und der Entfernung Das Auto konnte von zu Hause aus fahren. Obwohl Musk mitfühlend war, antwortete er: „Wenn es eine große Anzahl von Einstellungen gibt, wird es für die meisten Leute zu komplex sein, es zu benutzen. Ich möchte sicherstellen, dass wir das richtig machen. Am besten für die meisten Leute.“

Es war ein deutlicher Beweis dafür, was Musk als Vorstandsvorsitzender so ungewöhnlich macht. Zunächst wandte er sich direkt an jemanden, der durch eines seiner Produkte geschädigt wurde – etwas, das der Chef von GM oder Ford kaum in Erwägung ziehen würde, schon allein aus rechtlichen Gründen. (Tatsächlich wurde diese E-Mail als Beweismittel genutzt, nachdem Riley Tesla verklagt hatte.) Und dann wies Musk Riley ab. Kein vages „Ich werde das prüfen“ oder „Wir werden sehen, was wir tun können.“ Riley erhält ein hartes Nein.

Wie Key möchte ich Musks Tendenz widerstehen, jede Geschichte über ihn zu erzählen. Tesla ist ein großer Autokonzern mit Tausenden von Mitarbeitern. Es existierte vor Elon Musk. Es könnte nach Elon Musk existieren. Wenn Sie jedoch eine knappe Erklärung für die Herausforderungen suchen, mit denen das Unternehmen konfrontiert ist – in Form der Klagen, eines abstürzenden Aktienkurses und einer KI, die immer noch allzu fähig zu sein scheint, katastrophal zu scheitern –, sollten Sie sich an seinen launenhaften, brillanten, jungen Vorstandsvorsitzenden wenden .

Vielleicht gibt es hier kein Geheimnis: Musk ist einfach ein Narzisst, und jeder rücksichtslose Fehler, den er macht, dient einzig und allein dazu, die Aufmerksamkeit der Welt auf sich zu ziehen. Er schien diese Theorie bei einer kürzlichen Aussage mit einem Augenzwinkern zu unterstützen, als ihn ein Anwalt fragte: „Haben Sie eine einzigartige Fähigkeit, narzisstische Soziopathen zu identifizieren?“ und er antwortete: „Du meinst, indem du in den Spiegel schaust?“

Aber was wie Selbstbesessenheit und schlechte Impulskontrolle aussieht, könnte stattdessen das Ergebnis einer kohärenten Philosophie sein, die Musk bei vielen Gelegenheiten dargelegt hat. In der E-Mail an Riley steht es: Das größte Gut für die größte Anzahl von Menschen. Dieser Ausspruch kann als Teil eines Ad-hoc-Systems utilitaristischer Ethik alle möglichen mysteriösen Entscheidungen erklären, die Musk getroffen hat, nicht zuletzt sein halsbrecherisches Streben nach KI, die seiner Meinung nach auf lange Sicht unzählige Leben retten wird.

Unglücklicherweise für Musk steht die Kurzfristigkeit an erster Stelle und seinem Unternehmen stehen einige schwierige Monate bevor. Im Februar wird die erste Klage gegen Tesla wegen eines Autopilot-Unfalls verhandelt. Vier weitere werden in kurzer Folge folgen. Donald Slavik, der die Kläger in gleich drei dieser Fälle vertreten wird, sagt, dass ein normaler Autokonzern inzwischen eine Einigung erzielt hätte: „Sie betrachten es als Kosten für die Geschäftsabwicklung.“ Musk hat geschworen, sich vor Gericht durchzusetzen, ungeachtet der Gefahren, die daraus für Tesla entstehen könnten. „Die Dollars können sich summieren“, sagte Slavik, „vor allem, wenn Strafschadenersatz festgestellt wird.“

Slavik schickte mir eine der Beschwerden, die er gegen Tesla eingereicht hatte, in der prominente Autopilot-Abstürze von A bis Z – genauer gesagt von A bis WW – aufgelistet sind. In China prallte ein Tesla gegen das Heck einer Straßenkehrmaschine. In Florida prallte ein Tesla gegen einen Sattelschlepper, der über zwei Fahrspuren einer Autobahn gespannt war. Während eines Regengusses in Indiana kam ein Tesla Model 3 mit einem Wasserflugzeug von der Straße ab und ging in Flammen auf. Auf den Florida Keys fuhr ein Model S über eine Kreuzung und tötete einen Fußgänger. In New York wurde ein Mann vom Model Y angefahren, der am Rande des Long Island Expressway seinen Reifen wechselte. In Montana geriet ein Tesla unerwartet in eine Autobahnschranke. Dann passierte dasselbe in Dallas, in Mountain View und in San Jose.

Die Einführung selbstfahrender Fahrzeuge sollte nicht so sein. Tag für Tag erschrecken, verstümmeln und töten wir uns in Autos. In den Vereinigten Staaten gab es im vergangenen Jahr rund 11 Millionen Verkehrsunfälle, fast fünf Millionen Verletzte und mehr als 40.000 Tote. Teslas KI sollte diesem Blutbad ein Ende setzen. Stattdessen kommt es in den Vereinigten Staaten im Durchschnitt jeden Tag zu mindestens einem Autopilot-bedingten Unfall und Tesla wird von der National Highway Traffic Safety Administration untersucht.

Seit der Veröffentlichung von Autopilot im Oktober 2015 hat Musk Autofahrer dazu ermutigt, es für fortschrittlicher zu halten, als es war, und erklärte im Januar 2016, dass es „wahrscheinlich besser“ sei als ein menschlicher Fahrer. Im November dieses Jahres veröffentlichte das Unternehmen ein Video eines Tesla, der durch die Straßen der Bay Area fuhr, mit dem Haftungsausschluss: „Die Person auf dem Fahrersitz ist nur aus rechtlichen Gründen dort. Er tut nichts. Das Auto fährt selbst.“ Auch den Namen „Copilot“ lehnte Musk zugunsten von „Autopilot“ ab.

Das Kleingedruckte machte deutlich, dass die Technologie nur der Fahrerassistenz diente, aber diese Botschaft erhielt nur einen Bruchteil der Aufmerksamkeit von Musks Ankündigungen. Viele Fahrer schienen wirklich verwirrt über die Fähigkeiten des Autopiloten zu sein. (Tesla lehnte es auch ab, offenzulegen, dass das Auto im Video von 2016 auf dem Parkplatz des Unternehmens verunglückte.) Slaviks Klage hält nicht zurück: „Teslas Verhalten war verabscheuungswürdig und so verabscheuungswürdig, dass es von der Allgemeinheit herabgesehen und verachtet würde.“ anständige Leute."

Die vielen Behauptungen der anhängigen Klagen laufen auf ein einziges Thema hinaus: Tesla hat die Erwartungen der Verbraucher immer wieder überhöht und die damit verbundenen Gefahren heruntergespielt. Die Autos verfügten nicht über eine ausreichende Fahrerüberwachung, weil Musk nicht wollte, dass die Fahrer dachten, dass das Auto einer menschlichen Aufsicht bedarf. (Musk im April 2019: „Wenn Sie ein System haben, das auf oder unter der Zuverlässigkeit eines Menschen liegt, dann ist die Überwachung des Fahrers sinnvoll. Aber wenn Ihr System wesentlich besser und zuverlässiger ist als ein Mensch, dann hilft die Überwachung nicht viel.“) Die Fahrer wurden nicht vor Problemen mit automatischer Bremsung oder „unbefohlenen Spurwechseln“ gewarnt. Das Unternehmen gab zwar im Benutzerhandbuch die Einschränkungen der Technologie zu, veröffentlichte jedoch virale Videos eines Tesla, der eine komplizierte Route ohne menschliches Eingreifen zurücklegt.

Musks idealer Kunde war jemand wie Key – bereit, die Schuld auf sich zu nehmen, wenn etwas schief ging, aber mit nahezu grenzenlosem Vertrauen in das nächste Update. In einer eidesstattlichen Erklärung machte ein Ingenieur bei Tesla dies alles andere als deutlich: „Wir möchten den Kunden wissen lassen, dass Sie erstens Vertrauen in Ihr Fahrzeug haben sollten: Alles funktioniert so, wie es sollte.“ Und zweitens den Grund für Ihren Unfall oder Grund Ihres Vorfalls fällt immer auf Sie zurück.

Nach unserem misslungenen Linksabbiegen in Laguna Beach erkannte Key das Problem schnell. Wenn das System nur auf FSD 10.69 aktualisiert worden wäre, hätte das Auto die Kurve sicherlich sicher geschafft, argumentierte er. Unglücklicherweise für Musk ist nicht jeder Tesla-Besitzer wie Dave Key. Die Kläger in den Autopilot-Klagen stimmen möglicherweise darin überein, dass sich die KI verbessert, allerdings nur auf Kosten der Erstanwender und Unbeteiligten, die dabei möglicherweise getötet werden.

Online gibt es einen Kampf zwischen Pro-Musk- und Anti-Musk-Fraktionen über Autopilot und FSD Reddit hat ein Forum namens r/RealTesla, das die peinlichsten KI-Fehler zusammen mit allgemeineren Beschwerden präsentiert: quietschende Lenkräder, undichte Dächer, verrückte Elektronik, laute Kabinen, steife Federungen, zerknitterte Ledersitze, kaputte Türgriffe. Die Musk Stans neigen dazu, sich in r/TeslaMotors zurückzuziehen, wo sie Tesla-Sichtungen veröffentlichen, die neuesten Fabrikeröffnungen des Unternehmens anfeuern und auf die nächste große Ankündigung des Chefs warten.

Ich habe David Alford auf YouTube gefunden, wo er ein Video mit dem Titel „Tesla Full Self-Driving Running a Red Light“ gepostet hat. Darin sehen wir den Blick durch die Windschutzscheibe, als sich Alfords Auto einer Kreuzung mit einer Linksabbiegespur nähert, an der es eine eigene Ampel gibt. Wenige hundert Meter vor dem Ziel wechselt die Ampel von Grün auf Rot, aber das Auto hält nicht an. Stattdessen rollt es in die Kreuzung, wo es auf dem richtigen Weg ist, mit dem Gegenverkehr zusammenzustoßen, bis Alford übernimmt.

In den Kommentaren werden Tesla-Fans zunehmend wütend auf Alford, weil er das Video gepostet hat, aber er wehrt sich: „Wie hilft es, Druck auf Tesla auszuüben, seine Systeme zu verbessern, wenn man Angst hat, ihre Fehler zu posten?“ Als Antwort auf einen Kommentar schreibt er, dass FSD „in dem Kontext, in dem sie es verwenden, unethisch“ sei.

Als ich Alford anrief, erwartete ich jemanden, der für r/RealTesla geeignet ist, aber am Ende hatte er eher die Atmosphäre von r/TeslaMotors. Er sagte mir, dass er bereit wäre, mich auf die Seite seines Videos mitzunehmen und mir das Scheitern zu demonstrieren, aber zuerst müsse ich ein Versprechen geben. „Das Einzige, worum ich bitte, ist, mich gegenüber Tesla nicht in ein schlechtes Licht zu rücken“, sagte er. „Ich möchte nicht, dass irgendjemand denkt, ich hasse das Unternehmen oder was auch immer, weil ich ein sehr, sehr großer Unterstützer von ihnen bin.“

Alford lebt in Fresno, Kalifornien, und bevor ich ihn letzten Herbst eines Tages traf, erzählte er mir einige aufregende Neuigkeiten: Er hatte gerade das FSD 10.69-Update erhalten. Unsere Fahrt wäre sein erster Versuch, die Kreuzung aus dem YouTube-Video mit dem neuen System zu befahren.

An dem Morgen, als ich ihn traf, trug er ein schwarzes T-Shirt, das seine Tätowierungen zur Geltung brachte, eine schwarze Sonnenbrille und ausgeblichene schwarze Jeans mit Löchern in den Knien. Hollywood würde ihn als White-Hat-Hacker bezeichnen, und tatsächlich ist er ein Software-Typ wie Key: Er ist Produktingenieur bei einem Technologieunternehmen in der Bay Area.

Sein weißes Tesla Model 3, Baujahr 2020, hatte einen magnetischen Autoaufkleber, den er auf Etsy gefunden hatte: VORSICHT VOLLSTÄNDIGE TESTS DES SELBSTFAHRERS LÄUFT. Er sagte, er fahre 90 Prozent der Zeit im FSD-Modus, daher verhalte sich sein Auto immer etwas seltsam – der Aufkleber habe dazu beigetragen, das Hupen anderer Autos in Schach zu halten. Er schien, wie Key, ein idealer FSD-Betatester zu sein: interessiert an der Software, aufmerksam auf ihre Fehler, beharrlich auf der Ansammlung autonomer Meilen.

Ich kletterte auf den Beifahrersitz und Alford gab unser erstes Ziel ein: einen Ort ein paar Blocks entfernt in der Innenstadt von Fresno. „Wir hatten Glück, dass es bewölkt war“, sagte er, denn das Auto verhielt sich bei diesen Bedingungen gut. An Tagen, an denen es sonnig war und viel Blendung herrschte, konnte das Auto „launisch“ sein. Und wenn es neblig war, und in Fresno war es oft neblig, „flippt es aus.“

Nach ein paar Minuten näherten wir uns einem Zebrastreifen, als gerade zwei Eltern, die ein Kind in einem Wagen zogen, über den Fußgängerüberweg zu gehen begannen. Ein Bildschirm neben dem Lenkrad zeigte an, dass die KI die beiden Fußgänger registriert hatte, nicht jedoch den Wagen. Alford sagte, er habe mit dem Fuß über der Bremse geschwebt, aber das Auto habe von selbst angehalten.

Hinter dem Wagen kam eine Frau im Rollstuhl. Das Auto blieb stehen. Alford erzählte mir, dass im Automobiljargon jeder auf der Straße, der nicht in einem Auto oder LKW sitzt, ein „VRU“ ist, ein gefährdeter Verkehrsteilnehmer. Und es stimmt: Fußgänger und Radfahrer und Kinder in Kinderwagen und Frauen in Rollstühlen – sie sind so zerbrechlich im Vergleich zu diesen riesigen Maschinen, die wir in unsere Städte und auf unsere Autobahnen gestopft haben. Eine falsche Bewegung und ein Auto wird sie zerquetschen.

Wir bogen in die Van Ness Avenue ein, die durch die Innenstadt führt. Die Straße war neu gepflastert worden, und statt Linien auf der Straße gab es kleine gelbe Markierungen, die anzeigten, wohin die Linien später führen würden. Der Tesla hasste das und wich besorgt nach rechts und links aus, auf der Suche nach etwas, um ihn zu verankern. Es waren keine anderen Autos in der Nähe, also ließ Alford es das System aus seinem System herausholen und schließlich eine Spurlinie finden, der es folgen konnte.

„Man baut eine Toleranz gegenüber den damit verbundenen Risiken auf“, sagte er. „Ja, es schwankt überall, aber ich weiß, dass es nicht gegen irgendetwas prallen wird.“ Dennoch hatte die Erfahrung der Beta die Art und Weise verändert, wie er an seine eigene Arbeit heranging. „Es hat mich als Softwareentwickler tatsächlich zögerlicher gemacht, meine Software in die Hände von Menschen zu geben“, bevor sie vollständig fertig ist, sagte er, „obwohl sie nicht gefährlich ist.“

Sekunden später fuhren wir über eine Kreuzung, als zwei VRUs – ein Mann, der einen Hund führte – den Zebrastreifen betraten. Sie waren in sicherer Entfernung, aber der Hund begann sich an der Leine in unsere Richtung zu drängen. Alford und ich wussten, dass das Haustier nicht in Gefahr war, denn die Leine würde es aufhalten. Aber alles, was der Tesla sah, war ein Hund, der vor uns springen wollte und dann abrupt anhielt. Alles in allem war es ein gutes Ergebnis – es wurden keine Lebewesen verletzt –, aber es war alles andere als ein nahtloses Selbstfahrerlebnis.

Alford rüttelte gerade so oft am Lenkrad, dass das Auto ihn nie warnte, aufmerksam zu sein. Die strikte Überwachung des Fahrers machte ihm nichts aus: Er wurde nie müde, das Verhalten des Autos zu studieren, sodass er nie in Versuchung geriet, abzuschalten. Dennoch kannte er Leute, die das System missbrauchten. Ein Fahrer befestigte ein Knöchelgewicht am Lenkrad, um bei langen Autofahrten „sich zurückzulehnen und alles zu tun“. „Ich kenne ein paar Leute mit Teslas, die FSD Beta haben“, sagte er, „und sie haben es, um zu trinken und zu fahren, anstatt ein Uber anrufen zu müssen.“

Wir verließen die Innenstadt und fuhren auf den Highway in Richtung eines Gebiets nordöstlich der Stadt namens Clovis, wo sich die schwierige Kreuzung befand. Alford hat seine FSD-Einstellungen aufgerufen. Sein Standard-Fahrmodus war „Durchschnitt“, aber er sagte, er habe herausgefunden, dass sich die beiden anderen Optionen – Chill und Durchsetzungsvermögen – nicht viel unterschieden: „Das Auto ist sowieso einfach sehr aggressiv.“ Für das Fahren auf der Autobahn hatte er das Auto jedoch auf den sogenannten „Mad Max“-Modus eingestellt, was bedeutete, dass es jedes Fahrzeug vor ihm überholte, selbst wenn es nur ein paar Meilen pro Stunde langsamer als seine bevorzugte Geschwindigkeit fuhr.

Wir verließen die Autobahn und stießen schnell auf eine Autokolonne. An der Ampel, die rot blinkte, war ein Fehler aufgetreten, und die Fahrer in allen vier Richtungen auf acht Fahrspuren mussten herausfinden, wann sie vorfahren und wann sie nachgeben sollten. Die Choreografie war hier heikel: Es gab zu viele Autos, um sie miteinander zu verknüpfen, ohne dass Gnade, Verwirrung und Zweckmäßigkeit berücksichtigt wurden. Unter den Menschen winkten sie häufig anderen zu und versuchten Blickkontakt, um zu sehen, ob jemand nachgeben würde oder nicht.

Wir schlichen Auto für Auto auf die Kreuzung zu, bis wir an der Reihe waren. Wenn wir Nuancen erwartet hätten, gab es keine. Als wir vollständig zum Stillstand gekommen waren, beschleunigte der Tesla schnell, schnitt ein Auto ab, das vor uns abbog, und fuhr um ein anderes herum. Es war nicht so sehr unmenschlich, sondern das Verhalten eines Menschen, der entschlossen war, ein Idiot zu sein. „Das war schlimm“, sagte Alford. „Normalerweise würde ich mich zurückziehen, sobald es einen solchen Fehler macht.“ Er klickte auf eine Schaltfläche, um einen Schnappschuss des Vorfalls an Tesla zu senden.

Später, bei einem Vier-Wege-Stopp, war das Auto zu vorsichtig. Es dauerte zu lange und die anderen beiden Autos an der Kreuzung fuhren vor uns los. Wir haben über das alte Sprichwort über sicheres Fahren gesprochen: „Sei nicht nett, sei vorhersehbar.“ Für einen Computer war Teslas KI überraschend unberechenbar. „Es ist weder schön noch vorhersehbar“, sagte Alford.

Ein paar Meilen die Straße hinunter erreichten wir die Kreuzung aus dem Video: eine Linkskurve von der State Route 168 auf die East Shepherd Avenue. Die Ampel steht genau an der Stelle, an der die neuesten Entwicklungen der Stadt enden und offenes Land beginnt. Wenn wir geradeaus fuhren, wären wir auf dem Weg hinauf in die Sierra sofort von Beifuß umgeben.

Um den von Alford aufgedeckten Fehler zu reproduzieren, mussten wir uns der Kreuzung mit einem roten Linksabbiegepfeil und einer grünen Ampel nähern, um geradeaus weiterzufahren. Bei unserem ersten Durchgang wurde der Pfeil in letzter Sekunde grün. Beim zweiten Durchgang, auf einer leeren Straße, war das Timing jedoch richtig: Rot für uns und Grün für alle anderen.

Als wir näher kamen, geriet das Auto auf die Abbiegespur und wurde langsamer. „Es sieht das Rote“, sagte ich.

„Nein“, sagte Alford. „Hier wird es immer etwas langsamer, bevor es weitergeht.“ Aber dieses Mal wurde es immer langsamer. Alford konnte es nicht glauben. „Es wird immer noch das Licht laufen lassen“, sagte er. Aber er hat sich geirrt: Wir kamen genau an der Ziellinie zum Stehen. Alford war schockiert. „Sie haben es repariert!“ er sagte. „Das, worüber ich ihnen seit zwei Jahren ein Problem mache.“ Wir warteten geduldig, bis die Ampel auf Grün schaltete und der Tesla reibungslos auf die Shepherd Avenue fuhr. Kein Problem.

Es war eine so klare Demonstration von Musks Hypothese, wie man es sich nur wünschen konnte. Es gab eine Situation, die die KI immer wieder aus der Fassung brachte, bis das neuronale Netz es herausfand, nachdem genügend Daten von engagierten Fahrern wie Alford gesammelt worden waren. Wiederholen Sie diese Risiko-Ertrags-Umrechnung X-mal, und vielleicht schafft Tesla die Lösung für das autonome Fahren. Vielleicht sogar nächstes Jahr.

Auf der Rückfahrt ins Zentrum von Fresno war Alford voller Elan und erfreut über die Möglichkeit, die Tesla-Welt zum Besseren verändert zu haben. Ich fragte ihn, ob die Veröffentlichung von FSD 10.69 dem Hype entsprach, der ihr vorausgegangen war. „Um ehrlich zu sein, ja, das denke ich“, sagte er. (Noch begeisterter war er von der im Dezember veröffentlichten Version von FSD, die er als nahezu fehlerfrei beschrieb.)

Ein paar Minuten später erreichten wir einen heruntergekommenen Teil der Stadt. Alford sagte, dass die KI von Tesla in einkommensstärkeren Gegenden im Allgemeinen besser abschneide, vielleicht weil es in diesen Gegenden mehr Tesla-Besitzer gebe. „Gibt es Datenverzerrungen für Gebiete mit höherem Einkommen, weil dort die Teslas stehen?“ er fragte sich.

Wir näherten uns einer Kreuzung und versuchten, links abzubiegen – was sich als Wiederholung des Laguna Beach-Szenarios herausstellte. Der Tesla schlich langsam heraus und versuchte, einen besseren Blick auf die Autos zu werfen, die von links kamen. Es bewegte sich immer weiter vorwärts, bis wir uns wieder vollständig in der Verkehrsspur befanden. Nichts hinderte den Tesla daran, zu beschleunigen und die Kurve zu beenden, sondern er blieb einfach stehen. Zur gleichen Zeit raste ein manipulierter Honda Accord auf uns zu, etwa drei Sekunden davon entfernt, die Fahrertür zu treffen. Alford übernahm schnell die Kontrolle und trat aufs Gaspedal, und wir kamen sicher davon. Diesmal sagte er nichts.

Von dort aus war es eine harte Heimfahrt. Bei einer normalen Linkskurve an einer Ampel geriet das System in Panik und versuchte, nach rechts zu fahren. Alford musste übernehmen. Und dann, als wir uns einer kleeblattförmigen Auffahrt zur Autobahn näherten, begann das Auto zu beschleunigen. Um auf der Rampe zu bleiben, mussten wir einen Bogen nach rechts machen; Vor uns befand sich ein steiler Abhang zu einer Baustelle ohne Leitplanken. Das Auto zeigte keine Anzeichen einer Wende. Wir überquerten eine durchgezogene weiße Linie und waren nur wenige Millisekunden davon entfernt, von der Straße abzuspringen, als das Lenkrad schließlich scharf nach rechts ruckte und wir uns wieder an die Straße anschmiegten. Dieses Mal hatte sich FSD selbst korrigiert, aber wenn nicht, hätte uns der Absturz mit Sicherheit getötet.

Peter Thiel, Musks ehemaliger Geschäftspartner bei PayPal sagte einmal, wenn er ein Buch schreiben würde, würde das Kapitel über Musk „Der Mann, der nichts über Risiko wusste“ heißen. Aber das ist ein Missverständnis von Musks Haltung: Wenn man seine Aussagen analysiert, stellt er sich als einen Mann dar, der in der rationalen Annahme zukünftiger Gewinne einfach erstaunliche Mengen an gegenwärtigen Risiken in Kauf nimmt.

Musks klarste Artikulation seiner Philosophie kam natürlich auf Twitter. „Wir sollten die Maßnahmen ergreifen, die das allgemeine Glück der Öffentlichkeit maximieren!“ Er schrieb einem Benutzer, der ihn fragte, wie er den Planeten retten könne. Im August nannte er die Schriften von William MacAskill, einem schottischen utilitaristischen Ethiker, „eine gute Übereinstimmung mit meiner Philosophie“. (MacAskill war insbesondere auch die intellektuelle Muse von Sam Bankman-Fried, obwohl er die Verbindung zu ihm abbrach, nachdem der FTX-Skandal ans Licht kam.)

Musks Risikobereitschaft hat zu wahren Durchbrüchen geführt: SpaceX kann wiederverwendbare Raketen auf ferngesteuerten Landeplätzen im Ozean landen; Starlink stellt den Ukrainern an der Front Internetdienste zur Verfügung; OpenAI kommt dem Bestehen des Turing-Tests immer näher. Was Tesla betrifft, hielten selbst Musks schärfste Kritiker – und ich habe mit vielen von ihnen gesprochen, als ich über diesen Artikel berichtete – unaufgefordert inne, um ihm die Ehre zuzusprechen, dass er den inzwischen robusten Markt für Elektrofahrzeuge in den Vereinigten Staaten und auf der ganzen Welt geschaffen hat.

Und doch, wie Robert Lowell schrieb: „Keine Rakete geht so weit in die Irre wie der Mensch.“ Als sich in den letzten Monaten die Empörungen auf Twitter und anderswo zu vervielfachen begannen, schien Musk entschlossen zu sein, einen Großteil des guten Willens, den er im Laufe seiner Karriere aufgebaut hatte, zu vergeuden. Ich fragte Slavik, den Anwalt der Kläger, ob der jüngste Stimmungsumschwung in der Öffentlichkeit gegen Musk seine Arbeit im Gerichtssaal erleichtert habe. „Ich denke zumindest, dass es zum jetzigen Zeitpunkt mehr Menschen gibt, die seinem Urteil skeptisch gegenüberstehen als zuvor“, sagte er. „Wenn ich auf der anderen Seite wäre, würde ich mir darüber Sorgen machen.“

Einige der fragwürdigsten Entscheidungen von Musk beginnen jedoch Sinn zu ergeben, wenn man sie als Ergebnis einer unverblümten utilitaristischen Kalkulation betrachtet. Letzten Monat berichtete Reuters, dass Neuralink, Musks Medizingeräteunternehmen, durch überstürzte Experimente den unnötigen Tod Dutzender Labortiere verursacht habe. Interne Nachrichten von Musk machten deutlich, dass die Dringlichkeit von oben kam. „Wir bewegen uns einfach nicht schnell genug“, schrieb er. „Es macht mich wahnsinnig!“ Die Kosten-Nutzen-Analyse muss ihm klar erschienen sein: Neuralink hatte das Potenzial, Lähmungen zu heilen, glaubte er, was das Leben von Millionen künftiger Menschen verbessern würde. Das Leid einer geringeren Anzahl Tiere hat sich gelohnt.

Diese Form der groben Langfristigkeit, bei der die schiere Größe zukünftiger Generationen ihnen zusätzliches ethisches Gewicht verleiht, kommt sogar in Musks Aussagen zum Kauf von Twitter zum Ausdruck. Er bezeichnete Twitter als einen „digitalen Stadtplatz“, der nicht weniger dafür verantwortlich sei, als einen neuen amerikanischen Bürgerkrieg zu verhindern. „Ich habe es nicht getan, um mehr Geld zu verdienen“, schrieb er. „Ich habe es getan, um der Menschheit zu helfen, die ich liebe.“

Autopilot und FSD stellen den Höhepunkt dieses Ansatzes dar. „Das übergeordnete Ziel der Tesla-Technik ist“, schrieb Musk, „die Maximierung der Fläche unter der Benutzerzufriedenheitskurve.“ Anders als bei Twitter oder sogar Neuralink starben Menschen an den Folgen seiner Entscheidungen – aber egal. Im Jahr 2019 empörte sich Musk in einem hitzigen E-Mail-Austausch mit dem aktivistischen Investor und überzeugten Tesla-Kritiker Aaron Greenspan über die Behauptung, Autopilot sei alles andere als eine lebensrettende Technologie. „Die Daten belegen eindeutig, dass Autopilot bei weitem sicherer ist als menschliches Fahren“, schrieb er. „Es ist unethisch und falsch von Ihnen, etwas anderes zu behaupten. Damit gefährden Sie die Öffentlichkeit.“

Ich wollte fragen Musk wollte seine Risikophilosophie näher erläutern, antwortete aber nicht auf meine Interviewanfragen. Stattdessen habe ich mit Peter Singer, einem prominenten utilitaristischen Philosophen, gesprochen, um einige der damit verbundenen ethischen Fragen zu klären. Hatte Musk Recht, als er behauptete, dass alles, was die Entwicklung und Einführung autonomer Fahrzeuge verzögert, von Natur aus unethisch sei?

„Ich denke, er hat Recht“, sagte Singer, „wenn er mit den Fakten Recht hat.“

Musk spricht selten über Autopilot oder FSD, ohne zu erwähnen, wie überlegen sie einem menschlichen Fahrer sind. Auf einer Aktionärsversammlung im August sagte er, dass Tesla „einen sehr wichtigen Teil der KI löst, und zwar einen, der letztendlich Millionen von Leben retten und zig Millionen schwere Verletzungen verhindern kann, indem er nur eine Größenordnung sicherer fährt als Menschen.“ " Musk verfügt über Daten, die dies belegen: Seit 2018 veröffentlicht Tesla vierteljährliche Sicherheitsberichte für die Öffentlichkeit, die einen durchgängigen Vorteil der Verwendung von Autopilot belegen. In der jüngsten Studie von Ende 2022 heißt es, dass bei Teslas mit eingeschaltetem Autopilot die Unfallwahrscheinlichkeit um ein Zehntel höher sei als bei einem normalen Auto.

Das ist das Argument, das Tesla in diesem Frühjahr der Öffentlichkeit und den Jurys vorbringen muss. Im Sicherheitsbericht des Unternehmens heißt es: „Obwohl kein Auto alle Unfälle verhindern kann, arbeiten wir jeden Tag daran, die Wahrscheinlichkeit, dass sie passieren, deutlich zu verringern.“ Der Autopilot kann manchmal einen Absturz verursachen, aber ohne diese Technologie wären wir bei OOOOOOOOOOOOOOOOOOO.

Singer sagte mir, selbst wenn Autopilot und menschliche Fahrer gleichermaßen tödlich wären, sollten wir die KI bevorzugen, vorausgesetzt, dass das nächste Software-Update, basierend auf Daten aus Unfallberichten und Beinaheunfällen, das System noch sicherer machen würde. „Das ist ein bisschen wie bei Chirurgen, die experimentelle Operationen durchführen“, sagte er. „Wahrscheinlich werden sie bei den ersten Operationen Patienten verlieren, aber das Argument dafür ist, dass sie auf lange Sicht mehr Patienten retten werden.“ Wichtig sei jedoch, fügte Singer hinzu, dass die Chirurgen die Einverständniserklärung der Patienten einholen.

Verfügt Tesla über die Einverständniserklärung seiner Fahrer? Die Antwort könnte für verschiedene Autobesitzer unterschiedlich ausfallen – für Dave Key im Jahr 2018 wäre sie wahrscheinlich anders als im Jahr 2022. Aber die meisten Kunden sind sich der Mängel des Autopiloten nicht bewusst, sagte Philip Koopman, der Autor von „How Safe Is Safe“. Genug? Messung und Vorhersage der Sicherheit autonomer Fahrzeuge.“ Die Autos machten immer wieder „wirklich verrückte, verrückte, überraschende Fehler“, sagte er. „Teslas Praxis, ungeschulte Zivilisten als Testfahrer für eine unausgereifte Technologie einzusetzen, ist wirklich ungeheuerlich.“

Auch Koopman wendet sich gegen die angeblichen Fakten von Musk. Ein offensichtliches Problem mit den Daten, die das Unternehmen in seinem vierteljährlichen Sicherheitsbericht veröffentlicht, besteht darin, dass es die Autopilot-Kilometer, die hauptsächlich auf Autobahnen mit eingeschränkter Zufahrt zurückgelegt werden, direkt mit den Automeilen aller Fahrzeuge vergleicht. „Auf sicheren Strecken nutzen Sie den Autopiloten“, sagte Koopman. „Natürlich sieht es großartig aus. Und dann vergleicht man es auf den anspruchsvollen Kilometern mit dem Nicht-Autopiloten.“

Im dritten Quartal 2022 gab Tesla an, dass es pro 6,26 Millionen mit Autopilot gefahrenen Meilen einen Unfall gab – in der Tat fast zehnmal besser als in den USA mit einem Unfall pro 652.000 Meilen. Unfälle sind jedoch auf Landstraßen weitaus wahrscheinlicher als auf Autobahnen: Eine Studie des Verkehrsministeriums von Pennsylvania zeigte, dass Unfälle auf örtlichen Straßen fünfmal so häufig waren wie auf Autobahnen. Beim Vergleich der Autopilot-Zahlen mit den Autobahnzahlen sinkt der Vorsprung von Tesla deutlich.

Teslas Sicherheitsaussagen sehen noch unsicherer aus, wenn man versucht, das Alter des Autos und das Alter des Fahrers zu berücksichtigen. Die meisten Tesla-Besitzer sind mittleren Alters oder älter, wodurch eine riskante Gruppe von Fahrern eliminiert wird: Teenager. Und allein der Besitz eines neuen Autos verringert das Unfallrisiko erheblich. Es ist sogar möglich, dass die Zahl der Teslas in Kalifornien – mit dem allgemein milden, trockenen Wetter – die Zahlen zu seinen Gunsten verzerrt hat. Eine unabhängige Studie, die versuchte, einige dieser Vorurteile zu korrigieren, ergab, dass Teslas genauso oft abstürzten, wenn der Autopilot eingeschaltet war, als wenn er ausgeschaltet war.

„Das war schon immer ein Problem für Utilitaristen“, erzählte mir Singer. „Weil es keine strengen moralischen Regeln gibt, könnten die Leute denken, sie könnten damit durchkommen, die Summen auf eine Art und Weise zu berechnen, die ihren Zwecken entspricht.“

Das utilitaristische Denken hat dazu geführt, dass Individuen Taten von atemberaubender Tugend vollbringen, aber diesen ethischen Rahmen in die Hände eines Industriellen zu legen, birgt gewisse Gefahren. Echter Utilitarismus erfordert eine sorgfältige Abwägung aller Schäden und Vorteile in der Gegenwart und in der Zukunft, mit der Geduld, diese Einschätzung vorzunehmen, und der Geduld, keine Maßnahmen zu ergreifen, wenn das Ausmaß des Leidens und Todes, das das Vorantreiben verursacht, nicht klar ist. Musk nutzt den Utilitarismus in begrenzterem Umfang und argumentiert, dass er es sofort tun dürfe, solange er sicher sei, dass etwas einen Nettonutzen habe.

In den letzten zwei Jahrzehnten hat Musk es irgendwie geschafft, mehrere Unternehmen zu leiten, bei denen er glaubhaft behaupten kann, dass er daran arbeitet, die Zukunft der Menschheit zu bewahren. SpaceX kann Satelliten nicht einfach in eine niedrige Umlaufbahn bringen; Es wird uns auch zum Mars schicken. Tesla kann nicht einfach ein solides Elektroauto bauen; Es wird das Problem des autonomen Fahrens lösen. Twitter kann nicht nur ein weiterer Ort sein, an dem wir uns treffen, um zu diskutieren. Es ist eine der Stützen, die die Zivilisation aufrechterhält. Wenn der Einsatz entsprechend erhöht ist, erscheinen alle möglichen fragwürdigen Verhaltensweisen – fast – vernünftig.

„Wahre Gläubige“, schrieb die Romanautorin Jeanette Winterson, „würden lieber zusehen, wie Regierungen gestürzt und die Geschichte neu geschrieben werden, als die Tarnung ihres Glaubens zu zerstören.“ Musk scheint unerschütterlich davon überzeugt zu sein, dass sein Ansatz richtig ist. Aber trotz all seiner Dringlichkeit könnte er das KI-Rennen trotzdem verlieren.

Derzeit können Sie in San Francisco und Austin, Texas, und bald auch in Städten auf der ganzen Welt ein Robotaxi rufen, das von Cruise oder Waymo betrieben wird. „Wenn es einen Moment in der Zeit gibt, in dem wir von der Fiktion zur Realität übergehen, dann ist es jetzt“, sagte mir Sebastian Thrun, der das Team für selbstfahrende Autos von Google gründete. („Das habe ich letztes Jahr übrigens nicht gesagt“, fügte er hinzu.) Thrun war kein R/RealTesla-Lurer; Er saß in seinem fünften Tesla und sagte, er bewundere das Unternehmen: „Was Tesla hat, ist wirklich wunderschön. Sie haben eine Fahrzeugflotte auf dem Feld.“ Aber zum jetzigen Zeitpunkt sind die Konkurrenten von Tesla näher an der Erreichung des vollständig autonomen Fahrens als jedes andere Fahrzeug, das mit FSD ausgestattet ist

In den letzten Monaten hat Musk aufgehört zu versprechen, dass autonome Teslas unmittelbar bevorstehen. „Ich dachte, das Problem des autonomen Fahrens wäre schwierig“, sagte er, „aber es war schwieriger, als ich dachte. Es ist nicht so, dass ich gedacht hätte, dass es einfach sein würde. Ich dachte, es wäre sehr schwierig. Aber es war tatsächlich viel schwieriger.“ als selbst das.“

Am 29. Dezember 2019, Am selben Tag, als ein Tesla in Indiana einen tödlichen Unfall mit einem geparkten Feuerwehrauto hatte, fuhr ein dienstfreier Chauffeur namens Kevin George Aziz Riad mit seinem grauen 2016 Tesla Model S den Gardena Freeway in einem Vorort von Los Angeles entlang. Es war eine lange Fahrt von einem Besuch in Orange County zurück und Riad hatte den Autopiloten eingeschaltet. Kurz nach Mitternacht fuhr das Auto unter einem riesigen Schild hindurch, auf dem in blinkenden gelben Lichtern stand: END FREEWAY SIGNAL AHEAD.

Der Autopilot hielt Riads Tesla auf konstanter Geschwindigkeit, als er sich der Ampel näherte, die das Ende der Autobahn und den Beginn des Artesia Boulevard markierte. Einem Zeugen zufolge war die Ampel rot, aber das Auto fuhr geradeaus über die Kreuzung und prallte gegen einen Honda Civic. Riad hatte nur leichte Verletzungen, aber die beiden Personen im Civic, Gilberto Alcazar Lopez und Maria Guadalupe Nieves, starben noch am Unfallort. Ihre Familien sagten, sie hätten ein erstes Date.

Wer war für diesen Unfall verantwortlich? Staatsbeamte haben Riad wegen Totschlags angeklagt und planen, ihn strafrechtlich zu verfolgen, als wäre er der einzige Schuldige hinter den beiden Todesfällen. Die Familien der Opfer haben inzwischen Zivilklagen sowohl gegen Riad als auch gegen Tesla eingereicht. Abhängig von den Ergebnissen der Straf- und Zivilverfahren könnte das Autopilot-System tatsächlich als rechtlich verantwortlich, nicht rechtlich verantwortlich oder beides gleichzeitig beurteilt werden.

Vor nicht allzu langer Zeit habe ich mir die Stelle angesehen, an der Riads Tesla angeblich über die rote Ampel gefahren ist. Ich hatte für diesen Tag einen Tesla gemietet, um endlich aus erster Hand herauszufinden, wie es sich anfühlte, mit Autopilot unter Kontrolle zu fahren. Ich fuhr auf der Landstraße nach Osten, bis ich eine Auffahrt erreichte, an der ich auf die State Route 91, den Gardena Freeway, einbiegen konnte. Es war spät in der Nacht, als Riad abstürzte. Ich fuhr mitten am Tag.

Sobald ich auf der Autobahn war, schaltete ich den Autopiloten ein und das Auto übernahm. Ich hatte die Straße größtenteils für mich allein. Dieser Tesla war so programmiert, dass er die erlaubte Geschwindigkeit um 15 Prozent überschritt, wenn der Autopilot aktiviert war, und das Auto beschleunigte schnell auf 74 Meilen pro Stunde, was der Geschwindigkeit von Riad bei seinem Unfall entsprach. Waren seine Autopilot-Geschwindigkeitseinstellungen gleich?

Das Auto blieb gut in der Spur, besser als jeder andere verkehrsbewusste Tempomat, den ich je benutzt habe. Ich habe versucht, meine Hände vom Lenkrad zu nehmen, aber der Tesla piepste mich nach ein paar Sekunden an.

Als ich mich der Absturzstelle näherte, passierte ich das riesige Schild „END FREEWAY SIGNAL AHEAD“. Der Autopilot fuhr munter weiter. Nach weiteren 500 Fuß erschien das gleiche Schild erneut und blinkte eindringlich. Es waren nur noch ein paar hundert Fuß geteilter Autobahn übrig, und dann verwandelte sich die Route 91 direkt an der Kreuzung mit der Vermont Avenue in eine Landstraße.

Ich ließ meinen Fuß über der Bremse schweben. Was habe ich getan? Mal sehen, ob das Auto wirklich einfach über eine rote Ampel fahren würde? Natürlich würde es das tun. Ich glaube, ich habe versucht, mir vorzustellen, wie einfach es wäre, so etwas zu tun. Am Ende einer langen Nacht, auf einer Straße ohne Autos, mit etwas namens Autopilot unter Kontrolle? Ich vermute, dass Riad nicht einmal bemerkt hat, dass er die Autobahn verlassen hat.

Das Auto beschleunigte unter den Warnlichtern mit 74 Meilen pro Stunde. Die Unfalldaten zeigen, dass die Bremsen sechs Minuten lang nicht betätigt worden waren, bevor der Tesla Lopez und Nieves traf.

Mein Tesla fuhr auf die Kreuzung. Ich kam dem Licht immer näher. Keine Bremsen. Und dann, kurz bevor ich übernehmen wollte, kam ein Pickup von der rechten Spur ab und schnitt mir den Weg ab. Der Tesla spürte es sofort und bremste stark. Wenn nur dieser Lastwagen – so unbestreitbar ein riesiges Stück Hardware auch sein kann – im Dezember 2019 dort gewesen wäre, wären Lopez und Nieves noch am Leben.

Quellfotos: Alamy; Shutterstock.

Christopher Cox ist Redakteur beim New York Magazine und Autor von „The Deadline Effect“. Sein letzter Artikel für das Times Magazine befasste sich mit dem Geschäftsimperium des Gastronomen Jean-Georges Vongerichten. Justin Metzist ein Art Director und Illustrator, der für seine kühnen, in CGI umgesetzten Konzepte bekannt ist

Werbung

Drei Wochen vor Online gibt es einen Kampf zwischen Peter Thiel, Musks Ex. Ich wollte am 29. Dezember 2019 Christopher Cox und Justin Metz fragen