Tesla will, dass Videos von seinen Autos, die über kindliche Dummies fahren, entfernt werden

Tesla will, dass Videos von seinen Autos, die über kindliche Dummies fahren, entfernt werden

Tesla fordert, dass eine Interessenvertretung Videos seiner Fahrzeuge entfernt, die über Schaufensterpuppen in Kindergröße fahren, was die Debatte über die Sicherheit der Full Self-Driving-Software des Unternehmens eskaliert.

Tesla schickte eine Unterlassungserklärung an das Dawn Project, eine Anti-Tesla-Gruppe um den Softwareentwickler Dan O’Dowd. Darin behauptet das Unternehmen, die Videos seien diffamierend und stellten die Fähigkeiten seiner Fahrerassistenztechnologie falsch dar. (Der Brief war zuerst berichtet von Die Washington Post.)

Der Brief ist eine Antwort auf eine Anzeige des Dawn-Projekts, die vorgibt, ein Tesla-Fahrzeug mit FSD-Software zu zeigen, das bei 20 Meilen pro Stunde über eine Kinderpuppe fährt.

„Uns ist aufgefallen, dass Sie persönlich und The Dawn Project die kommerziellen Interessen von Tesla verunglimpft und diffamierende Informationen über die Fähigkeiten von Teslas Full Self Driving (FSD) (Beta)-Technologie in der Öffentlichkeit verbreitet haben“, sagte Dinna Eskin, Senior Direktor und stellvertretender General Counsel bei Tesla, schreibt in dem Brief. „Wir verlangen, dass Sie die weitere Verbreitung aller diffamierenden Informationen unverzüglich einstellen und unterlassen, innerhalb von 24 Stunden einen formellen öffentlichen Widerruf ausstellen und Tesla die unten geforderten Unterlagen zur Verfügung stellen.“

Der Brief kommt wenige Tage, nachdem YouTube mehrere Videos entfernt hat, die zeigen, wie Tesla-Fahrer ihre eigenen Sicherheitstests durchführen, um festzustellen, ob die Full Self-Driving (FSD)-Software des Unternehmens es ermöglichen würde, automatisch anzuhalten, wenn Kinder über die Straße gehen oder auf der Straße stehen. Diese Videos wurden als Reaktion auf Demonstrationen von O’Dowds Gruppe veröffentlicht, die zeigten, dass Tesla-Fahrzeuge mit FSD über die kindgerechten Dummies fuhren.

Es scheint nicht, dass Tesla Einwände gegen die Videos seiner Fans erhoben hat, in denen echte Kinder verwendet wurden, um die Fahrerassistenzfähigkeiten von FSD zu demonstrieren. Aber es wird behauptet, dass die Videos des Dawn-Projekts „die unsichere und unsachgemäße Verwendung von FSD Beta und aktiven Sicherheitsfunktionen darstellen“, und fügt hinzu, dass die Aktionen der Gruppe „die Verbraucher tatsächlich gefährden“.

Eskin fordert auch, dass O’Dowd und das Dawn Project Aufzeichnungen und Mitteilungen im Zusammenhang mit ihrer Anti-Tesla-Werbekampagne aufbewahren, und stellt fest, dass das Unternehmen die Gruppe für zukünftige rechtliche Schritte „in Kenntnis setzt“.

Tesla sieht sich wegen seiner Entscheidung, Laienfahrern zu erlauben, eine Beta-Version seiner Fahrerassistenzsoftware auf öffentlichen Straßen zu testen, zunehmend unter die Lupe genommen. Kritiker sagen, das Unternehmen gefährde das Leben seiner Kunden sowie von Fußgängern, Radfahrern und anderen Verkehrsteilnehmern. Tesla-Anhänger bestehen darauf, dass FSD sicherer ist als menschliches Fahren.

Anfang dieses Monats forderte der Anwalt für Autosicherheit, Ralph Nader, die Bundesbehörden auf, FSD zurückzurufen, und nannte seinen Einsatz „eine der gefährlichsten und verantwortungslosesten Aktionen eines Autoherstellers seit Jahrzehnten“.

Die National Highway Traffic Safety Administration untersucht derzeit 16 Unfälle, bei denen Tesla-Besitzer mit Autopilot in stehende Einsatzfahrzeuge prallten, was zu 15 Verletzungen und einem Todesfall führte. Die Sonde wurde kürzlich zu einer „technischen Analyse“ aufgerüstet, die die zweite und letzte Phase einer Untersuchung vor einem möglichen Rückruf darstellt.

Tesla-Fahrzeuge sind heute standardmäßig mit einer Fahrerassistenzfunktion namens Autopilot ausgestattet. Für weitere 15.000 US-Dollar können Besitzer die FSD-Option kaufen, von der Tesla-CEO Elon Musk wiederholt versprochen hat, dass sie eines Tages vollständig autonome Fähigkeiten bieten wird. Aber bis heute bleibt FSD ein fortschrittliches Fahrerassistenzsystem der Stufe 2, was bedeutet, dass der Fahrer während der Fahrt voll in den Betrieb des Fahrzeugs eingebunden bleiben muss.

Zusätzlich zu den Notfahrzeugunfällen hat NHTSA auch eine Liste von zusammengestellt Spezielle Unfalluntersuchungen (SCI), bei dem die Agentur Daten sammelt, die über das hinausgehen, was lokale Behörden und Versicherungsunternehmen normalerweise vor Ort sammeln. Die Agentur untersucht auch Unfälle mit fortschrittlichen Fahrerassistenzsystemen wie dem Autopiloten von Tesla und automatisierten Fahrsystemen.

O’Dowds Gruppe ist nicht die erste, die einige potenzielle Mängel in Teslas FSD hervorhebt. Anfang dieses Jahres veröffentlichte der Lidar-Hersteller Luminar ein Video, das demonstriert, wie seine Lasersensoren es Fahrzeugen ermöglichten, vor kindlichen Dummies anzuhalten, während Teslas nur auf Kameras basierendes System dies nicht tat.

Nichtsdestotrotz scheint es O’Dowd zu gefallen, Musk zu ärgern. Der Manager des Softwareunternehmens lief zuvor eine ganzseitige Anzeige ein Das New York Times Er verunglimpfte Teslas FSD und bot 10.000 US-Dollar für die erste Person an, die „ein weiteres kommerzielles Produkt eines Fortune-500-Unternehmens nennen konnte, das alle 8 Minuten eine kritische Fehlfunktion aufweist“.

Tesla-Unterstützer bemerken, dass O’Dowd Green Hill Software betreibt, die mit einigen Konkurrenten von Tesla Geschäfte macht, darunter General Motors, BMW und Ford. Teslas Unterstützer weisen darauf hin, dass er einen finanziellen Anteil daran hat, das Unternehmen öffentlich zu beschämen. In der Zwischenzeit reagierte Musk auf das Dawn-Projekt auf seine eigene Art und Weise, indem er feststellte, dass niemand bei der Verwendung von FSD gestorben sei, und Green Hill Software als „einen Haufen Müll“ bezeichnete.

Als Antwort auf Teslas Unterlassungsschreiben nannte O’Dowd Musk eine „Heulsuse, die sich hinter dem Rock seines Anwalts versteckt“.

„Er ist besessen davon, mich daran zu hindern, aufzudecken, dass seine vollständig selbstfahrenden Autos ein Kind mit einer Sicherheitsweste auf einem Zebrastreifen einer Schule niedermähen könnten.“ O’Dowd sagte in einer Erklärung. „Ich denke, weil das nicht gut für die Marke wäre.“



Quellenlink