YouTube entfernt Video, das Teslas Full Self-Driving Beta gegen echte Kinder testet

YouTube entfernt Video, das Teslas Full Self-Driving Beta gegen echte Kinder testet

YouTube hat ein Video entfernt, das zeigt, wie Tesla-Fahrer ihre eigenen Sicherheitstests durchführen, um festzustellen, ob die Full Self-Driving (FSD)-Fähigkeiten des EV (Elektrofahrzeug) dazu führen würden, dass es automatisch anhält, wenn Kinder über die Straße gehen oder auf der Straße stehen. wie zuerst von CNBC berichtet.

Das Video, mit dem Titel „Überfährt Tesla Full Self Driving Beta wirklich Kinder?“ wurde ursprünglich auf gepostet Der YouTube-Kanal des gesamten Mars-Katalogs und bezieht Tesla-Eigentümer und -Investor Tad Park mit ein, der Teslas FSD-Funktion mit seinen eigenen Kindern testet. Während des Videos fährt Park mit einem Tesla Model 3 auf eines seiner Kinder zu, das auf der Straße steht, und versucht es dann erneut mit seinem anderen Kind, das die Straße überquert. Beide Male stoppt das Fahrzeug, bevor es die Kinder erreicht.

Wie beschrieben auf seiner Support-Seite, YouTube hat spezifische Regeln gegen Inhalte, die „das emotionale und körperliche Wohlbefinden von Minderjährigen gefährden“, einschließlich „gefährlicher Stunts, Wagnisse oder Streiche“. Das teilte YouTube-Sprecherin Ivy Choi mit Der Rand dass das Video gegen seine Richtlinien verstoßen hat schädliche und gefährliche Inhalte, und dass die Plattform „keine Inhalte zulässt, die Minderjährige bei der Teilnahme an gefährlichen Aktivitäten zeigen oder Minderjährige zu gefährlichen Aktivitäten ermutigen“. Choi sagt, YouTube habe beschlossen, das Video daraufhin zu entfernen.

„Ich habe FSD Beta schon einmal ausprobiert, und ich würde ihnen das Leben meiner Kinder anvertrauen“, sagt Park während des jetzt entfernten Videos. „Also bin ich sehr zuversichtlich, dass es meine Kinder erkennen wird, und ich habe auch die Kontrolle über das Lenkrad, sodass ich jederzeit bremsen kann“, sagte Park gegenüber CNBC, dass das Auto nie mehr als acht Meilen pro Stunde gefahren sei. und „sorgt dafür, dass das Auto das Kind erkennt.“

Am 18. August hatte das Video über 60.000 Aufrufe auf YouTube. Das Video wurde auch auf Twitter gepostet und kann weiterhin angesehen werden. Der Rand hat sich an Twitter gewandt, um zu sehen, ob es Pläne hat, es abzuschalten, hat aber nicht sofort eine Antwort erhalten.

Die verrückte Idee, FSD mit echten – lebenden und atmenden – Kindern zu testen entstanden danach ein Video und Werbekampagne auf Twitter gepostete zeigten, dass Tesla-Fahrzeuge anscheinend kindliche Dummys, die vor dem Fahrzeug platziert waren, nicht erkannten und mit ihnen kollidierten. Tesla-Fans kauften es nicht, was eine Debatte über die Einschränkungen der Funktion auf Twitter auslöste. Whole Mars Catalog, ein EV-gesteuerter Twitter- und YouTube-Kanal, der von Tesla-Investor Omar Qazi betrieben wird, später angedeutet, ein Video zu erstellen echte Kinder einzubeziehen, um zu versuchen, die ursprünglichen Ergebnisse als falsch zu beweisen.

Als Reaktion auf das Video gab die National Highway Traffic Safety Administration (NHTSA) eine Erklärung heraus, in der sie davor warnte, Kinder zum Testen automatisierter Fahrtechnologien einzusetzen. „Niemand sollte sein Leben oder das Leben anderer riskieren, um die Leistungsfähigkeit von Fahrzeugtechnik zu testen“, teilte die Agentur mit Bloomberg. „Verbraucher sollten niemals versuchen, ihre eigenen Testszenarien zu erstellen oder echte Menschen, insbesondere Kinder, einzusetzen, um die Leistung der Fahrzeugtechnologie zu testen.“

Die FSD-Software von Tesla macht ein Fahrzeug nicht vollständig autonom. Es ist für Tesla-Fahrer für zusätzliche 12.000 US-Dollar (oder 199 US-Dollar pro Monat im Abonnement) erhältlich. Sobald Tesla feststellt, dass ein Fahrer eine bestimmte Sicherheitsbewertung erfüllt, schaltet es den Zugang zur FSD-Beta frei, sodass Fahrer ein Ziel eingeben und das Fahrzeug mithilfe von Autopilot, dem fortschrittlichen Fahrerassistenzsystem (ADAS) des Fahrzeugs, dorthin fahren können. Der Fahrer muss weiterhin die Hände am Lenkrad behalten und jederzeit bereit sein, die Kontrolle zu übernehmen.

Anfang dieses Monats beschuldigte die kalifornische DMV Tesla, falsche Behauptungen über Autopilot und FSD aufgestellt zu haben. Die Agentur behauptet, dass die Namen beider Funktionen sowie die Beschreibung von Tesla fälschlicherweise implizieren, dass sie es Fahrzeugen ermöglichen, autonom zu fahren.

Im Juni veröffentlichte die NHTSA zum ersten Mal Daten über Unfälle mit Fahrerassistenz und stellte fest, dass Tesla-Fahrzeuge mit Autopilot-Fahrzeugen vom 20. Juli 2021 bis zum 21. Mai 2022 an 273 Unfällen beteiligt waren. Die NHTSA untersucht derzeit eine Reihe von Vorfällen wo Tesla-Fahrzeuge mit Fahrerassistenztechnologie mit geparkten Einsatzfahrzeugen kollidierten, zusätzlich zu über zwei Dutzend Tesla-Unfällen, von denen einige tödlich waren.

Update vom 20. August, 14:10 Uhr ET: Aktualisiert, um eine Aussage und zusätzlichen Kontext von einem YouTube-Sprecher hinzuzufügen.



Quellenlink