In einem beispiellosen Schritt erließen Bundesbehörden für Automobilsicherheit Tesla gegenüber Elon Mode eine einzigartige und weitreichende Anordnung und forderten detaillierte Informationen über die Unterstützung von Fahrern und Fahrerüberwachungssystemen an. Wenn Tesla-Fahrer die Fahrerassistenzoptionen des Fahrzeugs wie Autopilot, Vollautomatisierung (FSD) oder FSD Beta nutzen, sind sie an visuelle Eingabeaufforderungen auf dem Touchscreen des Fahrzeugs gewöhnt.
Diese Aufforderungen sollen den Fahrer ermutigen, die Hände am Lenkrad zu lassen. Wenn der Fahrer dieses Problem über einen längeren Zeitraum ignoriert, wird es zu einem hörbaren Piepton. Wenn der Fahrer weiterhin auskuppelt, ist das Fahrzeug so programmiert, dass es für den Rest der Fahrt keine erweiterten Fahrerunterstützungsfunktionen mehr ausführen kann.
Das Aufkommen des „Alon-Modus“ hat jedoch für Aufregung und Kontroversen gesorgt. In diesem Modus können Fahrer die Autopilot- und FSD-Systeme nutzen, ohne auf Eingabeaufforderungen zur Lenkradausrichtung zurückgreifen zu müssen. Die National Highway Traffic Safety Administration (NHTSA) nahm die Entwicklung zur Kenntnis und schickte am 26. Juli einen Sonderbrief und eine Anweisung an Tesla, in der sie sich nach der Art und Bedeutung dieser versteckten Funktion erkundigte.
Die Analyse der NHTSA erstreckt sich auf Details wie die Anzahl der zugelassenen Fahrzeuge und die Anzahl der Fahrer, denen ein Ausweichen gestattet ist. Der Schritt wird als Reaktion auf die wachsenden Bedenken hinsichtlich der Sicherheit angesehen, Fahrern die Bedienung von Autopilot-FSD-Systemen ohne die Verwendung eines aktiven Lenkrads zu ermöglichen.
John Donaldson, amtierender Chefberater der NHTSA, äußerte seine Besorgnis über die jüngsten Änderungen am Fahrerüberwachungssystem von Tesla. Die Besorgnis wird durch Daten ausgelöst, die es den Besitzern ermöglichen, die Einstellungen der Fahrersteuerung des Autopiloten anzupassen, sodass der Autopilot möglicherweise länger arbeiten kann, ohne dass der Fahrer seine Hände auf das Lenkrad legen muss.

Als Reaktion auf die Anweisung wurde Tesla bis zum 25. August Zeit gegeben, die angeforderten Informationen bereitzustellen. Obwohl Tesla die Frist eingehalten und seine Antwort fristgerecht eingereicht hat, beantragte das Unternehmen auch die Aufbewahrung seiner Eingabevertraulich, ein Antrag, dem NHTSA stattgab. Bisher hat Tesla keine Stellungnahme zu Fragen wichtiger Medien, darunter CNBC, abgegeben.
Prominente Persönlichkeiten aus der Automobilsicherheitsbranche äußerten sich zu diesem Thema. Philip Koopman, ein Automobilsicherheitsforscher und außerordentlicher Professor für Informatik an derCarnegie Mellon University, bestand darauf, dass versteckte Sicherheitslücken keinen Platz in der Softwareentwicklung hätten. Er wies darauf hin, dass die Bedenken der NHTSA wahrscheinlich mit der Sicherheit von Ressourcen zusammenhängen, die durch solche „Betrugsgesetze“ betrieben werden können. ”
Koopman hob außerdem die laufende Untersuchung der NHTSA zu Vorfällen mit Teslas Autopilot-Systemen hervor, insbesondere zu Kollisionsunfällen, bei denen die ersten Fahrzeuge im Stillstand anhielten. Die Verwaltungsdirektorin der NHTSA, Ann Carlson, hat kürzlich in einem Interview auf die Möglichkeit einer bevorstehenden Entscheidung hingewiesen.
Im Laufe der Jahrehat sich an Regulierungsbehörden wie die NHTSA und die California DMV gewandt und argumentiert, dass seine Fahrerassistenzprogramme, darunter FSD Beta, unter die „Level 2“-Klassifizierung fallen und ihre Fahrzeuge völlig funktionsuntüchtig machen. Trotz dieser Einstufung haben die Marketingpraktiken des Unternehmens und die Aussagen von CEO Elon Musk für Verwirrung in der Öffentlichkeit gesorgt. Musk, der auch mit dem sozialen Netzwerk X (früher bekannt als Twitter) in Verbindung gebracht wird, spricht oft über die Fähigkeit von Teslas, tatsächlich Autos zu fahren.
In einer viel beachteten Livestream-Testfahrt gab Musk auf einer Social-Media-Plattform eine Vorschau auf Teslas kommende FSD-Software (S. 12). Während der gesamten Show unterhielt sich Musk mit seinem Passagier Ashok Eluswamy, dem Leiter der Autopilot-Softwareentwicklungsabteilung von Tesla. Obwohl die Qualität des Videos schlecht war, sagten die Zuschauer, Musk habe seine Hand nicht immer auf das Lenkrad gelegt.
Diese spezifischen Verwendungen von's-Systeme verstoßen möglicherweise gegen die unternehmenseigenen Richtlinien für Autopilot und FSD. Greg Lindsay, Urban Tech Fellow an der Cornell University, äußerte Bedenken hinsichtlich des Testlaufs und wies darauf hin, dass dieser aus Sicherheitsgründen ein Problem darstellen könnte.Teslas Websiteverfügt über klare Warnungen für den Fahrer. Er ist dafür verantwortlich, wachsam zu bleiben, die Hände am Lenkrad zu lassen und die Kontrolle über das Fahrzeug zu behalten, wenn er den Autopiloten und die FSD-Funktionen verwendet
Bruno Bowden, Experte für maschinelles Lernen und geschäftsführender Gesellschafter bei Grep VC, einem Investor des autonomen Fahrzeug-Startups Wayve, würdigte Teslas technologischen Fortschritt, der im Livestream gezeigt wurde, betonte jedoch, dass Tesla immer noch dabei sei und noch viel Arbeit vor sich habe, um Zuverlässigkeit zu entwickeln , sichere Automatisierungssysteme. Bemerkenswert ist, dass das System von Tesla bei Testfahrten häufig rote Ampeln anzeigte, sodass Musks schnelles Eingreifen erforderlich war, um mögliche Unfälle zu vermeiden.
Zusammenfassend lässt sich sagen, dass die Enthüllung des „Alone Mode“ offensichtliche Sicherheitsbedenken in den Vordergrund gerückt hat, während die Bundesaufsichtsbehörden die Fahrerassistenz- und Hinter-dem-Lenkrad-Systeme von Tesla unter die Lupe nehmen. In dieser fortlaufenden Saga warten die Automobilindustrie und die Öffentlichkeit gespannt auf weitere Entwicklungen, wie die Die Zukunft der selbstfahrenden Technologie ist weiterhin Gegenstand intensiver Prüfungen und Debatten.