Bitte deaktivieren Sie Ihren Ad-Blocker

Für die Finanzierung unseres journalistischen Angebots sind wir auf die Anzeigen unserer Werbepartner angewiesen.

Klicken Sie oben rechts in Ihren Browser auf den Button Ihres Ad-Blockers und deaktivieren Sie die Werbeblockierung für . Danach können Sie gratis weiterlesen.

Lesen Sie wie gewohnt mit aktiviertem Ad-Blocker auf
  • Jetzt für nur 0,99€ im ersten Monat testen
  • Unbegrenzter Zugang zu allen Berichten und Exklusiv-Artikeln
  • Lesen Sie nahezu werbefrei mit aktiviertem Ad-Blocker
  • Jederzeit kündbar

Sie haben das Produkt bereits gekauft und sehen dieses Banner trotzdem? Bitte aktualisieren Sie die Seite oder loggen sich aus und wieder ein.

„Extrem gefährlich“

Tesla-Autopilot: Das Assistenzsystem von Elon Musk bremst auch für Cheeseburger

Der Screenshot eines YouTube-Videos aus dem Innenraum eines Tesla Model 3 zeigt das Display des Autopilot.
+
Der Autopilot des Tesla Model 3 bremst das Elektrofahrzeug aufgrund eines Werbelogos am Straßenrand runter.

Verwechselt Teslas Autopilot tatsächlich Werbung mit Stoppschildern? Wie Forscher herausgefunden haben, lassen sich die Fahrassistenzsysteme ganz leicht austricksen.

Be’er Scheva (Israel) – Teslas Autopilot wird immer wieder gelobt – vor allem von Fans des kalifornischen Elektroauto-Herstellers von Elon Musk. Doch genauso oft werden die Assistenzsystem aus dem Hause Tesla heftig für ihre – nach wie vor zahlreich vorhandenen – Mängel kritisiert. Eine besonders kuriose Fehlfunktion deckte nun das aktuelle Video eines Tesla-Fahrers auf. Der Autopilot eines Tesla Model 3 erkennt das vermeintliche Stoppsignal einer Verkehrskontrolle und beginnt, das Elektrofahrzeug runterzubremsen. In Wahrheit handelt es sich jedoch ein Werbeschild der Fastfood-Kette Burger King.

Wie Forscher der Ben-Gurion-Universität des Negev in der südisraelischen Stadt Be’er Scheva nachweisen konnten, ist es mit der KI der Fahrassistenzsysteme manchmal nicht so weit her – oft lassen sich diese kinderleicht austricksen. Eine Achillesferse der modernen Assistenzsysteme, die schon bald vollständig autonomes Fahren ermöglichen sollen, sind nämlich sogenannte „Phantombilder“. Im Anschluss an ihre Studien verständigten die Forscher sofort die Firmen Tesla* und Mobileye. Sie befürchten, Kriminelle könnten sich das Phänomen der „Phantombilder“ zunutze machen. Den Israelis zufolge handelt es sich um gravierende Sicherheitslücken. Den kompletten Artikel zu den fehlgeleiteten Assistenzsystemen und der Gefahr durch „Phantombilder“ lesen Sie bei 24auto.de* *24auto.de ist Teil des Ippen-Digital-Netzwerks

Kommentare