Tesla-Autopilot gefährdet angeblich den Verkehr

  • Natürlich ist es eine Fehlbedienung aber ich sehe halt tausende von Videos wie der AP eingesetzt wird. Man hat ja auch irgendwann mal eingesehen dass beim Motorrad nicht jeder mit der gleichen Leistung fahren darf.


    Natürlich kommt es auch ohne AP zu Unfällen

    Orange Solar GmbH - die hier wiedergegeben Aussagen sind eine persönliche Meinung.


    elektrisch Mobil - TESLA Model S85 2013 bis 2017, seit Juni 2017 MX100D. - Tesla Roadster 2.5 seit Juni 2011 - BMW i3 seit Dezember 2013 - Renault ZOE seit September 2014

  • Zitat von open source energy

    Natürlich ist es eine Fehlbedienung aber ich sehe halt tausende von Videos wie der AP eingesetzt wird.


    Je unerfahrener die Fahrer werden durch die zunehmende Autopilotnutzung, trotz dessen das Sie das Fahrzeug überwachen müssen (Level 3), desto unfallträchtiger wird es an den Stellen an denen der Autopilot nicht genutzt werden kann. Wenn der Fahrer den fahrenden Autopilot durchgehend überwachen muss, wer ist dann eigentlich der Assistent? :wink: Level 3 ist meiner Meinung nach eine Sackgasse.


    Zitat von open source energy


    Man hat ja auch irgendwann mal eingesehen dass beim Motorrad nicht jeder mit der gleichen Leistung fahren darf.


    Soll bedeuten? Ein Autopilotfahrverbot für Fahranfänger? :wink: Oder Fahrprüfungen für Autopiloten? Am Ende ein QM System anhand dessen die Leistungsfähigkeit nachgewiesen werden muss und permanent überwacht wird bevor man so etwas auf den öffentlichen Verkehr loslässt? Siehst du, so würden das richtige Ing. lösen, dürfen sich dann aber anhören das wäre "german Angst" und fortschrittsfeindlich.

  • Der Autopilot ist keine L3 System, deshalb fährt der Fahrer mit Unterstützung durch den AP. Und das bedeutet eben dass der Fahrer jederzeit zum Eingreifen bereit sein muss.


    Das dieser nach einiger Zeit der Nutzung damit überfordert ist, liegt in der Natur der Sache. Deshalb ist grundsätzlich eine andere Herangehensweise bei den Tests auf der Straße nötig, solange die Spurführung so schlecht ist. Tesla schiebt die Verantwortung für Straßentests auf normale Kunden ab. Dies ist keine sichere und faire Lösung.


    Der Grundfehler ist schon mal dass die Nutzung des AP auf nahezu allen Straßentypen möglich ist. Wenn er nur für die Fahrt auf Autobahnen funktioniert, darf er nur dort freigeschaltet sein. Dies würde schon 90 % der unsinnigen Tests auf den unzulässigen Straßen, und damit die Gefährdung von Fahrern und anderen Verkehrsteilnehmern vermeiden.


    Im nächsten Schritt darf es auf den zulässigen Straßentypen nur eine Positivliste für Streckenabschnitte auf denen der AP mit hoher Wahrscheinlichkeit funktioniert, geben. Neben Ergebnissen aus der Simulation, in der man testet ob AP funktionieren kann, kann man auch die Ergebnisse aus den Fahrten verwenden. So entfernt man erst Mal potentiell gefährliche Abschnitte aus der Datenbank. An den Stellen an denen ein Fahrer eingreifen musste wird der entsprechende Streckenabschnitt 1-2 km vor und dahinter erst mal gesperrt für AP Fahrten, bis durch Simulation und eine Testfahrt mit einem Sicherheitsfahrer die Eignung des AP für diesen Abschnitt nachgewiesen wird.


    Dies wäre eine defensive Einführungsstrategie, die das Risko insgesamt deutlich reduziert, aber trotzdem die schnelle Weiterentwicklung ermöglicht.


    Und Basis muss ein auch mit statischen Objekten funktionierender Notbremsassistent sein. Wenn die Distance-to-Collision egal mit welchem Hinderniss sich dem Bremsweg nähert muss gebremst werden.Dies ist die Grundlage für autonomes Fahren.

    Mobile Insel: PV 2kWp (mono), Solarregler 2xMPPsolar PCM5048 (MPPT), LiFePO4 1000Ah/25,6V, Lichtmaschine 4,2kW, Netzladegeräte 2xPhilippi AL30 24V, 2xKosun 6kW Sinus-WR 24V, Mastervolt Batteriemonitor BTM-III

  • Zitat von egn

    Der Autopilot ist keine L3 System, deshalb fährt der Fahrer mit Unterstützung durch den AP. Und das bedeutet eben dass der Fahrer jederzeit zum Eingreifen bereit sein muss.


    Genau. Ich meinte alles unter Level 4, daher habe ich Level 3 genannt.


    Zitat von egn


    Und Basis muss ein auch mit statischen Objekten funktionierender Notbremsassistent sein. Wenn die Distance-to-Collision egal mit welchem Hinderniss sich dem Bremsweg nähert muss gebremst werden.Dies ist die Grundlage für autonomes Fahren.


    Mit Lidar statt nur Kamera hat man für diesen Zweck ein viel besseres Abbild der Umgebung, auch unter schlechten Lichtverhältnissen. Radar als reine Backuplösung ("Notbremsassistent"), statt Einbindung in die autonomen Fahrzeugfunktionen halte ich ohne weitere für grob fahrlässig.


    Audi setzt im A8 auch auf Lidar (neben Radar etc.), bereits für einen reinen "Staupiloten" :


    "Damit ein solcher Unfall nicht eintritt, hat Audi dem A8 mit einer ganzen Palette von Sensoren ausgestattet. Ein Fernbereichsradar, das nach vorne schaut; vier Mittelbereichsradare in den Kotflügeln, eine Monokamera am Innenspiegel, 14 Ultraschallsensoren sowie ein weiteres Novum: Der A8 ist das erste Serienauto mit Lidar, einem Rotationslaserscanner von Valeo im Kühlergrill."


    https://www.golem.de/news/neue…ungsstau-1707-128881.html

  • Zitat von Buck Rogers

    Ein anderer Tesla Fahrer hat die Situation an der Stelle des tödlichen Unfall mit Autopilot abgefahren. Das Ergebnis ist erschreckend. Absolut keine Warnung durch den Autopiloten selbst, ohne eingreifen des Fahrer wäre es zum Unfall gekommen:


    https://youtu.be/VVJSjeHDvfY

    Aber siehst du, wie einfach ein Unfall zu verhindern war?


    Wo war die Aufmerksamkeit der anderen Fahrers?
    Garantiert nicht auf der Straße.

    22 kWp PV-Anlage, bestehend aus:

    88x Schüco MPE 250 PS 60 EA
    2x STP 9000TL-20
    1x SB 4000TL-21

    Speichersystem, bestehend aus:

    3x SI 6.0h-11 mit Batteriespeicher PowerRack-110-18 und Vollbestückung

    Brennstoffellen-BHKW:

    1x BlueGEN BHKW

    • Offizieller Beitrag

    :ironie: Erschreckend, dass mit AP soviele Unfälle passieren.
    Da gehört so ein System auf die Anklagebank.
    Wenn es nicht so sicher ist, wie der menschliche Fahrer, der ja niemals in Unfälle verwickelt ist.
    Ausnahme nur, wenn ihn unerwartet und völlig überraschend ein Tesla von hinten überrollt.
    Puh, da bin ich ja froh, dass meine Begegnungen mit Teslas bislang unfallfrei waren.
    Wahrscheinlich hatte sich das E-Auto schon ein anderes Opfer ausgeguckt. :ironie:

  • So bedauerlich der Unfall ist! So notwendig bzw. hilfreich wird er für die zukünftige Weiterentwicklung der Assistenten bis hin zum Autopilot 6.0 sein.


    Ich sehe als größtes Hindernis die Aussage der Chefentwicklers von Daimler bestätigt:


    Nicht die Weiterentwicklung des Autopiloten und der Assistenten ist die Herausforderung,. sondern die Aufmerksamkeit des Menschen weiter so anzuregen, dass dieser Herr der Lage bleibt.


    Laut seinen Aussagen, kostet dies Daimler 10 mal mehr Aufwand, als die blöde Technik und doofe Software zu verbessern.


    Denn Fakt sind zwei Dinge:


    A: Einen Autopiloten auf Level 6 Niveau wird es ohne Zwischenschritte nie geben können.
    B: Es wird noch Lange viele andere Verkehrsteilnehmer geben, die keine Autopiloten haben und/ oder Verstöße bewusst oder unbewusst begehen. Dazu noch die baulichen Mängel u.a. Unwägbarkeiten.


    Nun kann man das Thema weiterhin bei den IT Leuten belassen und grausam scheitern oder es den Erwachsenen überantworten.

  • Dümmer geht immer:


    "A Tesla owner in the UK was caught on video leaving the driver’s seat and getting into the passenger seat while on Autopilot. He received an 18-month license suspension for what has been deemed “dangerous driving. (...) On top of it, Patel was given 100 hours unpaid work, ordered to carry out 10 days rehabilitation and pay £1,800 in costs to the Crown Prosecution Service.”


    https://electrek.co/2018/04/28…g-driver-seat-suspension/

  • "Die Software des autonomen Uber-Autos, das in Arizona eine Fußgängerin erfasste, soll selbstständig entschieden haben, nicht zu reagieren. (...) Die Software entscheidet demnach selbstständig, ob das autonom fahrende Auto abbremsen beziehungsweise ausweichen soll. Wenn sie Objekte als "False Positives" erkennt wie zum Beispiel Plastiktüten, die über die Fahrbahn geweht werden, könne sie sie ignorieren. Darunter hatte das System offenbar auch die Frau eingestuft. Die 49-Jährige wurde von dem Fahrzeug erfasst und starb."


    https://www.heise.de/newsticke…r-verursacht-4044526.html


    passender Kommentar:


    https://www.heise.de/forum/hei…te/posting-32334673/show/