BMW, Intel & MobilEye geben beim autonomen Fahren Vollgas

News | 1.07.2016 von 12

Die BMW Group setzt beim autonomen Fahren auf eine Kooperation mit Intel und MobilEye. Die drei Unternehmen verkündeten vor wenigen Minuten in München eine Zusammenarbeit, die in …

Die BMW Group setzt beim autonomen Fahren auf eine Kooperation mit Intel und MobilEye. Die drei Unternehmen verkündeten vor wenigen Minuten in München eine Zusammenarbeit, die in den nächsten Monaten und Jahren mit selbstfahrenden Autos aus München begeistern soll. Während BMW selbstredend für die Fahrzeuge verantwortlich ist, steuert Intel Rechentechnik und Software bei. MobilEye ist ein Spezialist für modernste Kameratechnik und liefert leistungsfähige Sensorik hinzu.

Den zeitlichen Rahmen setzt der BMW iNext, dessen Marktstart in serienreifer Form für das Jahr 2021 angekündigt ist und der das autonome Fahren dann praktisch ohne Einschränkungen beherrschen soll. BMW, Intel und MobilEye denken dabei aber nicht nur an sich, sondern an die gesamte Zukunft des Automobils und einer immer besser vernetzten Welt. Die gemeinsam entwickelte Technik soll daher eine offene Plattform sein, die auch von anderen Autobauern genutzt werden kann und so eine flächendeckende Einführung des autonomen Fahrens über Unternehmensgrenzen hinweg erlaubt.

BMW-Vision-Next-100-2021-Intel-Mobileye-06

Der BMW iNext soll 2021 in der Lage sein, den Fahrer völlig ohne dessen Zutun sicher von A nach B zu bringen. Das autonom fahrende Auto soll so auch neue Optionen des Flottenmanagements bringen, denn für einige Taxi- und Chauffeursdienste können künftig autonom fahrende Autos ohne menschlichen Fahrer eingesetzt werden.

Neben dem autonomen Fahren steht das Automobil auch als Teil der vernetzten Welt im Interesse der Kooperationspartner. BMW, Intel und MobilEye wollen ein vollumfängliches Vernetzungs-Paket anbieten, das von der Verbindung kleiner Geräte wie Smartphone und Smartwatch über das vielfach vernetzte Smart Home bis hin zum Smart Car wie dem BMW iNext reicht. Durch eine intelligente Verbindung verschiedenster Alltagsbegleiter soll sich das Leben der Nutzer in vielerlei Hinsicht einfacher gestalten, weil sich die User-Wünsche der nahen Zukunft in einem gewissen Rahmen vorhersehen und dadurch unaufgefordert erledigen lassen.

12 responses to “BMW, Intel & MobilEye geben beim autonomen Fahren Vollgas”

  1. mikk says:

    Ohne mich!!

    • BimmerThom says:

      Viel Spaß, da draussen als Einsiedler im Wald.

    • manuelf says:

      Wie lange? Sind Sie schon 70 oder leben Sie in einer Einöde, wo es nie RushHour und Berufsverkehr gibt? Dann würde ich ihnen die Aussage abkaufen. Andernfalls: Never.
      Nicht falsch verstehen. Ich bin begeisterter Autofahrer! Hole die Emma nur so zum Spaßfahren raus, aber bin seit Jahren für den Berufsweg auf Öffentliche umgestiegen, weil man im Münchner Einzugsgebiet im Stau wahnsinnig wird. Wer setzt sich freiwillig in eine übervolle S-Bahn mit teilweise schlecht riechenden Menschen? Könnte ich mich von meinem Auto in die Arbeit chauffieren lassen und in der Zeit was sinnvolles machen – die S-Bahn sähe mich nicht mehr. Ab einer hohen Durchdringung mit autonom fahrenden Fahrzeugen bei dichten Verkehrslagen, würde ausserdrm die Zahl von Unfällen und Fehlverhalten, das zu Staus führt deutlich zurückgehen. Die Menschen halten sich in der Mehrheit für ganz tolle Fahrer, in der Mehrheit sind sie aber eher grottenschlecht und jeder vom Fach weiss, dass autonom fahrende Fahrzeuge (und bitte jetzt nicht den aktuellen Fall eines Tesla im Alpha-Stadium als Gegenbeweis bringen ;)) die Unfallzahlen massiv runterbringen werden.
      Wenn cooles Wetter ist und freie Bahn auf Nebenstrecken würde ich natürlich auch wieder gerne ins Lenkrad greifen ..

  2. Pro_Four says:

    …Rotz

  3. Fredericus Rex says:

    Nach dem tödlichen Unfall eines autonomen Tesla (darüber wurde heute in der Presse berichtet) sollte zumindest eines klar sein, ein blindes Vertrauen oder gar ein Wettrennen der Hersteller, wer als erstes diese Technologie im großen Stil zum Einsatz bringt, wäre fatal.

    Um es klar zu sagen, das hat rein gar nichts mit grundsätzlicher Abschottung vor Veränderungen zu tun, jedoch hat Sorgfalt und Augenmaß bei dieser weitreichenden Veränderung absolute Priorität.

    Ein gelungener Kommentar zu dieser Thematik war heute von Hauke Schrieber (autobild) zu lesen.

    Daher hier in kompletter Länge sein Fazit zum Nachdenken:

    Zitat:
    “Nun ist es also passiert. Das, wovor Skeptiker von Anfang an warnten. Das, was Fans des autonomen Fahren immer befürchteten: der größte anzunehmende Unfall in einem mit Kameras, Radar und modernster Software ausgestatteten Auto, das im “Autopilot-Modus” unterwegs war. Der Fahrer eines Tesla Model S starb, als ein Lastzug die Straße kreuzte. Ob der Autopilot den weißen Sattelschlepper vor weißem Himmel tatsächlich nicht als ein Hindernis erkannte und deshalb die Bremsfunktion nicht auslöste, wird derzeit noch untersucht. Sicher ist: Nicht nur Tesla hat ein Problem; der ganzen Branche, die mit (teil)autonomen Fahren wirbt, droht ein Vertrauensverlust, bevor es eigentlich richtig losgegangen ist.
    Ich selbst habe den Tesla-Autopiloten in einem Model X ausprobiert (siehe Video). Natürlich war ich fasziniert, aber mir war sofort klar: Ich muss immer die Hände in der Nähe des Lenkrades haben, die Füße nahe den Pedalen, die Augen auf der Straße. Ich behaupte: In einen Sattelschlepper wäre ich nicht gekracht.

    Doch egal, ob Technik- und/oder menschliches Versagen: Die Autoindustrie und die Medien müssen den Kunden noch eindringlicher deutlich machen, dass hier eine Technik auf öffentlichen Straßen eingesetzt wird, die sich in der Entwicklungs-, die sich in der Lernphase befindet. Jeder muss für sich selbst entscheiden, ob der sich willens und in der Lage fühlt, so ein Auto zu bewegen. Damit der Unfall in Florida ein Einzelfall bleibt. Denn nichts ist schlimmer, als wenn die Menschen eine Sicherheitstechnologie für lebensgefährlich halten.”

    (Zitat Ende)

    • timbo76 says:

      In einem Flugzeug gibt es auch einen Autopiloten und da kommt es auch nicht vor das kein Pilot im Cockpit ist. Das gleich sollte auch für Autos gelten. Dort wo unterstützt werden kann der Autopilot, zB Autobahn, aber in der Stadt mit viel mehr Variablen bitte selber steuern. Jedenfalls nach aktuellem Stand der Technik. Ob in fünf Jahren wesentlich bessere Technik vorhanden ist, bleibt natürlich abzuwarten.

      • Fredericus Rex says:

        Der Vergleich Automatisierung Auto vs. Flugzeug ist nach dem heutigen Erkenntnisstand eher nicht gegeben.

        Denn die Automatisierungen beider Verkehrsmittel lassen sich kaum miteinander vergleichen. Während das System im Auto mit ein paar Sensoren, einer Kamera und Radar vergleichsweise spartanisch ausgestattet wäre, ist der Autopilot im Flieger sehr komplex. Er besteht aus einer Vielzahl verschiedener und zum Teil unabhängig voneinander agierender Systeme. Herzstück ist das Auto Flight System (AFS), das unter anderem dafür sorgt, das Flugzeug im stabilen Flug oder auf einem festgelegten Kurs zu halten.

        Die meisten Experten rechnen zwar damit, dass sich serienreife Fahrzeuge bereits ab zirka 2020 autonom auf Autobahnen bewegen werden, aber bis Autos in jeder Umgebung alleine fahren können, werden sicher noch mindestens weitere zehn Jahre vergehen.

        Die zur Zeit erkennbare größte Herausforderungen für die Systeme besteht darin, die Vielzahl von Unabwägbarkeiten, wie bspw. Lichtquellen an großen Kreuzungen oder Ampeln und Rückleuchten oder auch Leuchtreklame, richtig einzuordnen und darauf fehlerfrei zu reagieren.
        Aber auch Nebel, Regen oder Schnee könnten dazu führen, dass Sensoren und Kameras die Umgebung nicht ausreichend erkennen.

        Neben der Problematik eines Sensor Ausfalles, der zu einem schweren Unfall führen kann, ist ein weiteres schwerwiegendes Problem ungeklärt, dass solche Systeme gehackt werden können.

        Abschließend noch der Hinweis, die 1968 durch die UN-Konferenz beschlossene Wiener Straßenverkehrskonvention verbietet in 73 Ländern das autonome Fahren, da der Fahrer demnach jederzeit die Kontrolle über das Fahrzeug haben muss.
        Immerhin sind entsprechende Anpassungen geplant, aber wie hier eindeutig rechtlich verbindliche Regelungen tatsächlich aussehen, darüber scheint der nächste Streit bereits vorprogrammiert…..

    • M54B25 says:

      Und der Kommentar soll gelungen sein und zum Nachdenken anregen?

      Fakt ist, dass Tesla den Autopiloten als Fahrassistenzsystem tituliert und das es eine Beta-Software ist. Der Kommentator spricht von “modernster Software” und “Autopilot”. Bevor ich etwas kommentiere, sollte ich mich mal mit dem Thema ernsthaft auseinander setzen. Das ist das Einzige, was mir dieser AutoBild Erguss nahebringt – obwohl ich das schon vorher wusste.

      Und wenn es stimmt, das der Tesla den LKW (oder nur den Auflieger – so genau ist das derzeit nicht in Erfahrung zu bringen) für ein tiefhängendes Verkehrsschild hielt, dann ist das keine Sicherheitstechnologie sondern die stümperhafte Arbeit von ein paar umgeschulten App-Programmierer – und bevor die Frage kommt – ich weiss hierbei genau wovon ich spreche!

      Dieser Unfall wird kein Einzelfall werden, im Gegenteil, sofern mehr Fahrzeuge mit solchen Pseudosystemen auf die Straße kommen, jedoch prozentual immernoch in der Minderheit sind -ich spreche hier von <20%- wird die Anzahl der Unfälle zunehmen.

      • manuelf says:

        Meistens schätze ich ihre Kommentare wegen Sachlichkeit und innerer Logik. Hier sind sie allerdings selber etwas in Richtung AutoBild Niveau unterwegs.
        Nicht dass ich für Fredericus Rex Beitrag hier die Lanze brechen will – eine zentrale Aussage, die er tätigt, ist schlichtweg falsch: Im Gegensatz zu seiner Aussage ist die Technik des “Autopiloten” in den momentan in Entwicklung befindlichen Automotive-Systemen um mehrere Hausnummern komplexer und anspruchsvoller als das was in zivilen Verkehrsflugzeugen unterwegs ist. Das was ein heutiges Flugzeug an “Umfeld” erkennen kann/muss, ist geradezu lächerlich im Vergleich zu den Anforderungen im Straßenverkehr. Fredericus Rex müsste sich dazu mal informieren, was der Leistungsstand zur Kollisionserkennung im Bereich Luftverkehr (Stichwort TCAS) bietet, um zu erkennen, dass man damit aus Sicht der Anforderung “autonomes Fahren” keinen Blumentopf gewinnt.
        Doch Ihre Aussage zu den “paar umgeschulten App-Programmierern” ist außer etwas Polemik gar nix. Weder kenne ich die Entwickler des Tesla Systems , noch möchte ich schön reden, dass die offenbar noch ernstere Software-Bugs haben, aber das gezeigte System ist schon mal nicht schlecht. Das was die machen ist Stand der Technik: Ein Umfeldmodell aufbauen aus einer Sensordatenfusion von Kamera, Radar und USS (wobei letzteres für Fahren auf der Autobahn irrelevant). Das ist algorithmisch anspruchsvoll und da dürfen sie lange suchen, bevor sie mir ein Team hinstellen, dass das im gezeigten Funktionsumfang (in der Kürze der Zeit) so hinbekommt! Das sind DEFINITIV keine unfähigen App-Entwickler.
        Und bevor ihre Frage kommt 🙂 – ich komme aus dem Bereich Steuergerätesoftware-Entwicklung eines großen deutschen OEM.
        Merke: Die großen OEMs werden diesen Funktionsumfang erst in einigen Jahren im Produkt so zeigen!
        Ohne den Tesla-Unfall/Hintergründe zu kennen: Dass die Kamera basierten Sensoren eine Fehl-Detektion hatten, ist nachvollziehbar, warum aber der Abgleich mit den Far/Medium-Range Radar nicht zu einer Korrektur im Modell/Erkennung geführt hat, wäre interessant … nach einer ISO26262 konformen Safety-Architektur hätte da die sofortige Übergabe an den Fahrer stattfinden/bzw. Bremseinleitung stattfinden sollen.

        • M54B25 says:

          Vielen Dank für Ihren offenen Kommentar und ja ich habe mich im Kommentar zu Polemik mit den App-Programmierer inreissen lassen, weil ich (Berufs- und persönlich bedingt) die Hintergründe kennen möchte. Zur Frage vorweg – Softwareentwicklung habe ich selbst lange hinter mir und bin naturgemäß weitergekommen und damit in Positionen die genau solche Teams und Projekte verantworten dürfen.

          Und warum habe ich mich hinreissen lassen? Weil der AB-Kommentator völligen Mist geschrieben hat, obwohl schon mehr Fakten vorliegen:
          – Tesla hat ganz klar die Software als Beta tituliert (aus dem offiziellen Statement) “It is important to note that Tesla disables Autopilot by default and requires explicit acknowledgement that the system is new technology and still in a public beta phase before it can be enabled.” -> Es ist also nicht modernste Software, denn die wäre schon mal nicht als Beta deklariert – ich weiss das mag jetzt Haarspalterei sein, aber siehe oben – im Projekten gibt es nur feste Stati, da ist Beta Beta und gehört nicht in sicherheitskritische Bereiche ausprobiert – also nicht bei Kundenfahrzeugen.

          – Der von Tesla genannte “Autopilot” ist ein Assistant, auch hier wieder aus dem Statement “that Autopilot “is an assist feature that requires you to keep your hands on the steering wheel at all times,” ” -> wieso hat der Kommentator diesen wichtigen Unterschied nicht erwähnt und bei der Bewertung herangezogen? Er wollte doch mit dem Kommentar die Angst der Leute vor autonom fahrenden Fahrzeugen nehmen, erreicht aber genau das Gegenteil, weil er über einen Unfall schreibt, den noch nicht mal ein autonom fahrendes Fahrzeug verursacht hat! Würde Tesla diese Definition “Tesla Autopilot = Assistant” gar nicht so explizit ausführen, würde der Wagen in Deutschland/Europa gar keine Zulassung bekommen!

          Jetzt zu meiner Software-technischen Bewertung:

          – Hier beschreibt Tesla weichgespült die Situation “Neither Autopilot nor the driver noticed the white side of the tractor trailer against a brightly lit sky, so the brake was not applied. The high ride height of the trailer combined with its positioning across the road and the extremely rare circumstances of the impact caused the Model S to pass under the trailer, with the bottom of the trailer impacting the windshield of the Model S.” -> Tesla gibt also zu, dass sie diese Situation (Huch wo kam jetzt der große Truck her?) mit der Nicht-Erkennung der Kamera nicht als Notfallszenarion beschrieben haben und der Tesla sogar nach dem Unfall noch weiter gefahren ist und erst durch einen Zaun und ein Schild aufgehalten wurde – also auch kein Chrashsensor verbaut.

          – Und weiter zur Erklärung warum der Radawarner nichts gemeldet hat, schreibt Elon Musk sogar selbst via Twitter “Radar tunes out what looks like an overhead road sign to avoid false braking events”

          Wissen Sie jetzt warum ich das so stümperhaft finde, was Tesla da gerade in tausenden Fahrzeugen rumfahren läßt? Das Radar hat was gemeldet, ein Road Sign das hoch hängt (Welches Teil auch immer das vom Truck sein soll, die weisse Seitenwand kann es ja nicht sein) und damit kein Falsch-Bremsalarm kommt, kommt einfach nichts und wir haben den ersten Toten nachweislich durch Tesla-Software!

          Sie beschreiben das Umfeldmodell und die Einbeziehung aller Daten . Das scheint Tesla im Grundansatz auch zu machen, allerding wird offensichtlich keine Zeitliche Verlaufsfolge berücksichtigt “Huch wo kommt der Truck her?” Das Fahrerhaus war nicht weiss! und bei der Auswertung wird einfach mal der leichte Fall angenommen “Äh ist ein hochhängendes Schild” statt den Negativ-Fall anzunehmen und in Folge der Nicht-Identifizierung (Was für ein Schild: Geschwindigkeitsbegrenzung, Verkehrsleitschild, Parkverbot, etc. – mmh nee doch irgendwie kein Schild) den Wagen abzubremsen und die Insassen zu retten. Klar auf 10 Kilometern drei Falschbremsungen produzieren, kommt nicht gut bei den Kunden an und Elon kann die Kisten einstampfen statt verkaufen.

          Aus meiner Einschätzung aller bisherigen Fakten bleibe ich dabei, die Software-Crew hat entweder einen schlechten Chef der falsche Vorgaben macht oder das Bewusstsein für die Verantwortung der AutoPilot-Software ist nicht ausgebildet. Ich beschäftige mich schon länger mit dem Tesla und bin Anfang des Jahres mal auf folgendes Video gestoßen: https://www.youtube.com/watch?v=flrDN_2Dq5k

          Mal so ab Minute 12 schauen, da wird mir ganz anders, was dieses System alles nicht kann, bei 14:45 wird das auch noch mal auf das Thema Assistent eingegangen. Für mich damit auch ganz klar ein Kommunikationsfehler von Tesla das System schon derart anzupreisen, das ja anscheinende in den USA Tausende sich schon auf den “AutoPilot” verlassen.

          • manuelf says:

            Oh, ich wollte sie mit meiner Kritik an ihrem Posting nicht unbedingt zu solch einer ausführlichen und ernsthaften Erwiderung drängen 😉 – rechne es ihnen aber hoch an … ist man auf bimmertoday.de leider nicht (mehr) gewohnt.
            Im Grunde kann ich ihnen folgen – dass Tesla diese Risiken eingeht, eine Beta-Software von solch einer Sicherheitsrelevanz im Feld von Kunden testen zu lassen, ist … sagen wir es mal vorsichtig – zumindest mutig. Wenn man in Betracht zieht, dass Tesla seine Kundenbasis gut kennt und dass diese eher eine euphorische Technikaffinität auslebt und generell bereit ist der “Technologie” einen Vertrauensvorschuss zu gewähren, ist es aber evtl. schon fahrlässig.
            D.h. zwar in die Anleitung zu schreiben, dass eigtl. “Allways hands on” notwendig ist, aber die Technik Autopilot nennen, kann schon kritisch hinterfragt werden.
            Uns ist sicher bewusst, dass keiner der etablierten Hersteller so ein Risiko eingegangen wäre. Ich bin nun – auch nach oder wegen der Diskussion mit ihnen – auf den finalen Untersuchungsbericht gespannt. Anscheinend gar keine Reaktion durch den Fahrer ist nach den Berichten, er habe regelmäßig Videos vom Fehlverhalten des Systems eingestellt und dokumentiert, irgendwie “fishy”.
            Eine Bemerkung noch zu ihrer Einlassung, dass eine Software nicht als “modernste” gelten kann, wenn sie Beta Stadium hat. Die Aussage hat mich gewundert, wenn sie aus der Branche sind… Der Status Beta hat ausschließlich etwas mit der Reife/Qualität zu tun. Je nachdem welche Metriken sie heranziehen (Testcoverage nach Standardmetriken, formale Codeverifikation, Reviewprozesse, fehlerfreie Betriebszeiten) treffen sie eine Qualitäts/Reifeaussage. Ob die Software modern ist bzgl. Verwendung von Algos, die für die Probkemklasse als state-of-the-art gelten oder aufgrund gewisser SW-Techniken/Frameworks ist vollkommen orthogonal. Wobei – nicht ganz 😉 – die Wahrscheinlichkeit, dass eine SW, die sich noch im Beta-Stadium befindet und an der gerade fleissig entwickelt wird, modern aus Sicht obiger Definition ist, ist sicher höher als bei einer zig Jahre alten SW, die “ausgereift” ist. Da Tesla das over-the-air update im Feld hat, bin ich sicher, dass die HAF SW on board sehr modern ist … eben nur nicht reif genug.

            PS: Ich bin weiterhin voll in der Entwicklung. Von Architekten, die nicht weiterhin relevante SW selbst entwickeln, halte ich nix – die sind irgendwann raus und keiner nimmt sie mehr ernst (manchmal bekommen sie das selber nicht mehr mit ;)). Ich danke meinem AG, dass er mich als Techi Karriere machen lässt.

            • M54B25 says:

              Da gebe ich Ihnen unbesehens Recht – Reflektion ist nicht mehr state of the art in Diskussionsforen….

              Und auch beim Thema “moderne Software” haben Sie natürlich Recht. Rein technologisch ist die Software von Tesla sicherlich “modern” – im Sinne des AB-Kommentators und der (meist) unkundigen Leserschaft solcher Kommentare/Artikel wird modern allerdings mit “ausgereift” und “einsatzfähig” übersetzt. Und bei mir ist die Metrik für die Software autonomer Fahrzeuge schlicht ein extrem hoher Standard an den aufgeführten Punkten: Testfallabdeckung, fehlerfreie Betriebszeit, Formale Verifikation, Fallback-Setup sprich Grundalgorithmus der gesamten Softweare, usw.

              Zum Abschlussbericht bzw. weiteren Infos kann ich diese Seite empfehlen: http://electrek.co/ , da sind schon mal ganz viele Details zusammengefasst und aufbereitet. Ich bin auf die Reaktion von Tesla gespannt, eine Weiterführung der jetzigen Philosophie (Betatesting im Customer Field) kann ich mir jetzt eigentlich nicht mehr vorstellen – ohne nicht wirklich hands-on permanent zu tracken.

              Und ob BMW es bis 2021 mit seinem BMW next Modell wirklich autonom zu fahren gelingt – das wird mehr als spannend!

              Zum Thema Entwickler und Architekt – volle Zustimmung, aber setzen Sie mal einen von beiden als Projektleiter ein – das wird auch nichts 😉

Leave a Reply

Your email address will not be published. Required fields are marked *

Shell V-Power
[Anzeige] Ferrari und Shell heben V-Power auf das nächste Level. Gönnen Sie Ihrem Motor den besten Kraftstoff!

Find us on Facebook

Tipp senden