Autonomes Fahren Fahrzeugtechnik Gastartikel Straßenverkehr Telematik, Apps und IKT Zukunft des Automobils

Fahrzeugumfeldsensorik: LiDAR, Radar, Infrarot, Ultraschall und Video im Vergleich – Funktionsweise, Vor- und Nachteile, Sensordatenfusion

LIDAR von Velodyne autonomes Fahren
Velodyne High-Def LIDAR - Foto: Steve Jurvetson @ Flickr - CC BY 2.0

Dies ist ein Gastartikel von Paul Balzer. Er betreibt einen sehr empfehlenswerten Blog über Fahrzeugtechnik. Wenn auch Sie Interesse haben, hier einen Gastartikel zu veröffentlichen, dann schreiben Sie uns bitte.

Niemand würde auf die Idee kommen mit verbundenen Augen und hinter dem Rücken zusammengebundenen Händen, durch die Welt zu laufen und auf Hindernisse erst zu reagieren, wenn man diese bereits mit der Nasenspitze berührt.

Auch in der Welt der Technik ist das vorausschauende Sehen sehr viel wert. Vor einigen Jahren waren Kraftfahrzeuge meistens vollkommen blind, mittlerweile sind sie aber unter den Sehenden angekommen.

Technik in einem “blinden” Pkw kann auf viele Situationen erst reagieren, wenn es zu spät ist. Beschleunigungssensoren hinter der Stoßstange übernehmen dabei die Funktion der Nase. Wird ein Einschlag registriert, zünden die Airbags, die Gurte werden gestrafft und eventuell werden Fenster / Schiebedach geschlossen und die Sitze in eine aufrechte Position gebracht. Dass die dafür zur Verfügung stehende Zeit sehr knapp ist, ist leicht zu verstehen.

Die Evolution hat Menschen und Tieren Augen gegeben, mit denen eine Wand rechtzeitig erkannt und entsprechend reagiert werden kann. Wir laufen vergleichsweise selten gegen Wände.

Die Physik hat entsprechende Messprinzipien entwickelt, mit welchen ein Pkw seine Umwelt wahrnehmen, interpretieren und situationsabhängig reagieren kann. Die Fahrzeugumfeldsensorik hilft dabei, wichtige Informationen über das Fahrzeugumfeld zu sammeln. Die Wichtigsten möchte ich nachfolgend vorstellen.

Arten der Umfeldsensorik

Arten-der-Fahrzeugumfeldsensorik
Die Arten der Umfeldsensorik können nach den physikalischen Prinzipien hinter dem jeweiligen Sensor unterschieden werden. Ein Sensor hat immer die Aufgabe, ein Hindernis in der Umgebung des Fahrzeugs zu erkennen. Idealerweise liefern Umfeldsensoren

  • einen Ort (Koordinaten x, y, z oder Abstand & Winkel)
  • Abmessung (Länge, Breite, Höhe) und
  • Geschwindigkeit (längs-/quer oder relativ)

des Objekts zurück.

Dabei sind alle Sensoren zur Hinderniserkennung als “autonome Fremdortung” eingestuft. Dies bedeutet, dass Hindernisse vom Fahrzeug ohne dessen eigenes Zutun erkannt werden können. Die zukünftig immer stärker in den Fokus rückende Car-2-X Kommunikation bildet eine Ausnahme, denn sie folgt dem Prinzip einer kooperativen Fremdortung; das Hindernis “meldet” sein Vorhandensein aktiv beim Fahrzeug oder gibt Antwort auf eine Anfrage.

Radar

Schematischer Aufbau eines Radar Sensors in Draufsicht | unter CC-BY-SA2.0 Lizenz Motorblog http://cbcity.de
Schematischer Aufbau eines Radar Sensors in Draufsicht | unter CC-BY-SA2.0 Lizenz Motorblog http://cbcity.de

Ein Radar hat seinen Namen von der Abkürzung Radio Detection and Ranging und funktioniert über das Aussenden einer elektromagnetischen Welle und dem Auswerten des Echos. Dabei wird in der Fahrzeugindustrie ein frequenzmoduliertes Dauerstrichradar (FMCW-Radar) eingesetzt. Dies zeichnet sich durch die Eigenschaft aus, dass die Frequenz der ausgesendeten elektromagnetischen Welle ständig rampenförmig geändert wird. Aus der Laufzeit der Welle und dem Frequenzunterschied der zurückkommenden Welle können mithilfe des Dopplereffekts zwei Messgrößen direkt ermittelt werden:

  • Abstand
  • Geschwindigkeit

Eine Winkelauflösung (um zu erkennen, ob ein Objekt links/rechts/gerade vom Fahrzeug ist) wird nur dadurch erreicht, dass mehrere Antennen halbmondförmig angeordnet sind. Die Winkelauflösung ist eher schlecht, weil die Radarkeulen relativ breit sind und Objekte zwischen den Keulen ‘hin & her’ springen.

Das Radar wird als Long-Range Radar (typisch mit 77GHz) für die adaptive Geschwindigkeitsregelung eingesetzt und als Short-Range Radar (typisch mit 24GHz) als Ein-/Ausparksensor bzw. für den Nahbereich. Im folgenden Video sieht ist dargestellt, wie die Rohdaten aus einem Radar aussehen.

Das Radar ist eines der wichtigsten Systeme moderner teilautonomer Fahrzeuge und Assistenzsysteme.

Video

Umfeldsensorik Video bei autonomen Fahrzeugen
Schematischer Aufbau Videosensorik in Draufsicht | CC-BY-SA2.0 Motorblog http://cbcity.de

Bei der Videoerkennung wird über eine Videokamera ein Graustufenbild erfasst und entsprechend weiterverarbeitet. Zum Beispiel werden Kanten im Videobild gesucht, die auf einen Fahrzeugumriss oder eine Fahrspurmarkierung hindeuten. Anschließend werden Plausibilisierungsalgorithmen und Filter genutzt, um daraus Umfeldinformationen zu gewinnen. Typische Verarbeitungsfrequenzen sind 12Hz, das heißt, es werden 12 Bilder pro Sekunde ausgewertet. Um eine Änderung von einem zum nächsten Bild zu erkennen (für optischen Fluss), vergehen also mindestens Änderung von einem zum nächsten Bild zu erkennen (für optischen Fluss)

Da ein Video eine zweidimensionale Darstellung einer realen dreidimensionalen Umgebung ist, muss auf eine Dimension verzichtet werden. Das heißt, dass bestimmte Informationen (z.B. wie weit weg ein Fahrzeug ist), nur über Annahmen (z.B. wie breit ein Fahrzeug ist) geschätzt werden können. Man kann dies als Mensch auch probieren und sich ein Auge zuhalten. Es wird schwer, Abstände zu schätzen. Dies gelingt im Allgemeinen nur, weil das Gehirn aus Erfahrung weiß, wie groß etwas ist und man darüber einen Abstand schätzen kann.

Der Vorteil der Videosensorik ist jedoch, dass sie sehr sensibel auf Änderungen in der Bildfläche reagiert (wenn sich etwas quer zur Fahrtrichtung bewegt) und über entsprechende Algorithmen (z.B. Optischer Fluss) in derartigen Situationen wertvolle Informationen liefert.

Stereo-Video

Stereovideo Fahrzeugsensor autonomes Fahren
Schematischer Aufbau der Stereo-Video Sensorik in Draufsicht | CC-BY-SA2.0 Motorblog http://cbcity.de

Stereo-Video ist die logische Weiterentwicklung von Video und setzt auf zwei Kameras, welche in einem bestimmten Abstand zueinander angeordnet sind. Daraus lässt sich auch die dritte Dimension (der Abstand zu einem Hindernis) aus dem Videobild berechnen.

Daimler nutzt diesen Ansatz beispielsweise im so genannten “6D Vision” System:

Dabei werden im Videobild “Objekte” mit gleichem Abstand gesucht, die sich von einem zum nächsten Bild bewegen. Anhand der Position \left[x, y, z\right] und der Geschwindigkeit \left[\dot x, \dot y, \dot z \right] ergibt sich zusammen ein 6-Dimensionaler Vektor für jedes Objekt, welcher Informationen über die geschätzte Position des Objekts in Zukunft ermöglicht. Dabei wird typischerweise eine Vorhersage für die nächsten 0,5 Sekunden getroffen und mit den neu eintreffenden Bildern der Stereokamera die Objektbewegungshypothese immer wieder verfeinert.

Stereo-Video ist eines der wichtigsten Systeme moderner teilautonomer Fahrzeuge.

Infrarot

Infrarot bezeichnet ein System, welches Licht im infraroten Spektrum aussendet und entsprechend verarbeiten kann. Dieses System wird für Nachtsicht-Assistenten eingesetzt.

Die Weiterverarbeitung erfolgt ähnlich der Videosensorik.

Lidar

LIDAR Fahrzeugsensor autonomes Fahren
Schematischer Aufbau eines Lidar Sensors | CC-BY-SA.2.0 Motorblog http://cbcity.de

Lidar steht für Light Detection and Ranging und bezeichnet die Verfahren, bei denen ein Lichtstrahl (typisch mit 905 nm Wellenlänge) ausgesendet wird und über die Laufzeit und Lichtgeschwindigkeit eine Entfernung berechnet werden kann.

Oft wird als Lidar einem Sensor bezeichnet, bei welchem nur Dioden-Arrays und keine beweglichen Teile verwendet werden.

Der Sensor wird oft für City-Break Assistenten im Stop & Go-Verkehr eingesetzt.

Ultraschall

Ultraschallsensoren haben eine sehr eingeschränkte Reichweite (< 3m) und breite Keulen und sind daher nur als Einparksensoren nutzbar. In folgendem Video ist die Echo-Signalstärke visuell dargestellt:

Ultraschallsensoren werden beispielsweise zur Vermessung von Parklücken für Einparkassistenten eingesetzt.

Laserscanner

Laserscanner Funktionsweise LIDAR autonomes Fahren
Schematischer Aufbau eines Laserscanners | CC-BY-SA2.0 Motorblog http://cbcity.de

Ein Laserscanner ist genau genommen ebenfalls ein Lidar bzw. funktioniert nach dem Lidar Prinzip. Die Bezeichnung wird aber oft genutzt, um einen Sensor zu betiteln, welcher mit einer Diode und rotierenden Spiegeln arbeitet. Bekannte Vertreter sind z.B. der Velodyne HDL-64E (z.B. Google Self Driving Car) oder der ibeo Lux.

Der Vorteil des Laserscanners ist die grandiose Auflösung in Entfernung und Winkel, weshalb er für die Umfelderfassung der geeignetste Partner scheint.

Der Laserscanner wird bei Deutschen Automobilherstellern derzeit nicht in Serien eingesetzt.

Zusammenspiel verschiedener Sensoren

Da jeder Sensor spezifische Vor- und Nachteile hat, werden verschiedene Sensortypen gemeinsam eingesetzt. Dabei gleicht ein Sensor die Nachteile eines anderen aus. Im Zusammenspiel, durch die sogenannte Sensordatenfusion, ergibt sich ein besseres Ergebnis zur Umfeldwahrnehmung.

Ein typisches seriennahes Setup kann bei der vollautonomen Fahrt auf den Spuren von Bertha Benz von Daimler entdeckt werden:

Daimler Intelligent Drive: (Stereo-)Video, Short- & Long Range Radar sowie Ultraschall liefern die Datengrundlage für Algorithmen und Umfeldmodelle. Abbildung: Daimler AG
Daimler Intelligent Drive: (Stereo-)Video, Short- & Long Range Radar sowie Ultraschall liefern die Datengrundlage für Algorithmen und Umfeldmodelle. Abbildung: Daimler AG

Vergleich Radar vs. Laserscanner

Die Aufgabe der Umfeldsensorik ist es, eine möglichst genaue Aussage zur Umgebung zu treffen. Das heißt, sie soll dem Fahrzeug Informationen über die Position von Hindernissen geben. Da alle Sensoren prinzipbedingt fehlerbehaftet sind und stets einen wahren Wert plus Messrauschen ausgeben, kann die Ausgabe der Sensorwerte nicht direkt von nachfolgenden Algorithmen genutzt werden.

Eine gängige Methode ist die Annahme, dass die Sensormessungen normal verteilt um den wahren Wert “rauschen”. Es werden immer mehrere Sensormessungen verarbeitet und fusioniert. Dabei ist entscheidend, dass die Standardabweichung der Messung klein wird. Die Varianz der erkannten Objektposition ist ein Entscheidungskriterium für das Eingreifen von Assistenzsystemen. Eine geringe Varianz ist dabei durch bessere Sensoren (weniger Rauschen) oder dem Fusionieren von mehreren Sensoren mit unterschiedlichen Stärken/Schwächen zu erreichen.

Im Folgenden soll beispielhaft für ein Radar und einen Laserscanner ein quasistatisches Ziel (d.h. weder Sensor noch Ziel bewegen sich) erkannt werden.

Rohmessdaten eines Radar-Sensors

Visualisierung der Rohmessdaten eines Radar im zeitlicher Ablauf incl. 2D Normalverteilung der Messwerte | CC-BY-SA2.0 Motorblog http://cbcity.de
Visualisierung der Rohmessdaten eines Radar im zeitlicher Ablauf incl. 2D Normalverteilung der Messwerte | CC-BY-SA2.0 Motorblog http://cbcity.de

Schön zu erkennen ist, dass die Messwerte “hin und her” springen, obwohl sich das Hindernis nicht bewegt. Dies ist prinzipbedingt durch die Breite der Radarkeulen nicht genauer zu erfassen.

Die Messwerte werden anschließend mit einer Normalverteilung approximiert. Da das Objekt in der x-y-Ebene zu lokalisieren ist, ergibt sich eine multivariate Normalverteilung. Umso schmaler und höher diese ist, umso besser (genauer) die Positionsermittlung. Für die weitere Verarbeitung in Algorithmen auf dem Fahrzeug ist nur noch die Glockenkurve mit ihren Parametern relevant (Kovarianzmatrix und Mittelwerte).

Zu erwähnen ist, dass der Radar die Geschwindigkeit des Objekts als direkte Messgröße erfassen kann, was ein Vorteil gegenüber dem Laserscanner ist, der die Geschwindigkeit über numerische Differentiation zweier Positionsmessungen ermitteln muss.

Rohmessdaten eines Laserscanners

Zum Vergleich wurde das gleiche Hindernis gleichzeitig mit einem Laserscanner detektiert. Die Visualisierung zeigt nur einen Laserstrahl.

Visualisierung der Rohmessdaten eines Laserscanners (nur 1 Strahl) im zeitlichen Ablauf incl. 2D Normalverteilung der Messwerte | CC-BY-SA2.0 Motorblog http://cbcity.de
Visualisierung der Rohmessdaten eines Laserscanners (nur 1 Strahl) im zeitlichen Ablauf incl. 2D Normalverteilung der Messwerte | CC-BY-SA2.0 Motorblog http://cbcity.de

Offensichtlich ist die wesentlich geringere Varianz der Positionsmessungen, was sich auf die Höhe der Normalverteilung auswirkt. Nochmal: umso schmaler und höher, umso besser! Eine Vergrößerung des Zielbereichs zeigt dies nochmals eindrucksvoll:

Vergrößerung des Zielbereichs der Visualisierung der Rohmessdaten eines Laserscanners (nur 1 Strahl) im zeitlichen Ablauf incl. 2D Normalverteilung der Messwerte | CC-BY-SA2.0 Motorblog http://cbcity.de
Vergrößerung des Zielbereichs der Visualisierung der Rohmessdaten eines Laserscanners (nur 1 Strahl) im zeitlichen Ablauf incl. 2D Normalverteilung der Messwerte | CC-BY-SA2.0 Motorblog http://cbcity.de

Die grundsätzliche Aufgabe der Umfeldsensorik, Hindernisse zu lokalisieren, erfüllt der Laserscanner um Magnituden besser als das Radar. Und Google fährt ja auch mit einem Laserscanner als Sensor rum. Weshalb ist dieser nicht der Quasistandard unter der Umfeldsensorik?

Für Forschung und Algorithmenentwicklung ist der Laserscanner das Maß aller Dinge. Auch bei den deutschen Fahrzeugherstellern wird ein Velodyne eingesetzt. Für Serienanwendungen ist er allerdings nicht uneingeschränkt geeignet. Dies aus zwei wesentlichen Gründen:

Witterungsabhängige Dämpfung der Signale

Ein Fahrzeug muss auch bei Nebel oder Regen funktionieren, weshalb Assistenzsystem, die nur auf Sensorik nach optischen Verfahren basieren, anfällig gegenüber entsprechenden Witterungseinflüssen sind.

Ein Maß für die Einflüsse ist z.B. die Dämpfung des Signals, das heißt, um wie viel schwächer es pro Kilometer wird. Eine Dämpfung von 0 db/km wäre ideal, aber leider unerreichbar.

Dämpfung verschiedener Sensoren nach Umwelteinfluss. Zu beachten die logarithmische Skalierung. Weniger ist besser.
Dämpfung verschiedener Sensoren nach Umwelteinfluss. Zu beachten die logarithmische Skalierung. Weniger ist besser.

Wie in obiger Grafik ersichtlich, wird ein Radar kaum von Nebel und Nieselregen beeinflusst. Aus diesem Grund ist ein Radar elementar für einen Abstandstempomaten, welcher beispielsweise Auffahrunfälle auf ein Stauende verhindern soll. Das Risiko eines solchen Unfalls ist bei schlechter Sicht besonders groß. Der Laserscanner hat bei einer solchen Konstellation keine Chance, da er ein optisches Verfahren ist und nicht durch Nebel schauen kann. Sollte es in Palo Alto (wo Google umherfährt) neblig sein, bewegt sich dort gar nichts mehr autonom.

Detektion von kleinen Hindernissen im innerstädtischen Verkehr

Es ist relativ einfach, auf einer Autobahn vorausfahrende Fahrzeuge zu erkennen. Wesentlich komplizierter wird es, wenn man sich in den urbanen Raum begibt. Hier stehen eine Vielzahl Hindernisse bereit, die die Sensoren und Algorithmen vor erhebliche Schwierigkeiten stellen.

Radfahrer/Fußgänger mit Radar

Ein Radfahrer oder Fußgänger hat sehr geringe Reflexionseigenschaften für elektromagnetische Wellen des Radars. Dies kann dazu führen, dass ein Fahrradfahrer von einem Radar überhaupt nicht erfasst wird. Die geringe Winkelauflösung und Öffnungswinkel des Radars, sowie das Phänomen der Phantomobjektbildung (die herausgefiltert werden muss), macht ihn nicht unbedingt zu einem verlässlichen Partner im städtischen Umfeld.

Gleich zwei der genannten Einschränkungen können in folgendem Video beobachtet werden:

Der Fußgänger, welcher auf die Fahrbahn läuft, wird vom Radar nicht erfasst (zu dicht dran, zu wenig Reflexion, zu weit außerhalb der Radarhauptkeulen), ein manueller Bremseingriff ist notwendig. Etwas später im Video weicht der vorausfahrende Audi nach rechts aus. Aufgrund der geringen Winkelauflösung und der widersprüchlichen Informationen, welches nun das vorausfahrende Fahrzeug ist, schaltet sich das System präventiv ab (zu hören am *piep*).

Daher werden Stop & Go Assistenten für den innerstädtischen Bereich auch gern mit Lidar Sensoren angeboten.

Radfahrer / Fußgänger mit Laserscanner

Der Laserscanner hat durch seine sehr hohe Winkelauflösung und exakte Abstandsmessung eine wesentlich höhere Detailgüte. Eine sogenannte Punktwolke kann nach charakteristischen Merkmalen durchsucht werden.  Auf die Vielfalt der Algorithmen soll an dieser Stelle nicht eingegangen werden. Eindrucksvoll ist sicherlich dieses Video von Google:

Vergleich Radar vs. Laserscanner zur Detektion von Radfahrern

Höringklee hat 2013 in seiner Diplomarbeit untersucht, wie Laserscanner und Radar Fahrradfahrer detektieren können. Dabei näherte sich ein Fahrrad den Sensoren (bei Koordinate 0, 0):

Fahrradfahrer nähert sich den Sensoren (bei 0,0) – Draufsicht. Abbildung: Hochschule für Technik und Wirtschaft Dresden, Labor für Fahrzeugmechatronik, Julius Höringklee

Die qualitativen Unterschiede zwischen Radar und Laserscanner sind offensichtlich und äußern sich in der Streuung des Radarsensors. Der Laserscanner detektiert den Radfahrer auch in einer Entfernung von über 15 Metern zuverlässig.

Design und Integrationsmöglichkeit

Es lassen sich alle Sensortypen prinzipiell in ein Gesamtfahrzeug integrieren.

Integration von Laserscannern in ein Fahrzeug
Quelle: Ibeo Laserscanner – Der Multi-Applikations-Sensor, Braunschweiger Verkehrskolloquium, 2006

Dabei ist allerdings anzumerken, dass fast alle Sensoren sensibel auf Verschmutzung reagieren. Das heißt, dass Schnee, Dreck oder Matsch die ausgesendeten Signale so stark dämpfen können, dass die Algorithmen aus Sicherheitsgründen entscheiden, die Assistenzfunktion zu deaktivieren. Vor allem die optischen Verfahren (Laserscanner, Video) sind anfällig.

Vollautonome Fahrt ohne Laserscanner?

Bei den genannten Vorteilen und dem eindrucksvollen Video des Google Self Driving Car in der Stadt, kommt man unweigerlich zu dem Punkt, an dem man sich fragt: Ist es überhaupt möglich, ohne Laserscanner vollautonom zu fahren?

Ja.

Die Deutschen Hersteller haben, anders als vielleicht in Palo Alto, mit allen Wetterbedingungen zu rechnen und müssen die Systeme so entwickeln, dass sie sich nur bei wenigen (Wetter-)Situationen deaktivieren. Die Akzeptanz der Käufer wäre sonst noch geringer. Auf Autobahnen und Straßen mit relativ eindeutigem Straßenverlauf ist eine vollautonome Fahrt praktisch schon möglich, wird allerdings noch softwaremäßig verhindert. So fordern die meisten Systeme, dass die Hände am Lenkrad belassen werden müssen. Der Algorithmus, der dies überprüft, lässt sich umgehen (Haftungsfragen werden in den nächsten Jahren mit Sicherheit in Präzendenzfällen geklärt werden).

Um im innerstädtischen Verkehr und vielleicht sogar völlig ohne Mensch an Board – also wirklich vollautonom – unterwegs zu sein, wird noch einige Entwicklungsarbeit notwendig sein.

Die Algorithmen werden besser, die Sensoren werden besser, die Rechner werden schneller, die Möglichkeiten werden zahlreicher. All das wird dazu führen, dass autonomes Fahren auch ohne Laserscanner möglich sein wird.

Allerdings bin ich der Meinung, dass eine kooperative Ortung notwendig sein wird. Das heißt, das Objekt (Mensch, Radfahrer, …) muss über geeignete Hilfsmittel aktiv mitteilen, welche Position er derzeit hat und in welche Richtung er sich mit welcher Geschwindigkeit fortbewegt.

Nachfolgend ein paar Beispiele:

5G – Mobilfunk der nächsten Generation

Am Vodafone Stiftungslehrstuhl an der TU Dresden wird am Mobilfunk der nächsten Generation (5 G) gearbeitet, welche eine Latenzzeit von nur noch 1ms sowie einer hohen Verfügbarkeit aufweisen soll. Damit wäre es möglich, eine Art virtuelle Schutzblase um Menschen herum zu schaffen, die in Echtzeit an alle Fahrzeuge meldet, wo sich ein Mensch befindet und in welche Richtung er geht. Das Fahrzeug ist somit frühzeitig darüber informiert, dass ein Mensch auf die Straße läuft.

Zustandserfassung von Personen

Schon heute in Serie ist die permanente Zustandserfassung von Menschen. Der Apple M7 Motion-CoProzessor kann zwischen Laufen/Radfahren/Sitzen/Rennen unterscheiden. Würden diese Informationen über 802.11p (also Car-2-X Kommunikation) ausgetauscht, ergäbe sich ebenfalls eine virtuelle Schutzblase, welche das Fahrzeug aktiv informiert, dass ein Mensch in der Umgebung dabei ist, auf die Straße zu rennen.

Diese Verfahren haben außerdem den Vorteil, dass keine sogenannte “Line of Sight” notwendig ist, das Fahrzeug also nicht erst “sehen” muss, dass etwas hinter einem geparkten Bus oder einer Häuserecke hervor kommt.

Die deutschen Hersteller forschen intensiv an diesen Verfahren, wie auf der Projektwebseite Ko-FAS.de nachgelesen werden kann. Ein Blick auf die Abschlusspräsentation ist ebenfalls interessant.

Digitale Karte

Nicht zuletzt mangelt es derzeit auch an detaillierten digitalen Karten. Um im urbanen Raum sicher fahren zu können, benötigen Fahrzeuge detaillierte Karten, die über das hinausgehen, was derzeit flächendeckend zur Verfügung steht.

Zusätzliche Informationen, die nötig wären, um sich selbst zu lokalisieren bzw. sicherer fahren zu können sind beispielsweise:

  • Koordinaten von Bordsteinkanten
  • Koordinaten der Fahrbahnmarkierungen
  • Fahrspuren (Breite, Anzahl, …)
  • Koordinaten von Laternenmasten, Ampeln, Schildern
  • Stop-Linien
  • Fußgängerüberwege

Zielkonflikt Preis / Bauraum / Verfügbarkeit / Haltbarkeit

Letztlich ist es (leider) so, dass nicht die beste technische Lösung in die Anwendung kommt, sondern auf viele Faktoren geschaut werden muss. Der Preis ist mit Sicherheit sehr relevant (Laserscanner sind teuer!), aber auch der zur Verfügung stehende Bauraum, ob bewegliche Teile nötig sind (beim Laserscanner rotiert ein Spiegel) und wie lange die Systeme den harten Einsatz im Fahrzeug durchstehen.

Zielkonflikt beim idealen Umfeldsensor. CC-BY2.0 Motorblog http://cbcity.de
Zielkonflikt beim idealen Umfeldsensor. CC-BY2.0 Motorblog http://cbcity.de
Anonymous

Paul Balzer

Dipl.-Ing. (FH) Fahrzeugtechnik, arbeitete im Labor für Fahrzeugmechatronik an der Hochschule für Technik und Wirtschaft Dresden und beschäftigte sich dort mit modellbasierter Softwareentwicklung (Fahrdynamikregelsysteme, Fahrerassistenzsysteme) und promoviert nun an der TU Dresden zum Thema Umfeldsensorik und Algorithmenentwicklung.

Abonnieren
Benachrichtige mich bei
guest
1 Kommentar
Inline Feedbacks
View all comments
Markus Koßmann
Markus Koßmann
13. September 2014 18:41

Die Ideen, Mobilfunk zur Hinderniserkennung zu nutzen, sind meiner Meinung nach nicht sinnvoll denn
1. Kann man nicht voraussetzen das alle Menschen ein funktionierendes Mobilfunkgerät mit sich führen.
2. Auch Unfälle mit Wild vermieden werden müssen. Und das führt sicher kein Mobilfunkgerät mit sich.

Jetzt abonnieren

4.416Fans
8.046Follower
2.618RSS-Abonnements
990Follower
  

Neue Diskussionsbeiträge

  • Markus KoßmannNorbert zu News- und Diskussionsfaden März 2024DPD weitet Bahnnutzung aus https://www.paketda.de/news-dpd-bahn.html
  • Markus KoßmannNorbert zu News- und Diskussionsfaden März 2024Ich kann das Fachkräfte-Gejammer nicht mehr hören. Teilweise ist das auch ein Einstellungspraxisproblem. Für manche Firmen aber auch nicht: https://www.ccbaeuml.de/aktuelles/sternstunden-bei-cc-b%C3%A4uml
  • Markus KoßmannNorbert zu News- und Diskussionsfaden März 2024Minderung und Vertragsstrafe im SPNV RLP https://dokumente.landtag.rlp.de/landtag/drucksachen/9066-18.pdf
  • Markus KoßmannNorbert zu News- und Diskussionsfaden März 2024https://www.hs-geisenheim.de/hochschule/mitteilungen-veranstaltungen-termine/nachrichten/archiv/detail/n/ein-radverkehrsnetz-fuer-die-mobilitaetswende-ohne-kompromisse-geht-es-nicht/ Mehr als 150 Personen nahmen an der hybriden 6. Tagung „Straße und Landschaft“ teil, zu der Hessen Mobil - Straßen- und Verkehrsmanagement, der Landesbetrieb Mobilität Rheinland…
  • Markus KoßmannRandelhoff Martin zu News- und Diskussionsfaden März 2024An der schwedischen Chalmers tekniska högskola (Technische Hochschule Chalmers) wurde eine neuartige Lkw-Front aus Aluminiumwaben entwickelt, welche den Insassenschutz bei Pkw-Lkw-Kollissionen verbessern soll. In Crashtests konnten Verformungen des Pkw-Innenraums um 30 bis 60 Prozent reduziert werden. - https://news.cision.com/chalmers/r/new-truck-front…

Auszeichnungen

Grimme Online Award Preisträger 2012

Zukunft Mobilität hat den Grimme Online Award 2012 in der Kategorie Information erhalten. Ich möchte mich bei all meinen Lesern für die Unterstützung bedanken!

PUNKT Preisträger 2012

Zukunft Mobilität hat den PUNKT 2012 der Deutschen Akademie der Technikwissenschaften (acatech) in der Kategorie "Multimedia" gewonnen.

Logo VDV Verband Deutscher Verkehrsunternehmen

Der Verband Deutscher Verkehrsunternehmen e.V. (VDV) hat mich im Rahmen der VDV-Jahrestagung 2013 in Mainz als “Talent im ÖPNV” des Jahres 2013 ausgezeichnet. Der VDV vertritt rund 600 Unternehmen des Öffentlichen Personennahverkehrs, des Schienenpersonennahverkehrs, des Schienengüterverkehrs, der Personenfernverkehrs sowie Verbund- und Aufgabenträger-Organisationen.

Lizenz

Zukunft Mobilität Creative Commons

Die Inhalte dieses Artikels sind - soweit nicht anders angegeben - unter CC BY-SA 3.0 de lizensiert. Grafiken sind von dieser Lizenz aus Vereinfachungs- und Schutzgründen ausgenommen (Anwendung aufgrund der Verwendung von Grafiken / Bildern mit unterschiedlichen Lizenzen zu kompliziert) außer die CC-Lizenz ist ausdrücklich genannt.

Weitere Informationen

Verfasst von:

Markus Koßmann

Paul Balzer

Dipl.-Ing. (FH) Fahrzeugtechnik, arbeitete im Labor für Fahrzeugmechatronik an der Hochschule für Technik und Wirtschaft Dresden und beschäftigte sich dort mit modellbasierter Softwareentwicklung (Fahrdynamikregelsysteme, Fahrerassistenzsysteme) und promoviert nun an der TU Dresden zum Thema Umfeldsensorik und Algorithmenentwicklung.