Nicht aus der Schweiz? Besuchen Sie lehmanns.de

Fusion von Umfeld wahrnehmenden Sensoren in städtischer Umgebung

(Autor)

Buch | Softcover
226 Seiten
2014
Shaker (Verlag)
978-3-8440-3034-1 (ISBN)

Lese- und Medienproben

Fusion von Umfeld wahrnehmenden Sensoren in städtischer Umgebung - Sebastian Ohl
CHF 69,70 inkl. MwSt
  • Keine Verlagsinformationen verfügbar
  • Artikel merken
In den letzten Jahren haben sich moderne Fahrerassistenzsysteme immer mehr zu Alleinstellungsmerkmalen von Automobilen entwickelt. Einem Großteil der Systeme ist gemein, dass sie zur Erfüllung ihrer Aufgabe die Fahrzeugumgebung wahrnehmen müssen. Durch den Einsatz von Sensordatenfusionssystemen lassen sich Sensoren unterschiedlicher Systeme kombinieren und so Schwächen in den Messdaten ausgleichen. Im Rahmen dieser Dissertation wird eine Softwarearchitektur vorgestellt welche aus einer Domänenarchitektur und projektunabhängigen Anforderungen abgeleitet wurde. Diese wird im Folgenden aus statischer und dynamischer Sicht beschrieben und dient als Grundlage für eine Realisierung im Projekt Stadtpilot. Das Projekt Stadtpilot an der TU Braunschweig hat sich zum Ziel gesetzt, teilautomatisches Fahren im innerstädtischen Bereich auf dem Braunschweiger Stadtring mit realem Verkehr umzusetzen. Die eingesetzte Sensordatenfusion teilt sich in die Bereiche objekthypothesenbasierte und gitterbasierte Fusion. Die objekthypothesenbasierte Fusion setzt ein neuartiges konturschätzendes Kalman Filter um. Dabei passt sich das Objekthypothesenmodell den aktuellen Messungen der Sensoren an und beschreibt eine Objekthypothese immer mit der minimal notwendigen Anzahl an Stützpunkten. Der gitterbasierte Fusionsteil bildet eine Fusion mithilfe des binären Bayes Filters ab. Dabei werden die Daten auf drei Arten ausgewertet. Zunächst werden die aktuellen Messbereiche der Sensoren bestimmt. Das zweite Verfahren bestimmt Fahrbahnverengungen wie sie durch parkende Fahrzeuge vorkommen. Der letzte Algorithmus konstruiert Objekthypothesen aus der Gitterdatenstruktur. Hierzu kommt ein innovatives 2D-Split&Merge-Verfahren zum Einsatz. Abgeschlossen wird die Dissertation durch Auswertungen von Messdaten.
In den letzten Jahren haben sich moderne innovative Fahrerassistenzsysteme (z.B.Night-Vision oder Aktivlenkung) immer mehr zu Alleinstellungsmerkmalen und Kaufargumenten von Automobilen entwickelt (BMW Group München, 2009, Seite VI). Zunächst wurden in den 1990er Jahren Systeme wie ABS, ASR und ESC, die sich auf fahrdynamische Eigenschaften konzentrierten, eingeführt. Inzwischen sind sie als Serienausstattung in vielen Fahrzeugen zu finden und seit November 2011 verpflichtend für neue Fahrzeugtypen in der Europäischen Union (Europäisches Parlament, 2009). Mitte der 1990er Jahre waren die ersten komplexeren Systeme in Fahrzeugen der Oberklasse zu finden. Diese nahmen den Längsverkehr im Fahrzeugumfeld wahr, um ihre Aufgabe erfüllen zu können. Im Jahr 1995 wurde beispielsweise von Mitsubishi im Modell Diamante ein adaptiver Tempomat eingeführt, der mithilfe eines Lasersensors den Abstand und die Geschwindigkeit der vorausfahrenden Fahrzeuge maß und die eigene Geschwindigkeit entsprechend anpasste (Watanabe u.a. (1995) zitiert nach Winner u.a. (2009, Seite 479)). Moderne Fahrerassistenzsysteme wie Notbremsassistent, ACC-Stop&Go oder Einparkassistent bis hin zur vollkommenen Entlastung des Fahrers durch eine vollständig automatische Fahrzeugführung sind ohne Sensoren zur Umfeldwahrnehmung nicht vorstellbar.

In der Vergangenheit wurden Fahrerassistenzsysteme und die notwendigen Sensoren oft als Paket entwickelt. Dies führte dazu, dass bei der Ausrüstung eines Fahrzeugs mit mehreren Systemen keine Synergien zwischen den Sensorsystemen genutzt werden konnten. Denkbar wäre hier beispielsweise, dass ein Notbremsassistent die Kamera einer Fahrstreifenwahrnehmung nutzt, um seine Daten zu verifizieren, ohne dass eine weitere Kamera ins Fahrzeug eingerüstet werden muss. Diese Zentrierung des Informationsflusses, und so die Nutzung eines Sensors durch mehrere Assistenzfunktionen, kann mithilfe eines zentralen Umfeldwahrnehmungssystems geschehen. Es wird mit allen im Fahrzeug verbauten Sensoren verbunden und stellt anschließend allen Assistenzsystemen im Fahrzeug die aufbereiteten und miteinander fusionierten Daten zur Verfügung.

Um eine effektive Entwicklung von Umfeldwahrnehmungssystemen zu gewährleisten, sollten große Teile von vorherigen Entwicklungen einfach wiederverwendet und neue sowie bereits in früheren Projekten genutzte Sensoren ohne großen Aufwand an ein System angebunden werden können. Die Eigenschaften des Systems definieren sich dabei durch die Anforderungen der jeweiligen Assistenzfunktionen.

Im Rahmen dieser Arbeit wurde eine Softwarearchitektur zur Entwicklung von Umfeldwahrnehmungssystemen entwickelt (Ohl u. Maurer, 2011b; Ohl u.a., 2011). Basierend auf einer allgemeinen Beschreibung der Arbeitsdomäne und einer Kontextdefinition werden Anforderungen an die Softwarearchitektur aufgestellt und anschließend die statische sowie die dynamische Architektursicht behandelt.

Die Softwarearchitektur teilt sich in drei Ebenen auf. Die Sensorebene beschreibt die Dekodierung von sensorspezifischen Protokollen und die Konvertierung in eine einheitliche Containerdatenstruktur. Darauf aufbauend schließt sich die Fusionsebene an. Als Sukzessor der Sensorebene konsumiert sie die Containerdatenstruktur und verarbeitet sie in einer gitter- bzw. objekthypothesenbasierten Sensordatenfusion. Als dritte Ebene wird die Applikationsebene eingeführt. Sie dient als Datensenke für die Fusionsebene und enthält die verarbeitenden Assistenzsysteme.

Aus Effizienzgründen werden innerhalb der Fusionsebene für die gitter- und objekthypothesenbasierte Fusion je getrennte Architekturen aufgestellt. Diese lassen sich jedoch auf die Architektur der Arbeitsdomäne zurückführen. Innerhalb der einzelnen Architekturen wird auf ein Höchstmaß an Unabhängigkeit zwischen den Verarbeitungsstufen sowie auf eindeutig spezifizierte Schnittstellen geachtet. Dies ermöglicht eine Wiederverwendung von Algorithmen und Komponenten in späteren Projekten und verkürzt so die Entwicklungszeit.

An die Beschreibung der Softwarearchitektur schließt sich deren Realisierung an. Sie wurde im Rahmen des Projekts ” Stadtpilot“ durchgeführt. Das Projekt ” Stadtpilot“ widmet sich dem teilautomatischen Fahren im innerstädtischen Bereich (Nothdurft u.a., 2011). Als Projektziel wird hierbei die automatische Umrundung des Stadtkerns von Braunschweig im öffentlichen Straßenverkehr angestrebt. Um dies zu erreichen, wurde der Versuchsträger mit Radar- und Lasersensoren, einer Trägheitsplattform, einem Datenverarbeitungssystem sowie einer elektronischen Ansteuerung der Fahrzeugaktorik ausgerüstet.

Zur Verarbeitung der Umfeld wahrnehmenden Sensoren des Versuchsträgers wurde sowohl ein gitterals auch ein objekthypothesenbasiertes Fusionssystem auf Basis der Softwarearchitektur entwickelt. Diese werden je für unterschiedliche Aufgaben eingesetzt. Das objekthypothesenbasierte System teilt sich dabei in eine Hauptfusion sowie eine Vorfusion auf. Die Hauptfusion enthält ein konturschätzendes Kalman Filter (Ohl u. Maurer, 2011a). Dieses ist in der Lage, sein Objekthypothesenmodell den von den Sensoren wahrgenommen Messungen anzupassen. Auf diese Weise beschreibt das Filter unterschiedliche Objekthypothesen mit der jeweils minimalen Anzahl an Stützpunkten. Um eine verlässliche Bestimmung des Konturtyps zu ermöglichen, wird mithilfe einer Ähnlichkeitsfunktion und eines Dempster-Shafer-Filters eine Stabilisierung der Konturschätzung durchgeführt. Ergänzt wird die Hauptfusion durch eine Fusion zur Stabilitätsanalyse von Objekthypothesen. Diese zweite Fusion hat zum Ziel, Objekthypothesen, die sich nicht modellkonform verhalten, zu klassifizieren und auszusortieren. Darüber hinaus werden fehlende Messdaten der Sensoren (z.B.Geschwindigkeitsvektor) aus einem Modell abgeleitet und so verbesserte Initialwerte für die Hauptfusion bereitgestellt. Zusätzlich werden redundante Erfassungsbereiche der Sensoren ausgenutzt, um Fehldetektionen von Objekten zu reduzieren. Dabei wird ein System von logischen Ausdrücken und Bereichen um den Versuchsträger verwendet, um zu entscheiden, ob und wann eine Objekthypothese von der Vorfusion in die Hauptfusion übergeht.

Die gitterbasierte Fusion enthält ein binäres Bayes-Filter. Die Daten dieser Fusion werden durch drei Verfahren mit unterschiedlichen Zielsetzungen ausgewertet. Das erste Verfahren bestimmt Bereiche, die von den Sensoren nicht vermessen werden können. Diese Daten werden genutzt, um bei Abbiegemanövern Informationen über Verdeckungen zu gewinnen. Das zweite Verfahren nimmt Verengungen im Fahrstreifen aufgrund von abgestellten Fahrzeugen war, wie sie im innerstädtischen Bereich oft durch abgestellte Fahrzeuge vorkommen. Auf Grundlage des von Weiss u.a. vorgestellten Algorithmus lassen sich diese leichten Verengungen detektieren und so eine Verschiebung der Trajektorie veranlassen (Weiss u.a., 2007; Weiss, 2011). Die hier eingesetzte gitterbasierte Fusion ermöglicht vor allem eine akkurate Abbildung von sich nicht bewegenden Objekten. Aus diesem Grund lassen sich mit dem dritten Verfahren aus diesen Daten Objekthypothesen statischer Objekte gewinnen, die wiederum von der objekthypothesenbasierten Fusion verarbeitet werden können. Hierzu wird ein neu entwickelter Algorithmus der Familie der Split&Merge-Algorithmen aus dem Bereich der Robotik eingesetzt. Ihr Hauptanwendungsbereich findet sich in der Auswertung von 1D-Laserscannern. Aufgrund dieser Ausrichtung können Split&Merge-Algorithmen nicht direkt auf Gitterdatenstrukturen angewendet werden. Deshalb wird im Rahmen dieser Arbeit ein 2D-Split&Merge-Algorithmus vorgestellt, der auf der Basis von Gitterdaten Objekthypothesen bildet.

Ergänzt wird die Arbeit durch eine Bewertung der aufgestellten Anforderungen und vorgestellten Algorithmen. Hierbei werden sowohl simulierte Daten, Daten von Messfahrten auf einem Testgelände als auch Aufzeichnungen aus dem öffentlichen Straßenverkehr genutzt.
Erscheint lt. Verlag 11.9.2014
Reihe/Serie Berichte aus der Elektrotechnik
Sprache deutsch
Maße 148 x 210 mm
Gewicht 339 g
Einbandart Paperback
Themenwelt Technik Elektrotechnik / Energietechnik
Schlagworte Autonomes Fahren • Sensordatenfusion • Stadtpilot
ISBN-10 3-8440-3034-4 / 3844030344
ISBN-13 978-3-8440-3034-1 / 9783844030341
Zustand Neuware
Haben Sie eine Frage zum Produkt?
Mehr entdecken
aus dem Bereich
DIN-Normen und Technische Regeln für die Elektroinstallation

von DIN; ZVEH; Burkhard Schulze

Buch | Softcover (2023)
Beuth (Verlag)
CHF 119,95