Umgebungsmodellierung mit Radarsensoren und gestörten Sichtbedingungen

Show simple item record

dc.identifier.uri http://dx.doi.org/10.15488/7254
dc.identifier.uri https://www.repo.uni-hannover.de/handle/123456789/7307
dc.contributor.author Fritsche, Paul ger
dc.date.accessioned 2019-11-22T12:35:06Z
dc.date.available 2019-11-22T12:35:06Z
dc.date.issued 2019
dc.identifier.citation Fritsche, Paul: Umgebungsmodellierung mit Radarsensoren und gestörten Sichtbedingungen. Hannover : Gottfried Wilhelm Leibniz Universität, Diss., 2019, IX, 154 S. DOI: https://doi.org/10.15488/7254 ger
dc.description.abstract Ein mobiler Roboter benötigt ein Abbild seiner Umgebung, um eine autonome Navigation durchzuführen. Dieses Abbild, das sogenannte Umgebungsmodell, kann Objekte und Landmarken oder abstrakte Informationen beinhalten, wie topologische Beziehungen. Für diesen Zweck muss der Roboter mit seiner Sensorik sein Umfeld erfassen und die Sensordaten aufbereiten. Dabei stellen feste und flüssige Schwebeteilchen (Aerosole) für die mobile Robotik ein Problem dar. Zum Beispiel verdeckt aufgewirbelter Staub die Sicht für RGB-Kameras in der Agrar- und Bergbaurobotik, Rauch und Feuer beeinträchtigt die Messwerte von LiDAR-Scannern in der Search-and-Rescue-Robotik und schlechte Witterungsbedienungen (Regen, Schnee, Nebel) sind typische Probleme für autonome Straßenfahrzeuge. Dementsprechend liefern populäre Sensoren, wie LiDAR-Scanner, unter diesen Bedingungen nicht genügend brauchbare Messwerte, um die Kernkompetenzen eines autonom fahrenden Systems (Kartierung, Lokalisierung und Navigation) auszuführen. Daher ist die Integration von Sensortypen, die nicht von Aerosolen beeinträchtigt werden, erforderlich, um auch hier Umgebungsmodelle zu erstellen. In diesem Zusammenhang beschäftigt sich diese Arbeit mit dem Einsatz von Radar auf dem Gebiet der Kartierung und Lokalisierung. Zum einen werden neue Radarmessprinzipien zur Umgebungsmodellierung in der mobilen Robotik untersucht, zum anderen LiDAR-Radar-Fusionsverfahren vorgestellt. Durch die Fusionierung von Radar- und LiDAR-Messungen lassen sich besonders in Umgebungen mit wechselhaften Sichtbedingungen die Vorteile beider Sensoren kombinieren. Hierfür werden drei Fusionsverfahren und ein SLAM-Verfahren ausführlich beschrieben und evaluiert. Die dargestellten Fusionsverfahren ermöglichen es, Umgebungen zu kartieren, in denen sowohl LiDAR- als auch Radar-Scanner allein nicht erfolgreich wären. Mit der durch die fusionierten Daten ermittelten Konzentrationsgröße wird die Verteilung von Aerosolen beschrieben und parallel zu dem vorgestellten SLAM-Verfahren mit einem Finite-Differenzen-Modell in das Umgebungsmodell eingetragen. ger
dc.language.iso ger ger
dc.publisher Hannover : Institutionelles Repositorium der Leibniz Universität Hannover
dc.rights Es gilt deutsches Urheberrecht. Das Dokument darf zum eigenen Gebrauch kostenfrei genutzt, aber nicht im Internet bereitgestellt oder an Außenstehende weitergegeben werden. ger
dc.subject Robotics eng
dc.subject Robotik ger
dc.subject Radar ger
dc.subject Fusion ger
dc.subject.ddc 621,3 | Elektrotechnik, Elektronik ger
dc.title Umgebungsmodellierung mit Radarsensoren und gestörten Sichtbedingungen ger
dc.type DoctoralThesis ger
dc.type Text ger
dcterms.extent IX, 154 S.
dc.description.version publishedVersion ger
tib.accessRights frei zug�nglich ger


Files in this item

This item appears in the following Collection(s):

Show simple item record

 

Search the repository


Browse

My Account

Usage Statistics