Dissertation DIS-2011-03

Bibliograph.
Daten
Käppeler, Uwe-Philipp: Sensordatenfusion zur Minimierung von Inkonsistenz und Degradierung.
Universität Stuttgart, Fakultät Informatik, Elektrotechnik und Informationstechnik, Dissertation (2011).
176 Seiten, deutsch.
CR-Klassif.I.2.9 (Robotics)
I.2.10 (Vision and Scene Understanding)
I.4.8 (Image Processing and Computer Vision Scene Analysis)
H.3 (Information Storage and Retrieval)
E.2 (Data Storage Representations)
KeywordsSensordatenfusion; Datenqualität; Robotik; Bildverarbeitung; Situationserkennung
Kurzfassung

Kurzfassung

In dieser Arbeit werden Konzepte und Methoden zur Bewertung und Behandlung von Sensordatenqualität betrachtet. Definiert werden Metriken und Modelle für die Bewertung verschiedener Qualitätsaspekte von Sensordaten. Darauf aufbauend werden Verfahren zur Minimierung von Degradierung vorgestellt, welche für den Abgleich lokaler Weltmodelle eingesetzt werden. Des Weiteren werden Verfahren zur Auflösung von Inkonsistenzen erläutert, die eine robuste Sensordatenintegration in globale Umgebungsmodelle und damit deren Erweiterung und Aktualisierung ermöglichen. Zusätzlich wird ein lernendes Verfahren zur Situationserkennung vorgestellt. Es ermöglicht die Interpretation von Sensordaten um Aussagen und Wahrscheinlichkeiten der Situationsebene abzuleiten und zu bewerten. Ziel ist es, kontextbezogenen Anwendungen die verteilt verwalteten Umgebungsmodelle eines offenen Systems zur Verfügung zu stellen, wobei eine möglichst konsistente Sicht auf die Umgebung hergestellt werden soll. Inkonsistenzen zwischen Modellen einzelner Anbieter müssen fusioniert werden und dabei gilt es, die Eigenschaften verschiedener Typen von Inkonsistenz und Degradierung zu berücksichtigen, deren Ursachen und Folgen zunächst erläutert werden.

Darauf aufbauend werden Metriken definiert, die Sensordatenqualität bezüglich einzelner Aspekte der Degradierung bewerten. Kennzahlen mit einheitlichem Wertebereich werden für Domänen zu stochastischen Messfehlern, Querempfindlichkeit, Signalverarbeitung, Zuverlässigkeit und zu temporalen Aspekten vorgegeben. Damit wird ein einfacher Vergleich der Qualitäten unterschiedlicher Degradierungsdomänen ermöglicht. Auch die Beobachtung der Entwicklung einzelner Datenqualitäten wird durch die Stetigkeit und stetige Ableitbarkeit aller Metriken zu Qualitätskennzahlen gewährleistet. Modellierungen von Sensoren, Sensordaten und deren Degradierung ermöglichen dem SensorContextServer, dem SensorClient und verschiedenen Anwendungen den Umgang mit unterschiedlicher Datenqualität.

Für den Abgleich lokaler Weltmodelle und die Fusionierung verteilter Beobachtungen wird der Einsatz von Schätzfiltern zur Informationsalterung untersucht. Verzögerungen durch Kommunikationswege und durch nicht synchronisierbare Sensoren beeinflussen die Qualität eines Fusionsergebnisses. Für die dreidimensionale Lokalisierung eines Balls im RoboCup Szenario oder einer Person im Nexuslabor wurde untersucht, wie diese Einflüsse durch Schätzfilter zur Informationsalterung minimiert werden können. Erarbeitet wurde weiterhin eine robuste Sensordatenintegration in globale Umgebungsmodelle, wodurch diese erweitert und aktualisiert werden können. Zur Datenfusion wird hierbei das neu entwickelte Verfahren des normiert gewichteten Mittels eingesetzt. Das Verfahren basiert auf dem statistisch optimalen Ansatz des gewichteten Mittels. Der Einsatz in einem offenen System jedoch wird erst durch eine Erweiterung dieses Ansatzes ermöglicht. Hierfür werden die zur Datenfusion eingesetzten Gewichte, welche auf einer Schätzung der Standardabweichungen der Sensoren basieren, normiert. Dadurch wird eine Singularität im Bewertungssystem verhindert und nur so kann das Verfahren dauerhaft eingesetzt werden.

Durch die Schätzung der Standardabweichungen der Sensoren führt das Verfahren zur Qualitätsbewertung eine Langzeitbeobachtung der einzelnen Messungen durch. Es wird kombiniert mit Fuzzy Clustering, welches den Vergleich aktuell durchgeführter Messungen verschiedener Sensoren erlaubt um Ausreißer der Messungen zu identifizieren. Durch die Bewertung und den Vergleich der Messungen von verschiedenen Sensoren kann auch ermittelt werden, welche Sensoren neu kalibriert werden müssen. Des Weiteren wird der Einsatz einer logistischen Regression für eine Situationserkennung beschrieben. Das vorgestellte, lernende Verfahren interpretiert unscharfe Sensordaten, um einzelnen Aussagen Wahrscheinlichkeiten zuzuordnen. Damit ist ein Übergang von der Sensordaten- und Kontextebene zur Situationsebene möglich, welcher eine Datenqualität ausgibt. Eingesetzt wird eine logistische Regression, welche Sensordaten, die über einen kurzen Zeitraum aggregiert werden, einer Situation zuordnet. Zusätzlich zu den ermittelten Wahrscheinlichkeiten kann als Qualität der Situationsdaten ein Bestimmtheitsmaß verwendet werden. Damit lässt sich angeben, wie erfolgreich die Modellanpassung der logistischen Regression an die Vorgaben durch Referenzdaten durchgeführt werden konnte. Evaluiert wurde das Verfahren an einem Experiment im Nexuslabor, wobei durch Geräuschpegelmessungen festgestellt werden sollte, ob eine Sitzung stattfindet, ob Studenten im Labor arbeiten oder ob Stille vorherrscht. Es konnte gezeigt werden, dass eine Aggregation der Geräuschpegel über fünf Sekunden ausreicht, um Erkennungsraten von 91,67 % zu erreichen.

CopyrightShaker Verlag 2011
KontaktBV Forschungsberichte Band 2/2011 ISBN 978-3-8440-0434-2
Abteilung(en)Universität Stuttgart, Institut für Parallele und Verteilte Systeme, Bildverstehen
BetreuerProf. Dr. rer. nat. habil. Paul Levi
Eingabedatum30. August 2013
   Publ. Informatik