Fraunhofer-Gesellschaft

Publica

Hier finden Sie wissenschaftliche Publikationen aus den Fraunhofer-Instituten.

ASARob - Aufmerksamkeitssensitiver Assistenzroboter

 
: Bachter, Hannes; Graf, Florenz; Lengenfelder, Christian; Lindermayr, Jochen; Messmer, Felix; Mosmann, Victor; Philipp, Patrick; Putze, Felix; Radic, Marija; Reich, Daniel; Reiser, Ulrich; Romanelli, Massimo; Scheck, Kevin; Schultz, Tanja; Voit, Michael; Vosen, Agnes

:
Volltext (PDF; - Gesamter Band)

Adolph, Lars ; Bundesanstalt für Arbeitsschutz und Arbeitsmedizin, Dortmund:
Autonome Roboter für Assistenzfunktionen: Interaktive Grundfertigkeiten - Ergebnisse und Forschungsperspektiven des Förderprogramms ARA1
Dortmund: BAuA, 2020
DOI: 10.21934/baua:bericht20200917
S.107-117
Bundesministerium für Bildung und Forschung BMBF (Deutschland)
16SV7903; F 2463
Deutsch
Aufsatz in Buch, Elektronische Publikation
Fraunhofer IMW ()
Fraunhofer IPA ()
Fraunhofer IOSB ()

Abstract
Das Projektziel des Vorhabens ASARob war die Implementierung einer robusten Aufmerksamkeitserfassung und -lenkung für die Roboter-Mensch-Interaktion. Multimodale Verfahren zur Aufmerksamkeitserfassung und -lenkung wurden hierzu in die bestehende, mobile Roboterplattform Care-O-bot 4 (care-o-bot.de) integriert. Die fusionierten Verfahren dienten als zentrale Grundfertigkeiten des Roboters, um bestehende Assistenzfunktionen, wie z. B. das räumliche Führen zu vorgegebenen Orten oder das Holen und Bringen von Gegenständen, anzureichern und in einem intuitiven Dialog mit dem betroffenen Nutzer durchführen zu können. Die Aufmerksamkeitserfassung diente insbesondere zur erwartungskonformen und kontextangepassten Annäherung des Roboters an Menschen bzw. Gesprächspartner. Durch den Einsatz der multimodalen Erfassungsvielfalt von Menschen und Umfeld sollte insbesondere gewährleistet werden, dass die Aufmerksamkeit von Personen auch in unstrukturierten Umgebungen, wie sie im Alltag zu erwarten sind, robust und fehlertolerant nachvollzogen werden kann. So wurden bspw. durch die Erfassung der Blickrichtung, Kopfdrehung, Sprache, Stimme und Körperhaltung von Nutzern partiell redundante Wahrnehmungskanäle implementiert, die sich gegenseitig ergänzen, insbesondere aber bei etwaigem Ausfall eines Kanals (z. B. durch Hinterkopfansichten, die eine Sicht auf die Augen eines Nutzers verhindern) durch konfidenzbasierte Informationsfusion für Rückfalloptionen sorgen.

: http://publica.fraunhofer.de/dokumente/N-605772.html