Under CopyrightKleinert, MarkusMarkusKleinertStilla, UweUweStilla2022-03-1221.8.20142014https://publica.fraunhofer.de/handle/publica/38474810.24406/publica-fhg-384748Für mobile Einsatzkräfte ist die Kenntnis der eigenen Position eine große Hilfe, wenn sie an unbekannten Orten zeitkritische oder gefährliche Aufgaben erledigen sollen. Eine automatische Bestimmung der eigenen Position ist jedoch schwierig, wenn Funksignale abgeschattet sind und gängige Verfahren der Satellitenortung somit nicht verwendet werden können. Um hier Abhilfe zu schaffen, wollen wir eine Kombination aus Inertialmesseinheit (IMU) und Kamera verwenden, um fortwährend eine Koppelnavigationslösung zu berechnen. Voraussetzung für diese Art der Sensordatenfusion ist die Kenntnis der relativen Lage (Translation und Rotation) der Sensorkoordinatensysteme. Diese kann beispielsweise durch Beobachtung der Punkte eines Kalibriermusters bestimmt werden. Dabei wird oft davon ausgegangen, dass das verwendete Kalibriermuster an der Richtung der Schwerkraft ausgerichtet ist, damit die notwendige Kompensation der Gravitation in den Beschleunigungsmessungen erfolgen kann. In unserer Arbeit wird ein solches Kalibrierverfahren vorgestellt, wobei im Unterschied zu gängigen Verfahren aus der Literatur nicht davon ausgegangen wird, dass das Kalibriermuster an der Gravitationsrichtung ausgerichtet ist. Stattdessen wird die Richtung der Gravitation bezüglich des Kalibriermusters in den Ausgleichungsprozess einbezogen. Weiterhin wird die Kalibrierung auch für ein erweitertes IMU-Fehlermodell durchgeführt.enCamera-IMU calibration using a tilted calibration boardconference paper