Fraunhofer-Gesellschaft

Publica

Hier finden Sie wissenschaftliche Publikationen aus den Fraunhofer-Instituten.

Learning partially observed Markov random fields from noisy image data

 
: Deckert, Florian
: Roth, Stefan

Darmstadt, 2009, 85 pp.
Darmstadt, TU, Dipl.-Arb., 2009
English
Thesis
Fraunhofer IGD ()
machine learning; computer vision; low level image processing; Markov Random Field; MRF; Forschungsgruppe Visual Inference (VINF)

Abstract
We present an algorithm for learning parameters of a Markov random field. The parameters shall be learned from data that does not include a ground truth. Therefore, the usual maximum likelihood approach is not applicable. A more sophisticated algorithm called Expectation Maximization provides a starting point to deal with the missing data. Computational costs of Expectation Maximization in our case can exceed tractable limits due to needs of computing integrals. We present a derivation transforming Expectation Maximization, so that integration is superseded by marginalization of probability densities. While marginalization, in general setting, as integration, has high computational demands, we use Belief Propagation to approximate marginals of Markov random fields. Conditional independence relations within Markov random fields help to relax computational complexity. In experiments we evaluate this new algorithm on Gaussian Markov random fields. More importantly, we show that we are able to learn an high quality image prior from a set of natural images. We discuss limitations and possible improvements, concerning the performance of the algorithm.

 

Wir stellen einen Algorithmus vor, um Parameter eines Markov-Random-Fields zu lernen. Die Parameter sollen von Daten gelernt werden, jedoch ohne dass diese Daten die Grundwahrheit enthalten. Deshalb ist das sonst übliche Schätzverfahren der Maximum-Likelihood-Methode nicht anwendbar. Ein raffinierterer Algorithmus, Expectation-Maximization, bildet die Grundlage, mit den fehlenden Daten umzugehen. Aufgrund der Notwendigkeit Integrale numerisch zu berechnen, kann der Rechenaufwand von Expectation-Maximization in unserem Fall handhabbare Grenzen überschreiten. Die Arbeit enthält eine Herleitung, die Expectation-Maximizaton so verändert, dass Integrationen durch Marginalisierungen von Wahrscheinlichkeitsdichten abgelöst werden. Marginalisierung ist wie Integration eine Rechenintensive Operation. Daher benutzen wir Belief-Propagation um Marginalisierungen von Markov-Random-Fields zu approximieren. Bedingte Unabhängigkeiten in Markov-Random-Fields helfen, die Komplexität der Marginalisierung zu reduzieren. In Experimenten werten wir die Performanz des neuen Algorithmus aus, wenn wir ihn benutzen um Gauss'sche Markov-Random-Fields zu lernen. Wichtiger ist, dass wir zeigen, dass man mit dem Algorithmus ein qualitativ hochwertiges Bildmodell von natürlichen Bildern lernen kann. Weiterhin diskutieren wir Beschränkungen und mögliche Verbesserungen bezüglich der Performanz des Algorithmus.

: http://publica.fraunhofer.de/documents/N-118619.html