Refine
Document Type
- Article (1)
- Part of a Book (1)
Language
- German (2) (remove)
Has Fulltext
- no (2)
Is part of the Bibliography
- no (2)
Institute
Ziel des Verbundprojektes APFel (Projektlaufzeit: 01.01.2010 ‐ 31.03.2014)war eine zeitlich vorwärts‐ und rückwärtsgerichtete Lokalisation von Personen innerhalb eines Kameranetzwerkes aus sich nicht überlappenden Kameras in Hyperechtzeit zu ermöglichen. Einsatzbereiche dieses Szenarios sind kritische Infrastrukturen wie Flughäfen und Flugplätze. Zunächst fokussierte das Projekt APFel auf die Lokalisation einer einzelnen Zielperson. Weiterführend wurden die entwickelten Verfahren auf die Analyse von Gruppen erweitert, um Personen als Teil einer Gruppe lokalisieren zu können.
Das CameraFramework wurde entwickelt, um mittels Socket-Kommunikation [1] als Middleware zwischen verschiedenen Kamerainstanzen mit eigenen Kameratreibern und Clienten zu fungieren. Über diesen Kommunikationsweg ist es möglich Clienten nicht nur lokal, sondern auch über das Netzwerk mit Kameradaten zu versorgen. Um neue Kameras mit dem Framework nutzen zu können, muss die Implementierung gewissen Regeln folgen, was durch ein vorgegebenes Basis-Interface (abstrakte Basis-Klasse in C++ [2]) fast vollständig sichergestellt ist. Neue Kameras werden zur Laufzeit über dynamische Bibliotheken geladen. Parameter für Kameras sind über ein XML-File [3] einzustellen. Funktionen zur Übergabe von neuen Kameradaten sind implementiert und müssen durch den Entwickler der einzelnen Kamerainterfaces aufgerufen werden.
Die Zuordnung von Kameradaten zum passenden Nutzer übernimmt das Framework. Jeder Clienterhält seinen eigenen konfigurierbaren Ringbuffer [4] um unabhängig von anderen Nutzern und Kameras zu sein. Die Aufgaben des Frameworks sind auf verschiedene Module, wie in Abbildung 1 dargestellt, aufgeteilt.