Refine
Year of publication
- 1998 (8) (remove)
Document Type
- Part of a Book (3)
- Conference Proceeding (3)
- Report (2)
Is part of the Bibliography
- no (8)
Keywords
Institute
Im vorliegenden Beitrag wird ein hochsprachenprogrammierbares System zur schritthaltenden Vollbild-Interpretation natürlich beleuchteter Szenenfolgen im Videotakt vorgestellt. Im einzelnen werden folgende Teilmodule und Subsysteme beschrieben: eine hochdynamische, pixellokal autoadaptive CMOS-Kamera mit ca. 120 dB Helligkeitsdynamik (20Bits/Pixel) ein hochsprachenprogrammierbarer Systolic Array Prozessor (für die pixelbezogenen Verarbeitungsmodule) im PCI-Kartenformat, samt optimierendem Compiler, Simulator und Emulator Systemprozeßgerüste unter Linux auf den für die Echtzeit-Anwendungen eingesetzten Hostrechnern (z.B. DEC/Alpha oder Intel/ Pentium)eine prototypische Anwendung zur bildverarbeitungsbasierten Eigenbewegungsbeobachtung (Translationsrichtung, Eotationsraten)eine prototypische, automotive Anwendung zur schritthalt enden Detektion und Kartierung des Straßen- und Spurverlaufs unter partieller monokularer 3D-Rekonstruktion, sowie prototypische Anwendungen zur Klassifikation verkehrsrelevanter Hindernisse (Verkehrsteilnehmer)
In this article we present a system for coupling different base algorithms and sensors for segmentation. Three different solutions for image segmentation by fusion are described, compared and results are shown. The fusion of base algorithms with colorinformation and a sensor fusion process of an optical and a radar sensor including a feedback over time is realized. A feature-in decision-out fusion process is solved. For the fusion process a multi layer perceptron (MLP) with one hidden layer is used as a coupling net. The activity of the output neuron represents the membership of each pixel to an initial segment.
Derzeitige Projekte am Institut für Neuroinformatik in Bochum beschäftigen sich mit der Analyse von Straßenverkehrsszenen mittels Computer Vision [12]. Dies impliziert, wegen der durch die natürliche Umwelt aufgestellten Randbedingungen, hohe Anforderungen an die zu entwickelnden Algorithmen. Im speziellen wird versucht, Verkehrsteilnehmer aus Videobildern zu extrahieren und die so gewonnenen Objekthypothesen weiter zu attributieren (z.B. Objektklasse, Abstand, Geschwindigkeit, Gefahrenpotential hinsichtlich der beabsichtigten Eigentrajektorie etc.), um im Hinblick auf den Einsatz in Assistenzsystemen in Fahrzeugen eine möglichst genaue Beschreibung der Umwelt zu erreichen. Nicht nur die große Vielfalt der unterschiedlichen Umweltszenarien, sondern auch das hohe Maß an Sicherheit, das die gestellte Aufgabe erfordert, bedingen ein breitbandiges und flexibles Gesamtsystem [6]. Ein Lösungsvorschlag wird im folgenden behandelt.
Systems for automated image analysis are useful for a variety of tasks and their importance is still increasing due to technological advances and an increase of social acceptance. Especially in the field of driver assistance systems the progress in science has reached a level of high performance. Fully or partly autonomously guided vehicles, particularly for road-based traffic, pose high demands on the development of reliable algorithms due to the conditions imposed by natural environments. At the Institut fur Neuroinformatik, methods for analyzing driving relevant scenes by computer vision are developed in cooperation with several partners from the automobile industry. We introduce a system which extracts the important information from an image taken by a CCD camera installed at the rear view mirror in a car. The approach consists of a sequential and a parallel sensor and information processing. Three main tasks namely the initial segmentation (object detection), the object tracking and the object classification are realized by integration in the sequential branch and by fusion in the parallel branch. The main gain of this approach is given by the integrative coupling of different algorithms providing partly redundant information.
Systems for automated image analysis are useful for a variety of tasks and their importance is still growing due to technological advances and an increase of social acceptance. Especially in the field of driver assistance systems the progress in science has reached a level of high performance. Fully or partly autonomously guided vehicles, particularly for road-based traffic, pose high demands on the development of reliable algorithms due to the conditions imposed by natural environments. At the Institut für Neuroinformatik methods for analyzing driving relevant scenes by computer vision are developed in cooperation with several partners from the automobile industry. We introduce a system which extracts the important information from an image taken by a CCD camera installed at the rear view mirror in a car. The approach consists of a sequential and a parallel sensor and information processing. Three main tasks namely the initial segmentation (object detection), the object tracking and the object classification are realized by integration in the sequential branch and by fusion in the parallel branch. The main gain of this approach is given by the integrative coupling of different algorithms providing partly redundant information.
Für das sichere Führen von Fahrzeugen im Straßenverkehr ist ein hohes Maß an Informationsverarbeitung notwendig, um aus den zur Verfügung stehenden Informationen, Handlungen für die Fahrzeugsteuerung abzuleiten. Der Mensch löst diese Aufgabe hauptsächlich auf der Basis visueller Informationen. Durch die Arbeitsweise des menschlichen Gehirns motiviert, wird am Institut für Neuroinformatik der Ruhr-Universität Bochum an einer Fahrzeugführung mittels Computer Vision gearbeitet. Fortlaufend oder zumindest in kurzen Abständen müssen hierbei Verkehrsteilnehmer aus den visuellen Informationen extrahiert und danach weiter attributiert werden. Wichtige Eigenschaften sind hierbei: Objektklasse (PKW, LKW, Fußgänger etc.), Abstand, Geschwindigkeit, Bewegungsrichtung und das Gefahrenpotential bezüglich der eigenen Ortsveränderung. Die Vielzahl der durch die Umwelt aufgestellten Randbedingungen und das aus der Aufgabenstellung implizierte hohe Maß an Sicherheit bedingen ein robustes und flexibles Gesamtsystem. Dieses Gesamtsystem besteht zum einen aus Basis-Algorithmen zur Vorverarbeitung der Eingabedaten und Extraktion von Bildmerkmalen und zum anderen aus darauf aufbauenden Verfahren zur Segmentierung, Klassifizierung und Verfolgung von Fahrzeugen.
In diesem Artikel wird ein System vorgestellt, welches eine videobasierte Hinderniserkennung zur automatisierten Bildanalyse von Straßenverkehrsszenen durchführt. Eine Unterteilung der Hinderniserkennung in Objektdetektion, Objektverfolgung und Objektklassifikation lässt eine Extraktion und eine Attributierung von Verkehrsteilnehmern zu. Eine Szeneninterpretation ist ableitbar.