"Robuste Algorithmen" für Videoüberwacher
Da Videoüberwachung immer ineffektiver wird, sollen im Rahmen des EU-Projekts "Indect" "intelligente" Systeme entwickelt werden, die bei definierten "Ereignissen" automatisch Alarm schlagen. Neben zehn anderen Instituten ist auch die FH Technikum Wien in dem umstrittenen Projekt vertreten. futurezone.ORF.at sprach mit Technikum-Professor Christian Kollmitzer.
"Unser Beitrag zum 'Indect'-Projekt in Kurzfassung ist: Wir müssen eine technische Lösung finden, dass Objekte unter allen denkbaren Lichtumständen erkannt werden können", sagte Kollmitzer zu ORF.at.
Neben der Wiener FH sind neun andere Institute von ebenso vielen FHs und Universitäten in dem EU-Projekt engagiert, dessen Bekanntwerden vor einigen Wochen eine Welle internationaler Kritik ausgelöst hatte.
Der gesamte Forschungsaufwand dient nämlich einem "intelligenten Informationssystem zur Suche, Observation und Detektion für die Sicherheit der Bürger in einer urbanen Umwelt".
Mitlernende Systeme
Um diese Sicherheit zu gewährleisten, sollen im Rahmen von "Indect" zum Beispiel Kamerasysteme (CCTV) mit künstlicher Intelligenz aufgerüstet werden, um bei "Vorfällen" automatisch Alarm zu schlagen.
Am Anfang stehe logischerweise Objekterkennung. Damit diese unter wechselnden Bedingungen - Licht, Schatten, Regen, Reflexe - auch funktioniere, "müssen die Systeme dauernd mitlernen", so Kollmitzer. "Die Herausforderung dabei ist, dass dieser Lernprozess schneller ablaufen muss, als die Veränderung passiert."
Robokicker und Stereokameras
Erfahrungen mit Objekterkennung hat die FH seit Jahren mit den Robokickern "Vienna Cubes" gesammelt und bei der "Urban Challenge" für autonome Fahrzeuge der Defense Advanced Research Projects Agency (DARPA) eingesetzt. Die "Stereo-Vision-Sensoren" des "SciAutonics/Auburn Engineering Teams" waren von Technikum?Studenten am Austrian Research Center Seibersdorf mitentwickelt worden.
Dort wie beim "Indect"-Projekt werden Stereokameras eingesetzt, damit kommen weitere Parameter zur Aufnahme, nämlich Entfernung und Position des "Objekts" zur Kamera.
"Robuste Algorithmen"
"Unsere Aufgabe ist es dann weiters, robuste Algorithmen zu entwickeln, die es ermöglichen zu erkennen, ob etwa eine Person ein Gepäcksstück abstellt und weggeht", so Kollmitzer.
CCTV in Großbritannien
2008 konnten 1.000 Fälle mit Hilfe von CCTV-Überwachungskameras gelöst werden - bei mehr als einer Million Kameras alleine in London und Kosten von 572 Millionen Euro. So hieß es in einem internen Polizeibericht vom August 2008.
Das ist die Kernaufgabe des Gesamtsystems: vordefinierte Ereignisse als solche zu erkennen und nach einer bestimmten Zeit Alarm zu schlagen, etwa wenn eine Person gestürzt ist, Menschenmassen schnell zu laufen beginnen oder eine Explosion stattfindet.
Gedacht ist es als Unterstützung für Polizeibeamte, die eine größere Anzahl von Monitoren zu überwachen haben. Das ist in Großbritannien wie in keinem anderen Land der Fall. Die Aufklärungsraten fallen immer weiter, während die Anzahl der Kamerasysteme konstant steigt (siehe Kasten links).
"Technik so oder anders"
Was ein "Ereignis" darstellt, über das die diensthabenden Videoüberwacher nahe an Echtzeit informiert werden sollen, ist frei definierbar. So ist es zum Beispiel möglich, "Zusammenrottungen" zu erkennen: Sobald mehr als zwei Dutzend Menschen im öffentlichen Raum zusammenstehen, wird Alarm ausgelöst.
Natürlich sei so eine Anwendung möglich, meinte Kollmitzer dazu, Technik lasse sich nun einmal so oder eben auch anders verwenden.
Videoarchivare und Raubkopien
Ein ebensolches Beispiel ?ei auch der zweite Beitrag der FH, denn "Digital Watermarking" für Videos - versteckte Metainformationen in einem Videostream - lasse sich ebenfalls für ganz unterschiedliche Zwecke verwenden.
So bedeute es einerseits für Videoarchivare einen großen Fortschritt, wenn alle Informationen in der Videodatei selbst enthalten seien. Andererseits lasse sich derselbe Mechanismus auch für ein Kopierschutzsystem und die Verfolgung nichtlizenzierter Mediendateien verwenden.
"Nicht für die Mafia arbeiten"
Für die FH Technikum sei das Projekt vor allem deswegen interessant, weil es Grundlagenforschung ermögliche, so Kollmitzer, der auch Vizerektor der Fachhochschule ist. Was sagt er zur Kritik an dem rund 15 Millionen schweren EU-Überwachungsprojekt, dass hier die Grundlagen für den "Big-Brother-Staat" erforscht würden?
"Es ist ja nicht so, dass wir für die Mafia arbeiten", meinte Kollmitzer dazu. Beim "Indect"-Projekt halte man sich selbstverständlich an die Vorgaben der europäischen Datenschutzgesetze. So sei beim FH-Projekt keinerlei Gesichtserkennung vorgesehen, die verwendeten Kameras seien dafür auch gar nicht geeignet.
Der Ethikrat
Des Weiteren sei es auch weniger problematisch, wenn eine Automatik den Input der Videokameras nach "Ereignissen" auswerte. Diesem System seien, anders als einem menschlichen Betrachter, der sehr wohl bekannte Personen identifizieren könne, menschliche Gesichter vollkommen egal.
Über die Forschungsprogramme des "Indect"-Projekts wache zudem ein "Ethikrat", der laufend überprüfe, ob Datenschutz- und Persönlichkeitsrechte eingehalten würden, so Kollmitzer.
Mehr über diesen "Ethikrat" und das gesamte "Indect"-Projekt, das über Videoüberwachung weit hinausgeht, sowie über ein burgenländisches Unternehmen, das als einzige österreichische Firma beteiligt ist, lesen Sie im nächsten Teil der Serie zum "Indect"-Projekt.
(futurezone/Erich Moechel)