© Bild: Parallaxis, Parallaxis mit ihrer Audio-Visual-Performance in 3D und HD

3-D-Grafikwelten im realen Raum

VIDEOKUNST
12.02.2010

Während die Elektronikindustrie mit aller Macht Fernseher mit 3-D-Technik ins Wohnzimmer bringen will, ist die Kunstszene schon weiter. Visualisten machen mit klug eingesetzten Projektionsverfahren den Raum lebendig. ORF.at sprach mit den Gestaltern über ihre bevorzugten Technologien.

Beim diesjährigen sound:frame-Festival in Wien wollen sich Künstler und Computergrafiker nicht mehr auf die üblichen weißen Projektionsleinwände beschränken. Mapping heißt das Verfahren, mit dem die Visualisten langweilige Wände und beliebige Objekte mit präzise angepassten, aufregenden Bildern bespielen können.

"Immer mehr Visualisten kommen auf den Geschmack und probieren Mapping aus. Da wir dieses Jahr unterschiedliche Räume vom Project Space auf dem Karlsplatz bis zum quartier21 im MuseumsQuartier bespielen werden, wird sich jedes Visualistenteam auf seinen speziellen Raum einstellen müssen", sagte Eva Fischer, Kuratorin des sound:frame-Festivals, gegenüber ORF.at.

Das sound:frame-Festival findet vom 26. März bis 18. April zum vierten Mal in Wien statt und zählt zu den bekanntesten Festivals Europas, die sich mit audiovisueller Kunst beschäftigen.

Skulptur im Raum wird visualisiert

Mapping bedeutet in der Visualszene, dass der Grafiker das projizierte Bild an bestimmte Objekte - beispielsweise im Raum hängende weiße Kugeln und Würfel - oder ganze Räume möglichst perfekt anpasst. "Das Bild, das aus dem Projektor herausgespielt wird, hat eine gewisse Optik und trifft auf eine Oberfläche. Sobald ich die Bereiche deckungsgleich bringe, nennt man das Mapping", erklärt Thomas Hitthaler, technischer Direktor und CEO des auf optische Effekte spezialisierten Unternehmens Strukt.

"Wir schaffen im Computer eine dreidimensionale Repräsentation der realen Szene und können dann auf diesem Weg Lichtquellen in Echtzeit bewegen. Die Lichtquelle bewegt sich so, als würde sie sich tatsächlich im Raum befinden, wird aber lediglich von den Projektoren geworfen", so Hitthaler.

Das Visualteam von Strukt, bestehend aus Hitthaler und Andreas Koller, arbeitet für das sound:frame-Festival mit dem Architektenteam von Unheilbar.at zusammen, um eine eigens entwickelte dreidimensionale Skulptur in Echtzeit mit dynamischen Computergrafiken zu bespielen. Strukt entwickelt derzeit eine eigene Technik, die bei diesem Projekt erstmals zum Einsatz kommen soll. Zur Alternative stehen jedoch zwei erprobte Ansätze.

Reales Objekt im virtuellen Raum

Einerseits lässt sich mit der passenden Software eine exakte Simulation des mit Bildern zu bespielenden realen Objekts schaffen, in der das Projekt aus der Realwelt millimetergenau nachgebaut wird. "Das hat allerdings den Nachteil, dass es nur mit sehr einfachen geometrischen Formen oder sehr präzisen Modellen funktioniert", so Hitthaler.

Bei der zweiten Methode, dem Masking, werden in der Simulation auf dem Rechner einzelne Markierungen auf den Zielobjekten im realen Raum gesetzt. Da die Grafiken hier nicht präzise angepasst werden, entsteht damit eine Art Hightech-Fleckerlteppich auf den Projektionsflächen.

Das TagTool wurde von OMA International als Open-Source-Projekt entwickelt.

Zeichnen mit dem TagTool

Eine zweite Visualistencrew, die mit einer weiteren Mapping-Methode arbeitet und beim Festivalstart die Karlskirche in Szene setzen wird, ist das TagTool-Team. "Das TagTool ist ein visuelles Instrument, das eigentlich für die Bühne entwickelt wurde, um Bühnenbilder zu zeichnen. Mit dem Programm kann man intuitiv zeichnen, und mit sechs Reglern beeinflusst man die Eigenschaften der Striche. Das muss man lernen wie ein Instrument", so Koller.

Bei diesem Zeichnen im Raum lässt sich zwar gut auf die aktuellen Oberflächengegebenheiten eingehen, so Hitthaler, aber 3-D-Mapping sei hier nicht möglich.

3-D-Visuals mit Anaglyphverfahren

Doch nicht alle Visualisten beim Festival arbeiten mit Objekten. Manche setzen traditionell auf den Einsatz von weißen Leinwänden - und projizieren darauf stereoskopische 3-D-Bilder in HD-Qualität, die sich synchron zum Sound bewegen. Parallaxis, ein Künstlerteam rund um Philipp König und Dirk Pfeifer, arbeitet an einem audiovisuellen Projekt, bei dem 3-D-Bilder zum Einsatz kommen, die in Echtzeit generiert und auf die Musik abgestimmt werden.

Die Sounds, die zwischen experimenteller Elektronik und "tanzbaren Beats" angesiedelt sind, werden von König mit dem Programm Max/MSP generiert und via MIDI-Signal mit der Visual-Software VVVV verbunden. Dort erzeugt Pfeifer Linien und Objekte mit einem 3-D-Effekt nach dem Anaglyphverfahren. Dieses Verfahren, bei dem Rot-Grün-Brillen eingesetzt werden, ist die älteste 3-D-Technik, die bereits in den 1920er und 1930er Jahren zum Einsatz kam. Sie hat den Nachteil, dass falsche Farben entstehen können. Pfeifer tüftelt bereits seit mehreren Jahren an der perfekten Umsetzung von stereoskopischen Bildern.

Die Anaglyphtechnik unterscheidet sich vom derzeit in der Filmindustrie verbreiteten Polarisationsverfahren, das etwa beim Blockbuster "Avatar" zum Einsatz kommt. "Der technische Aufwand ist auf diese Art und Weise geringer, und wir können mit einer Panoramaprojektion arbeiten", so Pfeifer. "Andernfalls wären sechs gleich starke Projektoren notwendig, da stößt man bei live generierten Visuals an seine Grenzen." Zudem koste ein Projektor, der den Einsatz von Polarisationstechnik ermögliche, derzeit etwa 25.000 Euro - für Kunstprojekte nahezu unerschwinglich, so Hitthaler gegenüber ORF.

VVVV-Software für virtuelle 3-D-Räume

Wie Pfeifer arbeitet auch das Strukt-Team mit der Software VVVV, die für den nicht-kommerziellen Einsatz kostenlos zur Verfügung steht und zur dreidimensionalen Simulation von Räumen im Rechner dient. Der Unterschied zwischen den Projekten von Strukt und Parallaxis liegt in der speziellen Aufbereitung der Bilder: "Wenn man etwas stereoskopisch machen will, rendert man verschiedene Kamerapositionen und filmt diese mit einer virtuellen Kamera um eine Achse verschoben ab. Das macht dann den 3-D-Effekt aus", erklärt Pfeifer.

Sowohl Mapping als auch stereoskopisches 3-D habe man zwar schon vor Jahren technisch umsetzen können, doch erst seit die Hardware billiger und leistungsfähiger geworden sei, sei der Einsatz in Echtzeit möglich, so Pfeifer. Hitthaler und Koller stimmen dieser Ansicht zu. Auch die Verbindung von Audio- und Videomaterial galt lange Zeit als schwierig. "Die Trennung von Musik und Bild ist noch immer ziemlich stark. Wir versuchen immer, das Signal des DJs als Audio zu kriegen, damit wir auch eine Audioanalyse machen können. Das ist aber keineswegs selbstverständlich. Dabei würden dadurch schöne Synergien entstehen", so Hitthaler.

"Es wird noch einige 3-D-Innovationen geben"

Auch wenn die Visualisten auf unterschiedliche Techniken setzen, um zum Ziel zu kommen, sind sie sich einig, dass die Aufmerksamkeit für 3-D durch den Einsatz der Industrie sowie durch den Blockbuster "Avatar" gestiegen sei. "Bei gewissen Filmen ergibt es sicherlich Sinn, aber ich glaube nicht, dass man sich künftig auch die durchschnittliche Komödie in 3-D anschauen will, das ist eher ablenkend", glaubt Hitthaler.

"Es ist sehr viel Arbeit, bis man mit 3-D wirklich die Effekte erzielt, die man haben will. Auch die Erwartungshaltung des Publikums liegt oft außerhalb der technischen Erfüllbarkeit. Langfristig betrachtet wird es da aber noch einige Innovationen geben", gibt sich Pfeifer überzeugt.

Mehr zum Thema:

(futurezone/Barbara Wimmer)