X

Vom Siegeszug der 3D-Technik in der Bauplanung

Die rapide Evolution der 3D-Technik eröffnet neue Möglichkeiten für die Planungsphase von Bauvorhaben. War vor wenigen Jahrzehnten noch Modellbau das Mittel der Wahl, um die Wirkung eines zu erstellenden Gebäudes in seiner designierten Lage zu visualisieren, ist heute virtuelle, digitale Visualisierung aus der Arbeitswirklichkeit von Architekten, Projektentwicklern und Stadtplanern nicht mehr wegzudenken.

Durch an der Physik von Lichtstreuung an Oberflächen (PBR, Physically Based Rendering) und die Abbildung der Lichtkulisse der Umgebung (Environment Mapping) sind fotorealistische Vorschauen auf Baukörper möglich. Anders als zweidimensionale Zeichnungen ermöglichen dreidimensionale Architekturmodelle die Vorschau aus allen Blickrichtungen und virtuelle Vorabbegehungen.

Lichtstreuung an Materialoberflächen

Die bahnbrechenden Arbeiten z. B. der Cornell University der letzten Dekaden, z.B. Greenberg et al: A Framework for Realistic Image Synthesis (1997), führten zu einer neuen Qualität in der 3D-Grafik. Unphysikalische Visualisierung mit statisch kolorierten Flächen wurde von birektionalen Streuungsfunktionen (BRDF, Bidirectional Reflectance Distribution Function) abgelöst.

Die sich in der Folge herausbildenden Kategorien der Interaktion von Licht und Oberflächen – Reflexion, Streuung, Transparenz und Transluzenz – lassen sich zu komplexen Antwortfunktionen kombinieren, die die Physik von Licht und Oberflächen in theoretisch beliebig guter Genauigkeit abbilden.

Durch Kombination von Metallizität, Lichttransport in Oberflächen (SSS, Sub Surface Scattering) und Beugungsverhalten lassen sich Stein und Glas vorab so darstellen, wie sie im fertigen Bauwerk auf Betrachter und Nutzer wirken werden.

Hardwareevolution als Katalysator

Grafikverarbeitung ist ihrem Wesen nach vektoriell. Auf einem – beliebig langen – Eingabevektor von Materialpunkten (Vertices) müssen in kürzester Zeit – idealerweise in Echtzeit – Fließkommaoperationen ausgeführt werden.

Architekturvisualisierung, wie sie heute in Echtzeit in VR (Virtual Reality) gelingt, erfordert solche Parallelverarbeitung.

PCs und auch PC-basierte Server sind aber ihrem ursprünglichen Design nach Skalarrechner. Sie wurden dazu entworfen, nur eine Zahl pro Zeitscheibe zu verarbeiten. Parallelisierung im PC-Bereich im Zuge von Fließkomma-SIMD (Single Instruction, Multiple Data) und Multiprozessorsysteme waren ein erster Schritt in Richtung Vektorisierung und Parallelisierung von Rechenprozessen.

Das aktuelle Hardware-Bindeglied zwischen skalaren Rechnerarchitekturen und vektoriellen Problemdomänen wie der 3D-Grafik bilden Grafikchips, wie sie in handelsüblichen Grafikkarten verbaut sind. Durch die Grundaufgabe, eine Matrix von Bildpunkten in hoher Frequenz zu generieren, fand sich hier ein natürliches gemeinsames Drittes mit der Anforderungen der Vektorisierung.

Die Leistungsfähigkeit heutiger handelsüblicher Grafikhardware hätte noch vor zehn Jahren utopisch angemutet. Hochfrequente (2D-)Bilderzeugung ist dabei nur noch ein Feature moderner Grafikchips. In Hardware abgebildete Lösungen zur Vektorisierung wie CUDA bilden den Unterbau für leistungsfähige 3D-Grafiksysteme.

Auf dieser Rechenleistung aufsetzend sind Programmierschnittstellen wie OpenCL entstanden, die mit ihrem plattformübergreifenden, herstellerneutralen Ansatz Investitionsschutz für die Nutzung von 3D-Technologien bieten.

Von der Utopie zur visuellen Gegenwart

Kaum eine Filmproduktion und keine filmische Utopie kommt heute ohne Special Effects und 3D-Computeranimation aus. Die Zahl der 3D-Anwendungen in der Spieleindustrie ist Legion.

Es ist eine natürliche Entwicklung, die Möglichkeiten zu Visualisierung utopischer, zukünftiger Habitate auch der Gegenwartsarchitektur zugänglich zu machen, denn jedes geplante Gebäude ist bis zu seiner Fertigstellung eine Gegenwartsutopie.

Categories: Bauen
Thomas Roland: