VISUALISIERUNG

Lichträume

Welche Darstellungsmöglichkeiten sind geeignet um die Prozesse der Digitalisierung, der Quantifizierung von Informationen und der fortschreitenden Kartographierung und Vermessung unserer Umwelt Ausdruck zu verleihen?
Immer mehr digitale Systeme ergänzen die klassische Kartografie um räumliche und zeitliche Informationen des physischen Umfelds. Services wie Google Maps, diverse GIS (Geo-Informations-Systeme) Angebote von staatlicher und privater Seite oder die schiere Quantität an frei zugänglichen Fotografien und Videos im Internet, die teilweise unter Open-Source oder Creative-Commons Lizenzen veröffentlicht werden, bieten eine Fülle an Methoden die zur Darstellung der erforschten Glitches nahezu prädestiniert erscheinen.
Für die Darstellung der Urban Glitches haben wir Techniken gewählt, die eine Verschränkung von analogen und digitalen Arbeitstechniken darstellen. Durch bewusste Provokation von Fehlern und Verfremdungen entsteht Bildmaterial mit einer Ästhetik die unserer Sicht des Urban Glitch entspricht.

Photogrammetrie

Die Vermessungstechnik wurde 1851 vom französischen Offizier Aimé Laussedat parallel zur gerade entdeckten Fotografie entwickelt. Der Begriff setzt sich aus den altgriechischen Wörtern [phõs = Licht], [grámma = Schrift] und [métron = Maß, Länge, Größe] zusammen. Grundlage der Technik ist die Wiederherstellung der Ausgangsgeometrie mittels der Gesetze der Zentralprojektion. Moderne Programme nutzen dazu generierte Datensätze aus sogenannten dichten Punktwolken (PointClouds) die durch Laserscans oder durch die Interpretation von Fotografien erstellt werden.

Als Ausgangsmaterial für diese Technik wird eine große Menge an Bildmaterial benötigt. Dafür werden Objekte halbkugelförmig umkreist, große Flächen im Raster abgeschritten, um somit die benötigte Geometrie aus allen Blickwinkeln fotografisch festgehalten. Alternativ kann das abzubildende Objekt auch aus einzelnen Frames eines Videos errechnet werden.
In der Aufarbeitung durch Computerprogramme werden die Lage und Form der Objekte durch algorithmische Auswerteverfahren und Interpretation wieder in ein räumliches Verhältnis gesetzt. Durch die hohe Auflösung moderner Digitalfotografie entstehen 3D-Modelle mit mehreren Millionen Polygonen. Abschließend werden die Farbinformationen der Fotografien als entzerrte Textur wieder auf die Polygonmeshes projiziert.

Laserscan

Der Laserscan stellt eine Sonderform der Photogrammetrie dar. Gleich der Aufarbeitung von Fotografien zur geometrischen Datenanalyse handelt es sich auch beim Laserscan-Verfahren um eine Bildmessung durch Licht. Im Unterschied zur Fotografie-Analyse, die durch die Interpretation von Bildpunkten ein Schätzverfahren darstellt, ist der Laserscan um ein vielfaches präziser. Für die Messung wird die Oberfläche zeilenförmig mit einem Laser abgetastet und die Entfernung jedes einzelnen Messpunktes mittels der Laufzeitmessung des Laserstrahls errechnet. Die Wellenlänge des Lichtstrahls, auf derer auch das metrische System beruht, lässt somit, in Kombination mit der Laufzeit, eine exakte Entfernungsmessung zu. Anwendung findet die Technik häufig in der Geländevermessung durch Befliegungen (Airborne Laserscanning).
Für unsere Arbeit nutzten wir frei erhältliche Datensätze des Landes Oberösterreich, die durch die Software “Cloud Compare” visualisiert wurden.

KI-generierte Bilder

KI-Bildgeneratoren verwenden Algorithmen für unüberwachtes Lernen – dem Lernen ohne zuvor bekannten Zielwert und ohne Belohnung von außen – zum Beispiel VQGAN (Vector Quantized Generative Adversarial Network) in Kombination mit CLIP (Contrastive Language–Image Pre-training).
GANs (Generative Adversarial Networks) sind Systeme, bei denen zwei neuronale Netzwerke aufeinander reagieren. Eines der Netzwerke – der Generator – erstellt Bilder oder Daten. Ein zweites Netzwerk – der Discriminator – bewertet die Ergebnisse. Somit reagiert das System auf sich selbst, um seine Ergebnisse zu verbessern. Bei CLIP handelt es sich um ein begleitendes neuronales Netzwerk, das Bilder anhand einer Textbeschreibung findet, die in das Generative Adversarial Network eingespeist werden. Das so generierte Video- und Bildmaterial reicht von grotesken, schwer interpretierbaren Outputs hin zu hochauflösenden Portraits von Personen, die nie real existiert haben.

Die Herstellung KI-generierter Bilder und Videos ist ohne die Installation aufwändiger Software möglich. Für die folgenden Bilder wurde ein Notebook von Katherine Crowson auf der Plattform Google Colaboratory genutzt. Bei Notebooks handelt es sich um Code, der von den Verfasser*innen kostenfrei geteilt wird, und im Browser ausgeführt werden kann.
Beim verwendeten Notebook werden Codeblöcke der Reihe nach ausgeführt. Es können verschiedene Datensätze, sogenannte Modelle, geladen werden, die anschließend zur Bildgenerierung verwendet werden. In einem weitern Feld werden Wörter oder Sätze, sogenannte Textprompts, eingegeben. Es ist möglich ein Bild hochzuladen und als Ausgangsbild zu definieren, oder es als Zielbild einzugeben. Sobald alle Parameter gesetzt sind, kann die Bildgenerierung starten. Das entstehende Bild wird immer wieder zwischen Generator und Discriminator ausgetauscht. Jeden dieser Schritte nennt man Iteration. Nach einer zuvor bestimmten Anzahl an Iterationen wird ein Ergebnis ausgegeben. Ist das gewünschte Ergebnis erreicht, kann der Prozess jederzeit abgebrochen werden. Aus den so entstandenen Bildern kann durch deren Aneinanderreihung ein Video oder GIF erstellt werden.

Die folgenden Bilder wurden mit dem Prompt “Blooming Schönbrunn Palace Park” ohne ein initial Image (Ausgangsbild) erstellt und zeigen verschiedene Iterationsschritte. Jede Bildgenerierung ohne Ausgangsbild startet mit einem grauen Rauschen, das sich schrittweise zu einem Bild mit erkennbarem Inhalt wandelt.

Wird ein initial Image verwendet, wird es im ersten Schritt nachkonstruiert. Für dieses Beispiel wurde als Ausgangsbild ein Foto der Anlegestelle des Schaufelraddampfschiffes Schönbrunn verwendet, das ebenfalls mit dem Textprompt “Blooming Schönbrunn Palace Park” bearbeitet wurde.

Risographie

Beim Riso-Druck handelt es sich um ein maschinelles Schablonendruckverfahren, ähnlich der Siebdrucktechnik. Eine Folie wird hierbei an den Stellen, an denen die Farbe auf das Papier aufdringen soll, thermisch durchlöchert. Anschließend werden Papierbögen unter einem rotierenden Druckzylinder durchgezogen und die Farbe aufgewalzt. Die Basis der Riso-Tinte ist Reiskleie-Öl. Auch das Schablonenmaterial, die sogenannte Masterfolie, wird aus nachwachsenden, pflanzlichen Rohstoffen hergestellt.
Riso-Printmaschinen ähneln in ihrem Aussehen herkömmlichen Fotokopierern und Digitaldruckgeräten. In ihrem Inneren verbergen sich jedoch die zwei entnehmbaren Druckzylinder.
Der Hersteller bietet 21 Standard- und 50 Spezialfarben an. Da für jede Farbe ein eigener, wiederbefüllbarer Zylinder, der mit hohen Anschaffungskosten verbunden ist, benötigt wird, steht häufig nur eine begrenzte Auswahl an Farben zur Verfügung. Diese können jedoch in unterschiedlicher Deckkraft aufgetragen oder durch Überlagerung gemischt werden.

Für jede verwendete Schmuckfarbe, muss eine eigene Masterfolie angefertigt werden. Maximal zwei Farben können in einem Druckvorgang aufgetragen werden. Daher ist das Druckverfahren für Einzelstücke weniger geeignet. Für kleine bis mittlere Auflagen ist es hingegen ideal. Bereits ab einer Auflage von 10 Stück, kann sich ein Riso-Druck lohnen.
Bis zu 150 Blatt pro Minute können im Riso-Druckverfahren hergestellt werden. So können Flyer, Postkarten, Broschüren oder Zeitschriften schnell gefertigt werden.

Bei jedem Riso-Druckvorgang, muss die Position des Zylinders üperpüft und gegebenenfalls manuell nachkorrigiert werden, damit sich die einzelnen Farben wie geplant überlagern. Auch bei optimaler Einstellung der Druckzylinder, kann es zu einer geringfügigen Verschiebung kommen.
Bei unseren ersten Druckversuchen verwendeten wir Schwarz, Rot und Blau. Bevor die Zylinder auf einander abgestimmt waren, erinnerten die Verschiebungen der Farbebenen an Anaglyphenbilder.

Anaglyphe

Anaglyphe [aus altgriechisch: aná = auf, aufeinander und glýphō = meißeln, gravieren, darstellen] ist eine Stereoprojektion von Bildern (ähnlich dem heute üblichen Stereoskopen Verfahren in Kinofilmen) durch Übereinanderlagerung von Halbbildern in Komplementärfarben. Die Technik ist zeitgleich mit der Fotografie und der Photogrammetrie Mitte des 19. Jahrhunderts entstanden. Als ihr Erfinder gilt der Physiker Wilhelm Rollmann.
Räumliche Tiefe entsteht im menschlichen Gehirn durch die unterschiedlich geometrisch verzerrten visuellen Eindrücke des linken und des rechten Auges. Anaglyphenbilder machen sich dieses Prinzip zunutze, um durch die Schichtung zweier perspektivisch versetzter Halbbilder ein dreidimensional wirkendes Bild zu erzeugen. Spezielle Anaglyphenbrillen mit Farbfiltern trennen die Bildinformationen für die Augen wieder auf, das Gehirn interpretiert die unterschiedlichen Informationen als räumliche Tiefe. Während für die Bildtrennung früher vorwiegend Rot-Blau-Kanäle verwendet wurden wird mittlerweile hauptsächlich Rot-Cyan verwendet. Dies hat den Vorteil, dass Cyan die Farben Grün und Blau zu gleichen Teilen enthält und somit zusammen mit Rot alle drei Primärfarben umfasst.

Trotz der Verwendung von Rot-Cyan-Kanälen ist es schwierig Blautöne zu filtern. Sowohl blaue, als auch cyanfarbene Folien filtern nur einige wenige Blautöne optimal aus. Rottöne hingegen, werden durch die verwendete Folie leichter ausgeblendet.
Da das zur Verfügung stehende Blau der Riso-Printmaschine nicht optimal gefiltert wird, haben wir uns beim Druck des Posters, das in unser Magazin eingelegt ist, für einen herkömmlichen Laserdruck entschieden. Besonders gut funktionieren die Anaglyphbilder in digitaler Form, bei Verwendung einer Rot-Cyan-Brille. Alle Anaglyphbilder findet ihr unter Anaglyph 3D.