Signale und Empfindungen
Um Reize aus der Umgebung wahrzunehmen, besitzen Menschen Sensoren in Form von Sinnesorganen. Informationen, die über diese eingehen, werden oft fälschlich als Wahrnehmung bezeichnet. Verschiedene Disziplinen wie Psychologie, Physiologie, Biologie und Philosophie definieren den Begriff Wahrnehmung unterschiedlich. Sowohl in der Psychologie als auch in der Physiologie bezeichnet man als Wahrnehmung jene Sinnesreize, die kognitiv verarbeitet werden. Wahrnehmung beschreibt demnach die Summe von Aufnahme, Auswahl, Verarbeitung und Interpretation von Sinneseindrücken. Eingehende Informationen oder Reize werden von den Sinneszellen in ein Signal umgewandelt, von Nervenzellen aufgenommen und als elektrischer Impuls über Nervenfasern an das menschliche Rechenzentrum, das Gehirn, weitergeleitet. Die Umwandlung eines Reizes in ein Potential wird als Transduktion bezeichnet. Was als Reiz von unseren Sinnesorganen überhaupt aufgenommen wird, ist unterschiedlich. Ob ein Reiz eine Sinnesempfindung auslöst, hängt davon ab, ob dieser eine Unterschiedsschwelle, also den kleinsten wahrnehmbaren Unterschied in der physikalischen Intensität zweier Reizdarbietungen überschreitet. Schon während der Übermittlung können Signale der Sinnesorgane im Nervensystem ver- und abgeglichen, kombiniert, gefiltert oder kontrastiert werden. Die Information, die an unser Gehirn weitergeleitet wird, wird oft als Empfindung bezeichnet. Somit können objektiv gesehen identische Reize der Außenwelt zu subjektiv unterschiedlichen Empfindungen führen.1
Wahrnehmung
Empfindungen werden jedoch nicht ungefiltert wahrgenommen. Die eingehenden Informationen müssen erst verarbeitet werden, um diese für uns auswertbar zu machen. Dabei kann es zu starken Abweichungen der wahrgenommenen Empfindungen kommen.
Ein Beispiel dafür ist die Wahrnehmung von Farben. 2015 wurden unter dem Hashtag Dressgate die Farben eines Kleides diskutiert. Twitter Nutzer*innen nahmen die Farben auf einem Bild eines Kleides verschieden wahr. Der Grund dafür ist, dass unser Gehirn die Farbinformation abhängig vom umgebenden Tageslicht auswertet. Diese Farbkorrektur führt dazu, dass die Farben unterschiedlich wahrgenommen werden. Farben sind essenziell dafür, wie wir unsere Umgebung wahrnehmen und Informationen in ihr deuten. Gleichzeitig wissen wir jedoch, dass unser Gehirn diese Informationen aus elektromagnetischer Strahlung in unterschiedlicher Wellenlänge für uns zusammenbaut. Trotz dieses Wissens sind Farben für uns nicht weniger real oder bedeutsam.
Für die unterschiedliche Wahrnehmung der Farben des Kleides gibt es eine Erklärung. Woher wissen wir aber, dass es sich bei dem Gegenstand um ein Kleid handelt? Wir haben bereits Kleider gesehen und der Gegenstand auf besagtem Bild hat Ähnlichkeit zu dem, was wir schon kennen. Was würde passieren, wenn das Kleid in einem Text beschrieben würde? Hermann Helmholtzs 1866 aufgestellte Theorie der Wahrnehmungspsychologie besagt, dass wir unsere Erfahrungen nutzen, um unbewusst über Wahrgenommenes schlussfolgern zu können. So ist es uns möglich, schnell und effektiv wahrzunehmen. Jedoch kann das auch dazu führen, dass wir neue Situationen falsch interpretieren. Helmholtz zufolge gehen lediglich Zeichen in unsere Wahrnehmung ein, die nie ein Abbild des Empfundenen darstellen:
„Insofern die Qualität unserer Empfindung uns von der Eigentümlichkeit der äusseren [sic!] Einwirkung, durch welche sie erregt ist, eine Nachricht gibt, kann sie als ein Zeichen derselben gelten, aber nicht als ein Abbild. Denn vom Bilde verlangt man irgendeine Art der Gleichheit mit dem abgebildeten Gegenstande, […] von einer Zeichnung Gleichheit der perspektivischen Projektion im Gesichtsfelde […] Ein Zeichen aber braucht gar keine Art der Ähnlichkeit mit dem zu haben, dessen Zeichen es ist. Die Beziehung zwischen beiden beschränkt sich darauf, dass das gleiche Objekt, unter gleichen Umständen zur Einwirkung kommend, das gleiche Zeichen hervorruft.“2
Hermann von Helmholtz beschrieb somit schon vor über 140 Jahren einen Signalstrom, der nicht nur vom Sinneseindruck der Außenwelt zum Gehirn, sondern in die umgekehrte Richtung fließt. Laut Anil K. Seth, der an der University of Sussex biologische Grundlagen der Wahrnehmung erforscht, beruht unsere Wahrnehmung auf beiden dieser Signalströme:
„Wenn wir die Wahrnehmung für ein direktes Fenster zu einer äußeren Realität halten, erscheint es logisch, dass Informationen von den Sinnesorganen zum Gehirn fließen, also von unten nach oben (bottom up). Umgekehrt gerichtete Signale könnten lediglich Zusammenhänge oder Verfeinerungen des Wahrgenommenen beisteuern – mehr nicht. In einer solchen Sichtweise scheint es, als offenbare sich die Welt uns unmittelbar durch unsere Sinne.
Ganz anders das Szenario der Vorhersagemaschine: Hier erfolgt der Hauptteil der Wahrnehmungstätigkeit durch von oben nach unten gerichtete Signale (top down), die Vorhersagen über die Wahrnehmung liefern. Der zum Gehirn gerichtete Strom der Sinneseindrücke dient nur dazu, diese Prognosen zu verfeinern und angemessen mit ihren realen Ursachen zu verbinden. Somit beruht unsere Wahrnehmung mindestens so stark auf einem zur Peripherie gerichteten Informationsfluss wie umgekehrt, wenn nicht noch stärker. Es handelt sich also nicht um ein passives Aufnehmen einer äußeren, objektiven Realität, sondern um einen aktiven Konstruktionsprozess – eine kontrollierte Halluzination.“3
An unserer Wahrnehmung sind also verschiedenste Prozesse der Weiterverarbeitung, Organisation und Interpretation sensorischer Informationen beteiligt, die in unserem Nervensystem und unserem Gehirn ablaufen. Daran wiederum sind verschiedenste Hirnregionen beteiligt. Seitdem unser Gehirn als Sitz unserer kognitiven Leistungsfähigkeit ausgemacht wurde, werden Vergleiche zwischen dem menschlichen Gehirn mit den komplexesten, zur jeweiligen Zeit verfügbaren, technischen Apparaturen angestellt. Heute vergleichen wir das Gehirn mit den leistungsstärksten Computern die wir kennen und im Umkehrschluss wird versucht, Computer anhand menschlicher neuronaler Netzwerke nachzubilden. Im Gegensatz zu manchen technischen Informationssystemen ist es jedoch nicht das Ziel unseres Gehirns, eine möglichst große Datenmenge zu erfassen. Unsere Gehirnaktivität minimiert die eingehende Datenmenge sogar drastisch – ohne dass wir uns dessen bewusst sind – auf einen für uns verarbeitbaren Umfang. Eingehende Informationen werden auf ein Zehnmillionstel ihrer Menge reduziert. Bei der Ausgabe durch Sprache, Mimik oder allgemeine Motorik werden Informationen durch Assoziationsvorgänge mit gehirneigener Information angereichert. Dieser Reduktionsvorgang stellt eine Art Flaschenhals dar, durch den der Informationsfluss durch muss.4 Auch wenn wir denselben Gegenstand sehen, werden wir diesen nie gleich wahrnehmen, oder ihn gleich beschreiben.
Dein Gegenüber hat nicht verstanden, was du gemeint hast.
Während du dich am Schreibtisch niederlässt, schiebt sich dein Kloß im Hals Richtung Abdomen und bleibt dort stecken.
Auf deinem Handy schaust du dir ein Meme an, in dem Spock aus Raumschiff Enterprise zu sehen ist. Memes sind eine universelle Form der Kommunikation, die jedoch durch die Fähigkeit des Referenzierens bedingt wird. Du schmunzelst. Du bist belustigt, weil du weißt, dass Vulkanier eine fiktive Spezies sind, die es geschafft haben, ihre Emotionen zu unterdrücken und rein logikbasiert zu denken und zu handeln. Vulkanier sind Telepathen und können ihre Gedanken direkt und unverfälscht an andere Personen weitergeben. Optimal. Miteinander sprechen ist schwieriger. Auch wenn das Gegenüber bereit ist, eine Nachricht zu empfangen, kann der Sender nie bestimmen, ob diese auch wie gewünscht ausgewertet wird. Je öfter du dies beobachtest, umso attraktiver erscheint die Kommunikation mit Maschinen. Dein Computer kennt nur Nullen und Einsen. Egal, was du eingibst, wird dies genau der Eingabe entsprechend ausgewertet, ohne die Zugabe von Emotion und endloses Referenzieren auf zuvor angeeignetes Wissen. Du klappst deinen Laptop auf.
Kommunikation
Das Wissen über Informationsverarbeitung, deren Reduktion und Interpretation, und die Betrachtung der individuellen Wahrnehmung als kontrollierte Halluzination lassen besser verstehen, warum zwischenmenschliche Kommunikation oft scheitert. Wir können dabei nicht auf ein gemeinsames Verständnis einer objektiven Realität zurückgreifen. Und noch fataler: unser Gehirn bedient sich gewisser Faustregeln und Abkürzungen, mit denen es versucht aufgrund von begrenztem Wissen in begrenzter Zeit brauchbare Entscheidungen zu treffen und komplexe Problematiken zu vereinfachen. Die Kunst, in kurzer Zeit und anhand von unvollständigen Informationen wahrscheinliche Aussagen oder praktikable Lösungen zu erreichen, wird als Heuristik bezeichnet.5 Doch unser Gehirn stellt als Vorhersagemaschine und Freund einfacher Heuristiken nicht nur ständig neue Hypothesen über Sinneseindrücke auf, sondern optimiert deren Vorhersage stetig. Es ist in der Lage anhand eines Feedback-Loops aus Vorhergesagtem und tatsächlich Eingetretenem einen Vorhersagefehler zu bestimmen, den es auf die nächste Prognose anwenden kann. Das Gehirn ist zwar darauf ausgelegt, die Abweichung aus dem Vorhergesagten und dem tatsächlichen Sinneseindruck möglichst gering zu halten, jedoch optimiert es Vermutungen auch anhand neuer Daten.3
Aus diesen Eigenheiten des Gehirns resultieren verschiedene Hindernisse in der zwischenmenschlichen Kommunikation, aber auch die Fähigkeit, die eigene Wahrnehmung anhand neuer Daten zu hinterfragen. Im Englischen werden Kommunikationshindernisse oft als Cognitive Biases bezeichnet. In der Soziologie bezeichnet man damit die kognitive Verzerrung, die als Sammelbegriff für systematische, unbewusste und fehlerhafte Prozesse der menschlichen Informationsverarbeitung – unserem Wahrnehmen, Erinnern, Denken und Urteilen – steht.6 Sie basieren auf oben beschriebenen Prognosen und stellen sogenannte kognitive Heuristiken dar. Menschen neigen beispielsweise dazu, Argumente, die für die eigene Meinung sprechen, als stärker zu empfinden, als Argumente, welche gegen die eigene Meinung sprechen. Dies wird als Bestätigungsfehler – oder auch Confirmation Bias – bezeichnet. Zusätzlich neigen wir dazu, Informationen zu konsumieren, die mit unserer bestehenden Weltanschauung übereinstimmen. Die Sozialpsychologin Ziva Kunda beschrieb dieses Phänomen als Motivated Reasoning – ein sich wechselseitiges Beeinflussen von Motivation und Kognition, das dazu führen kann, dass wir trotz erbrachter Gegenbeweise an falschen Annahmen festhalten.7
Der Begriff Filterblase, oder Filter bubble, der 2010 durch den Internetaktivisten Eli Pariser geprägt wurde, beschreibt einen Zustand intellektueller Isolation. Filterblasen entstehen durch die Auswahl erhaltener Informationen auf Grundlage der Auswertung von Suchanfragen, Standort oder Userverhalten durch algorithmische Voraussagen, die auf Webseiten getroffen werden.8 Unsere natürliche Veranlagung, bestehende Weltanschauungen, Meinungen und Betrachtungsweisen aufrecht erhalten zu wollen und die systematische Vorauswahl an eingehenden Informationen, begünstigt in diesem Zusammenhang einseitige Wahrnehmungen. Von diesem Standpunkt aus fällt es immer schwerer, Verständnis für andere Standpunkte und Anschauungen aufzubringen.
Auch Vorurteile lassen sich mit dem Wissen über Vorgänge unserer Wahrnehmung besser verstehen, denn auch deren Aufrechterhaltung unterliegt oft ein Bias. Als Attributionsfehler, auch Correspondence Bias, bezeichnet man in der Sozialpsychologie „den Einfluss dispositionaler Faktoren, wie Persönlichkeitseigenschaften, Einstellungen und Meinungen, auf das Verhalten anderer systematisch zu überschätzen und äußere Faktoren (situative Einflüsse) zu unterschätzen“.9 Wir versuchen uns dabei das Verhalten eines Menschen anhand der Zugehörigkeit zu einer gewissen Gruppe, sei es eine bestimmte soziale Gruppe, eine politische Partei oder schlicht durch die Herkunft der Person, zu erklären. Diese Art des unterbewussten und automatischen Denkprozesses bezeichnet man als Urteilsheuristik.
Unsere Denk- und Wahrnehmungsprozesse sind für allerhand Nebenwirkungen verantwortlich. Sie verursachen Missverständnisse, Kränkungen, Konflikte, oder sogar Gewalt. Sie ermöglichen es uns jedoch auch, über unsere Wahrnehmung nachzudenken. Dies ermächtigt uns, unsere Kommunikation zu verbessern, unsere Wahrnehmung zu hinterfragen, oder sogar Wahrnehmungsexperimente anzustellen.
Dein Newsfeed weiß, was dich interessieren könnte. In deiner Mittagspause präferierst du leicht verdauliche Informationshäppchen. Tech News.
“Recognition of bias in AI continues to grow”, “Facebook Apologizes After A.I. Puts ‘Primates’ Label on Video of Black Men”, “Explained: Why Artificial Intelligence’s religious biases are worrying”… Nicht die gewünschten Ergebnisse.
Wie die künstliche Intelligenz funktioniert, musst du nicht gänzlich verstehen. Es reicht die Gewissheit, dass es sich dabei auch nur um Mathematik mit gewissen Extras handelt.
Die gewissen Extras scheinen sämtliche menschlichen Vorurteile und Fehlinformationen in deinen digitalen Zufluchtsort zu injizieren. Der verdaut geglaubte abdominale Kloß wird zum Germknödel und bläht sich auf. Du fliehst auf die Dachterrasse der Universität. Dort ist es kühl und windig. Wenn Lernen zu Referenzieren führt und das zu Vorurteilen und Missverständnissen, wäre es vielleicht gescheit mit dem Lernen aufzuhören.
Künstliche Intelligenz
»„Ich war in einem Raum mit einem Wissenschaftler, der mir KI demonstrieren wollte. Er zog eine Kiste heraus und sagte: “Das ist deine KI.” Ich war ziemlich erstaunt. “Ist das ein Witz?” Ich fragte ihn. „Nein“, antwortete er, „die KI wird das sein, was Sie denken.“ Also sagte ich: “Es muss ein Hund sein.” Und in diesem Moment veränderte sich die Kiste und verwandelte sich in einen Hund. Es war entzückend und sah aus wie mein eigener Hund, der vor kurzem gestorben war, also schien es mir perfekt. Als ich mich bückte, um es zu streicheln, nahm der Wissenschaftler es wieder aus dem Zimmer und stellte es wieder auf den Tisch. „Der Hund ist keine KI“, sagte er ernst. “Was?” fragte ich ungläubig, während er mich wissend angrinste. “Du hast mir gesagt, dass die KI das sein würde, was ich dachte!”
„Künstliche Intelligenz gibt es nicht“, erklärte er.“«
»Künstliche Intelligenz ist die von Maschinen demonstrierte Intelligenz im Gegensatz zur natürlichen Intelligenz von Menschen und anderen Tieren. Künstliche Intelligenz ist ein Gebiet der Informatik und Ingenieurwissenschaften, das darauf abzielt, Computer und Computerprogramme zu erstellen, die in der Lage sind, Entscheidungen zu treffen und Aufgaben ähnlich wie Menschen zu erledigen.
KI kann als die Fähigkeit einer Maschine oder Software beschrieben werden, intelligentes menschliches Verhalten zu imitieren, wie beispielsweise Problemlösung, Mustererkennung, Spracherkennung, Sprachübersetzung, Entscheidungsfindung und Lernen. Deep Learning ist eine Teilmenge der künstlichen Intelligenz, die Algorithmen umfasst, die Aufgaben durch die Analyse großer Datenmengen lernen.
In den 1950er Jahren konzentrierte sich die erste Generation von KI-Wissenschaftlern auf einen Ansatz namens „symbolische“ KI, bei dem Maschinen mit Wissen über die Welt in Form von Symbolen oder Repräsentationen programmiert werden. Ein Textverarbeitungsprogramm kann zum Beispiel automatisiert werden, um Wörter zu ändern, um die Rechtschreibung oder Grammatik zu verbessern, indem man ihm sagt, was jedes Wort ist. Dieser symbolische Ansatz der Programmierung hat jedoch seine Grenzen. Obwohl es bestimmte Aufgaben automatisieren kann, die einst auf menschliche Arbeit beschränkt waren, hat es immer noch ein begrenztes Verständnis dafür, wie Menschen denken und Emotionen erleben.
Dies änderte sich 1995, als ein Team der Carnegie Mellon University eine neue Maschine entwickelte, die Schach besser spielen konnte als je zuvor ein Mensch. Diese Maschine unterschied sich von früheren Computern, weil sie nicht mit Spielregeln programmiert war, sondern durch Spiele gegen sich selbst lernte. Die Maschine lernte im Laufe der Zeit aus ihren Erfahrungen – genau wie Menschen es tun –, was ihre Art und Weise, wie sie Schach spielte, dramatisch verbesserte. Künstliche Intelligenz, auch KI oder AI genannt, lässt sich schlüssig und einfach erklären. Dabei geht es um so viel mehr als die Automatisierung alltäglicher Aufgaben. Es geht um die Schaffung simulierter Umgebungen für technische, medizinische, kognitive und militärische Zwecke. Es geht darum, die Welt durch Berechnungen zu verstehen.«
Die letzten zwei Texte haben gemeinsam, dass beide von einem KI-Tool für automatisierte Text-Generierung erstellt wurden. Dafür werden vom Nutzer Stichwörter oder Sätze – ein sogenannter Prompt – eingegeben, die der Textgenerator erweitert oder auf deren Basis er einen gänzlich neuen Text erstellt. Für den ersten Text wurden mehrere Prompts verwendet, deren Ergebnisse oder Ausschnitte daraus neu angereiht wurden, um einen schlüssigen Text zu ergeben. Der zweite Text wurde genau wie abgebildet vom KI-Tool Rytr generiert.
Der KI-Schreibassistent vermag sowohl sachliche Beschreibungen, als auch fantastische Geschichten zu formulieren. Anhand großer Datenmengen erlernt er, wie wahrscheinlich zwei Wörter aufeinanderfolgen. Er bedient sich also keiner vorgefertigten Textbausteine, sondern wählt jedes Wort anhand einer Wahrscheinlichkeitsverteilung aus. Die Überprüfung durch eine Software zur Erkennung von Plagiaten ergab, dass für keinen der beiden Texte identische Sätze oder Textbausteine durch eine Suchmaschine gefunden werden konnten.
Auch was den Inhalt betrifft ist der generierte Text erstaunlich präzise, jedoch nicht gänzlich richtig.
Der Begriff Artificial Intelligence wurde tatsächlich bereits 1955 durch den US-amerikanischen Informatiker John McCarthy, den Erfinder der Programmiersprache LISP, geprägt, der diesen in einem Förderantrag für ein Forschungsprojekt verwendete. Er wählte den Begriff bewusst um seine Arbeit vom Forschungsgebiet der Kybernetik zu unterscheiden.10
Auch der erwähnte Schachcomputer existiert. 1949 begann Arthur Samuel seine Forschung in den Bereichen KI und Maschinelles Lernen. Er entwickelte 1952 ein schachspielendes Programm für den Großrechner IBM 701. Das Programm wählte seine Züge anhand einer vorausschauenden Suche in einem sogenannten Suchbaum aus und erreichte damit gute Spielfähigkeiten. Heute bezeichnet man das als heuristische Suchmethode.11
Der vom KI-Schreibassistenten genannte Schachcomputer, der von Feng-hsiung Hsu an der Carnegie Mellon University entwickelt wurde, stammt jedoch schon aus den 1980ern. 1989 gewann der Computer namens Deep Thought bereits die Computer- Schachweltmeisterschaft. Seine menschlichen Gegner schlug Deep Thought jedoch nicht immer. Erst 1996 gelang es seiner Weiterentwicklung, einem neuen Schachcomputer namens Deep Blue, den damaligen Schachweltmeister Garri Kasparow zu schlagen.
Der Weiterentwicklung, die der KI-Schreibassistent im Bereich der Spielverarbeitung darstellt, liegt die Entwicklung einer symbolischen KI (Top-Down-Prozess) hin zu einer neuronalen KI zugrunde. Dabei werden Bottom-Up-Prozesse angestrebt. Man beschränkt sich also nicht mehr auf eine „manuell programmierte“ Heuristik, sondern strebt von der KI selbst „erlernte“ Heuristiken an. Dafür wird neben großen Datenmengen auch eine hohe Rechenleistung benötigt. Der technologische Fortschritt eröffnet der KI so immer bessere Lernmöglichkeiten.
Neben der Spielverarbeitung wird KI auch für Bildverarbeitung, Sprachverarbeitung und viele andere Bereiche eingesetzt. Der Output, der dabei entsteht, ist stets abhängig von den zum Lernen eingespeisten Informationen, menschgemachten Informationen. Regelmäßig wird in verschiedenen Medien über Fehlfunktionen, Biases und unerwünschtes Verhalten von KI berichtet. Diese implizieren oft, dass sich die Menschheit in einen kollektiven Zustand des Zauberlehrlings begeben habe, der nun, seiner Kreation ohnmächtig geworden, dieser beim Wirken zusehen muss. Wie das für jedes andere Tool gilt, ist auch diese Technologie nur so gut, wie ihre Nutzer*innen. Jene Algorithmen, die uns in eine Filterblase verbannen, könnten ebenso Desinformation oder kognitive, soziale oder algorithmische Echokammern aufspüren. Wie diese Technologien eingesetzt werden, spiegelt also auch die Wertehaltung der Konzerne wider, die sie für ihre Zwecke verwenden.
Auch in der Architektur kann künstliche Intelligenz verwendet werden. Bauprojekte, Planungsvorgänge und Stadtgefüge werden zunehmend komplexer und die zu verarbeitenden Datenmengen größer. Es scheint nahezu unumgänglich, auch in diesem Feld neue Technologien einzusetzen. Neben Möglichkeiten zur effizienten Administration und Kommunikation gibt es KI-gestützte Tools, die für den Designprozess genutzt werden können oder Antworten auf wiederkehrende, häufig auftretende Planungsaufgaben bieten. Man kann dabei zwischen parametrischen, generativem und KI-gestütztem Design unterscheiden.
Ein Beispiel für letzteres sind sogenannte Self-Organizing Floor Plans (SOFP), die in der Lage sind, Grundrisse an verschiedenste, vorgegebene Parameter anzupassen und zu optimieren.12
Bei parametrischem Design werden geometrische Vorgaben programmiert. Dazu kann Code selbst geschrieben werden oder durch eine Visuelle Programmiersprache (VPL) erstellt werden. Bei Visuellen Programmiersprachen können Nutzer*innen Code aus grafischen Bausteinen, sogenannten Nodes, zusammenstellen, ohne Code selbst schreiben zu müssen. Ein Beispiel dafür ist die Visuelle Programmiersprache Grasshopper 3D. Dieses Vorgehen stellt eine Analogie zur klassischen Programmierung anhand von Regeln dar. Allerdings müssen dabei, ähnlich wie bei dem Beispiel der ersten Schachcomputer, alle Parameter manuell vorgegeben werden. Sobald mehr oder komplexere Parameter gefordert sind und das Design auf sich rasch verändernde Bedingungen der Außenwelt reagieren soll, kann es hier zu Schwierigkeiten kommen.
Generative Design nutzt genetische Optimierungsalgorithmen – von der Evolution natürlicher Lebewesen inspirierte Algorithmen, die künstliche neuronale Netzwerke evolvieren (optimieren) – welche auf parametrische Designs angewendet werden, um Eingabeparameter anhand einer Zielvorgabe zu wählen. So ist es möglich, einen Output anhand wesentlich komplexerer und umfangreicherer Eingaben zu generieren.13
Ein Kritikpunkt an parametrischem Design ist, dass die beschränkten Eingabeparameter oft nur der Erzielung einer gewissen Ästhetik dienen. So äußerte sich der Berliner Architekt Tobias Hönig im Rahmen der Lehre an der Kunstuniversität Linz kritisch zum Einsatz parametrischen Designs, das seiner Meinung nach ausschließlich zur Erzielung extravaganter Formen unter Einsatz wahlloser Parameter ohne nachvollziehbaren Ursprung und Informationsgehalt genutzt werde.
Ein Projekt, das sich davon abgrenzen lässt, ist R&Sie(n)s „I‘ve heard about it…“. Das Pariser Architekturbüro erstellt dabei ein Modell, das nicht darauf abzielt, eine tatsächliche Stadt abzubilden, sondern ein sogenanntes Metamodell generiert. Dabei wird ein bewohnbarer Organismus – eine adaptive Landschaft in stetigem Entwicklungszustand – anhand von Informationen von dessen Bewohnerinnen geschaffen. Die dazu verwendeten Informationen werden durch Nanorezeptoren gewonnen, die auf chemische Emissionen der Bewohnerinnen reagieren, die beispielsweise durch Stress oder Angst ausgelöst werden. Diese Daten werden in die VIAB-Maschine (von Viabilität und Variabilität) eingespeist. Dabei handelt es sich um einen vom Robotics Research Lab der Universiry of Southern California entwickelten Roboter, der Faserzement absondert und die generierte Struktur herstellt. Dabei ist die VIAB -Maschine Teil der Landschaft, in der sie sich bewegt und die sie erzeugt.14 Felix Guattari, einer der Mitbegründer des Studios R&Sie(n), beschreibt das Metamodell als „the mathematical prehension of an urban system that is simply relatable to the order of data structures, to the abstract dimension of numbers and their autonomous connections and disconnections, and which is neither driven by a pre-established logic nor by an external set of concrete influences. I’ve heard about it…, therefore, is the metamodel of a city whose data architectures do not model an existing urban space but simply construct its order. The project, in other words, has no references to predetermined ideas or to the concreteness of reality, but simply describes the conceptual prehension of an ‘architecture of abstraction’“.15
Diese Art der Herangehensweise, könnte genutzt werden, um Zusammenhänge und Prozessabläufe realer urbaner Räume visuell darzustellen und komplexe Systemabläufe greifbarer zu machen.
Auch in der Verkehrs- und Mobilitätsplanung findet generatives Design Anwendung. Genetische Algorithmen sind in der Lage, Verkehrsdaten auszuwerten und Verhaltensmodelle zur Analyse verschiedener Verkehrsflüsse zu erstellen. Derartige Verhaltensmodelle können das Fahrverhalten und die Routenauswahl einzelner Verkehrsteilnehmer*innen analysieren und vorhersagen, wie sich Eingriffe in das bestehende System auswirken. Dies kann die Resilienz von Verkehrsnetzen erhöhen und dringliche Entscheidungen über die Veränderung von Verkehrsnetzen, zum Beispiel im Falle von Naturkatastrophen, erleichtern.16
Die Forschung rund um künstliche Intelligenz hält fortlaufend viel Neues bereit und wird stetig erweitert. Auch wenn viele Nutzungsgebiete noch futuristisch und weit entfernt scheinen, gibt es Möglichkeiten mit KI zu experimentieren, für jeden, die/der über einen Computer oder ein Smartphone mit Internetzugang verfügt. KI-Textgeneratoren, wie jenes Programm, das die einleitenden Texte dieses Kapitels generiert hat, sind als Freeware oder Testversionen verfügbar. Auch das Generieren von Bildern ist über Dienste am PC oder am Smartphone möglich. Verschiedene Apps verwandeln eingegebenen Text in KI-generierte Bilder. Auch Google Colaboratory ermöglicht es mit Code, der von den Verfasserinnen sogenannter Notebooks zur Verfügung gestellt wird, und ohne viel Vorwissen aus Textvorgaben Bilder zu erschaffen.
Du gehst durch die Stadt. Die Stadt sendet dir ein Dauerfeuer an Reizen. Die Stadt sendet optische Reize, hörbare Reize, tastbare Reize. Sie kommuniziert mit dir durch ihre Gebäude, ihre Einwohner, ihre Topografie, ihre Plätze, Straßen und Gassen. Meistens verstehst du die Stadt. Du kennst die in sie eingebetteten Verhaltensnormen und Abläufe. Einige Szenen laufen immer wieder gleich ab. Die Straßenbahn fährt in die Haltestelle ein. Die Türen öffnen sich und du steigst ein. Warmer Luftzug. Du entscheidest dich für einen Fensterplatz und starrst irgendwo zwischen dem Glasfenster und der Außenwelt ins Leere. Dein Blick wird unterbrochen, durch eine plötzliche Irritation. Ein kleiner Kurzschluss wird in deinem Thalamus ausgelöst und brutzelt dort kurz vor sich hin, bevor er verebbt. Und schon bist du an der Szene vorbeigefahren. Trotzdem kannst du das Bild wie ein Foto abrufen. Ein unfreiwilliger Screenshot hat sich in deinen Festspeicher eingebrannt. Was war das für ein Ding an der Kreuzung? Das muss doch schon immer da gewesen sein. Neu hat es nicht ausgesehen. Eine Mischung aus Neugierde und Verunsicherung macht sich breit. Dein Smartphone kennt alle Straßen der Stadt und es hat sogar Bilder davon. Streetview. Da ist es! Dieses Ding scheint seine Umgebung zu durchbrechen. Seine Andersartigkeit macht dich stutzig. Deine in den letzten fünf Minuten gebildeten Synapsen starten einen DDos-Angriff auf alle alteingesessenen ihrer Art. Das kann doch nie so funktionieren. Und wenn es so funktioniert, warum muss es so aussehen, wie es aussieht? Wer hat es geschaffen? Und wann denn und mit welchem Recht? „Nächster Halt, Hauptplatz Linz, Kunstuniversität…“. Aufstehen, aussteigen. Kühle Luft wabert durch die Türen und trifft dein Gesicht, noch bevor du ganz aus der Straßenbahn hinaus in das neue Environment des Hauptplatzes eingestiegen bist. Lädt das noch, oder sieht das immer so aus?
Neue Realitäten
Neben der wahrgenommenen Außenwelt sind auch Inhalte aus Medien wie Filmen, Fotografien, Büchern oder Videospielen Eindrücke, die wir zur Konstruktion unserer Realität heranziehen. Obwohl wir deren Inhalte nicht selbst erlebt haben oder wissen, dass sie rein fiktiver Natur sind, dienen sie uns als Referenz, wenn wir etwas Neuem begegnen. Durch den Konsum dieser Medien, durch Lesen, Spielen, Zuhören und Zusehen, erweitern wir unsere Realität und lernen. Das englische Wort Immersion, beschreibt das Eintauchen in eine virtuelle Umgebung. Am bekanntesten ist der Begriff im Zusammenhang mit Virtual Reality, doch auch in Filme, oder Bücher lässt sich eintauchen. Was VR dabei voraus hat, ist die Möglichkeit eine 360° umfassende virtuelle Umgebung zu kreieren.
In den letzten Jahren beginnt sich unsere physische Realität zunehmend mit digitalen Inhalten zu vermengen. Mixed Reality und Augmented Reality erschaffen keine komplett neue Umgebung, sondern binden digitale Objekte in die natürliche Umgebung ein. Durch Brillen, Headsets oder auch Smartphones lassen sich digitale Inhalte in unsere physische Umgebung projizieren und sind sogar interaktiv.
Ein Versuch an der University of Sussex zeigt, dass Menschen einen virtuellen Raum durchaus als völlig real wahrnehmen können. Für den Versuch wurden Panoramaaufnahmen eines Labors angefertigt. Testpersonen wurden mit einem VR-Headset mit eingebauter Frontkamera ausgestattet. Während sich die Probanden durch das Headset im Labor umschauten, wurde auf dem Headset die zuvor aufgezeichnete Panoramaaufnahme anstatt der Aufnahme der Frontkamera gezeigt. Die meisten Versuchsteilnehmer*innen empfanden das Gesehene weiterhin als real. Es wird deutlich, dass Menschen unter gegebenen Umständen so getäuscht werden können, dass sie VR-Inhalte nicht von ihrer tatsächlichen Umgebung unterscheiden können.3
Ein ähnlicher Versuch, der ebenfalls von der University of Sussex durchgeführt wurde, beschäftigt sich mit der Erschaffung einer Halluzinationsmaschine. Dafür wurden Außenaufnahmen am Gelände der Universität angefertigt und mithilfe eines Algorithmus, der auf dem Programm DeepDream, das zur Erkennung und Klassifizierung von Bildern dient, analysiert. Das Programm erkannte dabei zum Beispiel verschiedene Hunderassen. Anschließend wurde die Arbeitsweise des Algorithmus dahingehend geändert, dass der Output den Input aktualisiert, also sozusagen rückwärtsläuft. Dies führte dazu, dass Objekte auf das Bildmaterial projiziert wurden, von denen der Algorithmus glaubte, sie seien dort. Wird dieser Prozess mehrmals ausgeführt, taucht immer mehr verfremdetes Bildmaterial an vom Algorithmus vorhergesagten Stellen auf. So entstand ein Video, bei dem an verschiedensten Stellen Hunde auftauchten, da der Algorithmus sie an viel mehr Punkten prognostizierte, als an denen die Hunde tatsächlich vorhanden waren. Das bei diesem Versuch entstandene Videomaterial wirkt surreal und psychodelisch und ähnelt einem Traum oder einer Halluzination.17
Die Betrachtung dieser Art von Bildmaterial löst in uns ungewohnte Empfindungen aus. Im Englischen wird dies als eery oder uncanny (unheimlich, mysteriös) beschrieben. Der Begriff Uncanny Valley („unheimliches Tal“) beschreibt einen Effekt, den künstlich generierte Bilder, Videospiele, Filme oder auch Roboter auf uns haben. Man könnte annehmen, dass die Akzeptanz beispielsweise gegenüber Avataren in Videospielen steigt, je realitätsgetreuer diese dargestellt werden. Diese Akzeptanz steigt jedoch nicht monoton mit dem Anthropomorphismus, also der Ähnlichkeit zum Menschen an, sondern sinkt an einem gewissen Punkt stark ab. Wir empfinden hochabstrakte und künstliche Figuren als sympathischer und akzeptieren sie eher als Figuren, die sich genau in diesem Tal zwischen Abstraktion und Realismus, dem Uncanny Valley, befinden.
Ein weiteres Phänomen, das ähnliche Empfindungen auslöst und auch in Videospielen zu finden ist, oder von diesen bewusst aufgegriffen wird, sind Liminal Spaces. Der vom Ethnologen Victor Turner geprägte Begriff der Liminalität beschreibt ursprünglich einen Schwellenzustand von Individuen oder Gruppen, die sich rituell von herrschenden sozialen Ordnungssystemen gelöst haben und sich in einer Art Schwellenphase vor einer erneuten Angliederung befinden.18 Der davon abgeleitete Begriff Liminal Space, beschreibt Grenzräume, die einen Übergang oder Durchgang zwischen zwei Orten oder Zuständen bilden. Diese sind oft leer oder verlassen. Typische Beispiele sind aufgelassene Einkaufszentren, leerstehende Großraumbüros oder Schulräume während unterrichtsfreien Zeiten. Die Ästhetik der Liminal Spaces ist jedoch weiter gefasst und kann nicht nur Grenzräume, sondern auch die Anziehungskraft von Bildern aufgrund von nostalgischen Gefühlsregungen beschreiben. Liminal Spaces sind stark mit dem kulturellen Gedächtnis der Generationen Y und Z verbunden. Die spezielle Ästhetik wird daher auch durch Elemente aus der ästhetischen Bewegung des Vaporwave, die sich Elementen und Farbgebungen aus Trends der 80er bis zu den frühen 2000er Jahren bedient und diese dabei oft bewusst überspitzt. Auch das Wort Glitch kann eine spezielle Art der Bildästhetik beschreiben, die sich an Bildfehlern in Filmen oder Videospielen orientiert und ebenfalls eingesetzt wird, um die Ästhetik von Liminal Spaces zu unterstreichen. Liminal Spaces werden zumeist in Photographien abgebildet, doch es ist auch möglich, sie künstlich zu generieren. Renderings von Liminal Spaces können in 3D-Grafiksuiten wie Blender erstellt werden. Den so entstandenen Bildern wird oft zusätzlich Unschärfe oder eine düstere Lichtsituation verliehen, um den Effekt eines Liminal Space zu erreichen.19
Nutzerinnen verschiedener Webseiten sammeln und veröffentlichen Bilder von Liminal Spaces. Auch AI-generierte Bilder, die aus Textprompts der Nutzerinnen entstehen, werden geteilt. Die KI-Bildgeneratoren verwenden dafür Algorithmen für unüberwachtes Lernen – dem Lernen ohne zuvor bekannten Zielwert und ohne Belohnung von außen – zum Beispiel VQGAN (Vector Quantized Generative Adversarial Network) in Kombination mit CLIP (Contrastive Language–Image Pre-training).
GANs (Generative Adversarial Networks) sind Systeme, bei denen zwei neuronale Netzwerke aufeinander reagieren. Eines der Netzwerke – der Generator – erstellt Bilder oder Daten. Ein zweites Netzwerk – der Discriminator – bewertet die Ergebnisse. Somit reagiert das System auf sich selbst, um seine Ergebnisse zu verbessern. Bei CLIP handelt es sich um ein begleitendes neuronales Netzwerk, das Bilder anhand einer Textbeschreibung findet, die in das Generative Adversarial Network eingespeist werden.20 Das so generierte Video- und Bildmaterial reicht von grotesken, schwer interpretierbaren Outputs hin zu hochauflösenden Portraits von Personen, die nie real existiert haben.
Wo der Glitch wohnt
Der Glitch ist eine kurzzeitige Falschaussage in einem logischen System. Er ist eine Manifestation eines unlogischen oder fehlerhaften Zustandes, des Systems oder der Programmierung, die ihm zugrunde liegt. So kann der Glitch klar von einem sogenannten Bug, also einem Fehler in der Programmierung, unterschieden werden. Alex Pieschel, ein Autor der Arcade Review, beschreibt den Unterschied wie folgt: “‘Bug’ is often cast as the weightier and more blameworthy pejorative, while ‘glitch’ suggests something more mysterious and unknowable inflicted by surprise inputs or stuff outside the realm of code.”21
Du setzt dich auf eine Parkbank und machst die Augen zu. Deine Welt ist ein dumpfes Schwarz, das von sich bewegenden, geometrischen Formen in Neonfarben unterbrochen wird. Langsam öffnest du deine Augen. Deine Realität wird bunt und laut. Informationen prasseln mit 109 bit/s auf dich ein. Du reduzierst sie erfolgreich auf 102 bit/s. Einatmen. Du reicherst die Informationen auf 107 bit/s durch Assoziationsvorgänge an. Ausatmen. Deine rechte Gehirnhälfte tanzt Tango.
In unseren Städten kann ein Glitch ein Artefakt sein, das ohne Zweck in einer neuen Umgebung verblieben ist. Der Glitch kann auch ein neues Objekt sein. Er kann eine Stimmung sein, ein Verkehrsweg oder eine Nutzung. Der Glitch ist der Protagonist einer Tragikomödie, der Zuschauer braucht. Der Glitch ist der kurze, merkwürdige Moment der Irritation, wenn wir scheitern etwas klar zu referenzieren. Der Glitch kann ein Ding, ein Gebäude, ein Raum, ein Stadtteil, ein System oder ein kompletter Sachverhalt sein. Was als Glitch empfunden wird, ist verschieden und hängt sowohl vom persönlichen Erfahrungsschatz und Wissensstand, als auch vom individuellen Konzept von Normalität und Realität ab.
Überträgt man das Phänomen des Urban Glitch und dessen fremdartige Wirkung auf unsere Wahrnehmung, heißt dies, dass durch objektiv völlig unterschiedliche Reize ähnliche Empfindungen ausgelöst werden. Für den Glitch gibt es kein anderes bekanntes Zeichen, das anstelle des Abbildes unserer Empfindung in unsere Wahrnehmung eingehen kann. Es gilt nun, ein bekanntes Zeichen zu finden und eine Abweichung zwischen Empfindung und Wahrnehmung zu tolerieren, oder ein neues Zeichen zu erschaffen. Beides bindet unsere Empfindung an Gesetzmäßigkeiten und ein bestehendes Ordnungssystem der Wahrnehmung. Der Glitch als Zeichen selbst ermöglicht eine unvoreingenommene Einordnung dieser neuen Eindrücke. Die Benennung als Glitch kennzeichnet eine wahrgenommene Unregelmäßigkeit und rechtfertigt es, diese genauer zu betrachten und zu untersuchen. Die ursprüngliche Verwendung des Wortes Glitch in technischen Disziplinen eröffnet einen neuen Wortschatz, der als Analogie der Beschreibung des Urban Glitch dienlich ist. Auch Untersuchungs- und Planungsmethoden aus anderen Fachbereichen, wie der Softwareentwicklung, können zur Untersuchung eines Glitches herangezogen werden. Dies ermöglicht es, sich mit komplexen oder auch bedrückenden Themen von einem neuen Standpunkt aus auseinanderzusetzen und die gewonnenen Erkenntnisse unbefangen zu kommunizieren.
Der Glitch kam aus der Technik. Du hast ihn gesehen und eingepackt. Wenn du in einer Halluzination lebst, möchtest du so halluzinieren, wie du das willst. In dein Sackerl mit dem Glitch stopfst du neue Wörter und ein paar Werkzeuge, zwei Flowcharts und einen Schuhkarton Fehlermeldungen. Jetzt bist du ziemlich mächtig. Mit den Sachen in deinem Sackerl, kannst du mir ein Stück von deiner Halluzination zeigen. Du kannst auch etwas davon abschneiden und es verteilen.
Du gehst auf die Franz-Josef-Warte, streust die Schachtel Fehlermeldungen über die ganze Stadt aus und schreist: „Künstliche Intelligenz gibt es nicht!“. Dann lachst du laut.
2 Helmholtz, Hermann von. Die Thatsachen in der Wahrnehmung. Rede. Berlin : s.n., 3. August 1878.
3 Seth, Anil K. Spektrum. [Online] 01. Februar 2020. [Zitat vom: 23. Dezember 2021.] https://www.spektrum.de/news/unsere-inneren-universen/1696550.
4 Vester, Frederic. Die Kunst vernetzt zu denken. München : dtv, 2011.
5 Simple heuristics that make us smart. Gigerenzer, G. und Todd, P. M. New York : Oxford University Press, 1999.
6 Weber, Silvana und Knorr, Elena. Die Psychologie des Postfaktischen: Über Fake News, „Lügenpresse“, Clickbait & Co. [Hrsg.] Markus Appel. Berlin : Springer Berlin Heidelberg, 2020. S. 104.
7 The case for motivated reasoning. Kunda, Ziva. 1990, Psychological Bulletin, S. 480-498.
8 Bias in algorithmic filtering and personalization. Bozdag, Engin. 2013, Ethics and Information Technology.
9 Aronson, E., Wilson, T. D. und Akert, R. M. Sozialpsychologie. s.l. : Pearson Education Deutschland, 2008. S. 108.
10 Kaplan, Jerry. Artificial Intelligence: What Everyone Needs to Know. Oxford : Oxford University Press, 2016.
11 Sutton, Richard S. und Barto, Andrew G. Reinforcement Learning: An Introduction. s.l. : A Bradford Book, 2018.
12 Carta, Silvio. Self-Organizing Floor Plans. Harvard Data Science Review. 23. Juli 2021.
13 Architechtures. Parametric Design, Generative Design and AI-Aided Design. . [Online]
14 Canadian Centre for Architecture. [Online] [Zitat vom: 07. Jänner 2022.] https://www.cca.qc.ca/en/archives/464863/rsien-project-records/500303/ive-heard-about-and-hypnosis-chamber.
15 Parisi, Luciana und Portanova, Stamatia. Soft thought (in architecture and choreography). Computational Culture. November 2011.
16 Osogami, Takayuki, et al. Toward simulating entire cities with behavioral models of traffic. Ibm Journal of Research and Development. September 2013.
17 Suzuki, Keisuke, et al. A Deep-Dream Virtual Reality Platform for Studying Altered Perceptual Phenomenology. Scientific Reports. 22. November 2017.
18 Lessa, William A. und Vogt, Evon Z. Reader in Comparative Religion. s.l. : Harper & Row, 1979. S. 234.
19 Aesthetics Wiki. [Online] [Zitat vom: 03. Jänner 2022.] https://aesthetics.fandom.com/wiki/Glitch#Visual.
20 Burgess, Phillip. Adafruit. Generating AI “Art” with VQGAN+CLIP. [Online] 21. Juli 2021. [Zitat vom: 18. November 2021.] https://learn.adafruit.com/generating-ai-art-with-vqgan-clip.
21 Pieschel, Alex. Glitches: A Kind of History. Arcade Review. 08. Dezember 2014