Zusammenfassungen der Beiträge

Jeremy Bernstein. Performance mit Technologie: Max/MSP/Jitter und Echtzeitinteraktion

Jeremy Bernstein führt in die Geschichte von Max/MSP/Jitter ein und demonstriert in einem Live-Coding Konzept und Möglichkeiten des Programms. Anhand von Beispielen zeigt er, wie das Programm in künstlerischen Arbeiten genutzt wird.

Mit Max/MSP/Jitter steht seit Mitte der 1990er Jahre ein Programm zur Verfügung, das unterschiedliche Medien kompatibel macht, indem sie auf Matrizen geführt werden. Damit werden Computer generisch, d.h. sie können unterschiedlichste Medien ansteuern und steuern. Sie gleichen zudem einem Setzkasten bestehend aus Modulen, die unterschiedlich gesteckt und erweitert werden können.

Dominik Busch. Mustermaschine

Dominik Busch beschreibt in seinem Beitrag sein künstlerisches Projekt Mustermaschine. Mit der Programmierung lassen sich dynamische Muster in räumlichen Strukturen erzeugen. Der Benutzer kann Punkte nutzen, aus denen die Programmierung dann auf der Grundlage von geometrischen Funktionen Muster generiert.

Dominik Busch zeigt Formen der analogen Musterbildung in Ornamenten, wie sie in der Alhambra zu finden sind, die seine Arbeit inspirierten. Er erläutert seinen Weg durch verschiedene Programme des Creative Coding, bis er schließlich selbst Java lernte, um ein Programm zu schreiben, dass Muster nach generieren kann.

Louis-Philippe Demers. Performing Robots
ders.: Machine Performers. Neither Agentic nor Automatic

Louis-Philippe Demers skizziert in seiner Präsentation das Zusammenspiel von Anthropomorphisierung und Bewegung. Er verdeutlichte, dass diese Technikgeschichte(n) des Menschen auf Embodiment hinauslaufe. Damit würden Analogisierungen von Mensch und Technik in der Neuen KI von Strukturen und Evolutionen künstlicher Intelligenzen abgelöst.

Demers Erzählung beginnt mit einem Rückblick auf die Bedingungen der Anthropomorphisierung von technischen Objekten. Ausschlagend dafür sei, so Demers, die Bewegung der Maschine. Als „menschlich“ und damit als belebt erscheine sie allerdings erst, wenn der Betrachter den automatischen Bewegungen Intentionen unterstelle. Neben der phänomenologischen Ebene interessiert sich Demers für die wahrnehmungstheoretischen Grundlagen der Anthropomorphisierung. Demnach beruhe die Zuordnung, was „Mensch“ und was „Maschine“ seien, einerseits durchaus auf angeborenen Fähigkeiten, z. B. der Mustererkennung der spezifischen Bewegungsweise der menschlichen Spezies. Andererseits wären diese Zuordnungen immer auch kulturell und technisch bedingt. Somit wäre der Automat als solcher gar nicht zugänglich, sondern immer nur seine Inszenierung. Die Agency der Objekte findet nur dann statt, wenn der Mensch etwas dazu tut. Schließlich bringt Demers eine medienpsychologische Bedingung der Anthropomorphisierung ins Spiel. Entscheidend für sie sei nämlich, wie ähnlich der Roboter Menschlichem sei.

In diesem Zusammenhang beschrieb der Robotik-Ingenieur Masahiro Mori unter dem Begriff Uncanny Valley in den 1970er Jahren das Phänomen, dass Roboter dem Menschen umso unheimlicher werden, sie je mehr sie ihm ähnlich sind. Vor allem wenn sie bei großer Ähnlichkeit von der Norm abweichende Verhaltenweisen annähmen, würden sie Unbehagen auslösen und die Bereitschaft zur Identifikation und Interaktion mit ihnen sinke erheblich. Eine Zäsur markieren nach Demers seine jüngsten Arbeiten mit den Robotern Tiller Girls. Dies wird verständlich, wenn deren Herkunft und Epistemologie entfaltet werden. Die Roboter entstammen der so genannten New Artificial Intelligence mit der an die Stelle der Anthropomorphisierung eine Sicht auf Mensch und Technik als künstliche Intelligenz und Physis rückt. Es geht um eine verkörperte Existenz immer nur künstlicher, durch Embodiment und Situiertheit in der Umwelt gleichsam gebastelter Intelligenz, womit Existenz etwas Zufälliges erhält und zu selbstbezüglicher Emergenz tendiert.

Hans-Christian von Herrmann. Künstliche Kunst. Digitale Ästhetik 1960/2010

Hans-Christian von Herrmann zeichnet in seinem Beitrag die Geschichte digitaler Kunst seit den 1960er Jahren nach. Er unterscheidet ein morphologische, auf Musterbildung bezogene Interesse von einem kommunikationstheoretischen oder interaktiven im Umgang mit Technik, bei dem z. B. die visuellen Erscheinungen auf medialen Oberflächen als Metaphern menschlicher Aktion aufgenommen und lesbar gemacht würden. Mit der morphologischen, digitalen Kunst entstehe, wie von Max Bense formuliert, eine „künstliche Kunst“, die auf der Grundlage algorithmischer Strenge wie Natur Muster erzeugt. Es handelt sich allerdings nicht um Abbildungen der Muster der Natur, sondern um künstliche Muster, die in der Eigentätigkeit ihres Entstehens nicht unkontrollierbar sind, Emergenz erzeugen. Morphologische Kunst setze an die Stelle des Werkes die Ermöglichung des Prozesses, des Werdens und Wachstums. Denn es zähle nicht mehr: „die materielle Erscheinung, sondern die formale Beschreibung des Prozesses seiner Hervorbringung.“ Diese Praxis hat epistemische Auswirkungen, wenn von Hermann formuliert: „Benses Interesse galt allerdings in erster Linie dem ‚denaturierten’ Charakter der computergenerierten Artefakte. ‚Künstliche Kunst’, mit anderen Worten, reflektiert die konstitutive Künstlichkeit des modernen Weltbezugs.“ Da die mathematischen Operationen im Zusammenspiel mit algorithmisch gesteuertem Zufall den Prozess generieren, kann Mensch nicht mehr als Urheber von Kunst gelten.

Hans-Christian von Herrmann kommt zu einer prägnanten These. Er führt die Genese der digitalen Kunst nicht auf einen technischen, sondern auf einen ideen- oder wissensgeschichtlichen Kontext zurück. Denn sie komme nicht mit den Möglichkeiten des Computers auf, sondern in Korrespondenz mit der konkreten Kunst, in der ebenso wie in der digitalen Kunst die Ermöglichung generativer Musterbildung angestrebt wurde. Von Herrmann sagt: „Vielmehr findet in der digitalen Kunst eine lange Mediengeschichte der Kunst ihre Fortsetzung, so dass viel eher zu fragen wäre, was mit dem Computer in dem Moment geschieht, in dem die Kunst ihn als ein neues Medium entdeckt.“ Diese Konzeptualisierung von Kunst setze sich heute in einer Software fort, die nicht von ungefähr „Processing“ heißt. Für die beiden Erfinder, die Künstler Casey Reas und John F. Simon, sind Entwicklung und Programmierung von Algorithmen, mithin Schreiben von Software, der künstlerische Vorgang. Entstehen sollen Projekte, die eigentätig Muster generieren, die weder vorhersehbar, noch kontrollierbar sind.

Hans-Christian von Herrmann. Zum Ende des kinematografischen Dispositivs in „Avatar“. Kommentar zum Vortrag von Irina Kaldrack

Die medienarchäologische Perspektive auf Avatar zeigt, wie Hans-Christian von Herrmann in der Diskussion formuliert, dass der Film aus Daten zugleich das Ende theatraler Einfühlung sowie der anthropologischen Narration des Kinos ist. Damit breite sich eine „Kunst der Daten“ in Theater und Kino aus. An die Stelle der anthropologischen Darstellung setze sich eine Affirmation des Technischen. Menschliche Schauspieler performen Daten, Apparate und Formate und bezeichnen dies unbedacht als einen Sieg theatraler Einfühlung über Technik.

Diese Verabschiedung des Anthropologischen ließe sich aus der Bewegungsforschung erklären. Diese konstituiere sich nämlich aus zwei Strängen, der Berechnung von Bewegung und der Aufzeichnung von Bewegung. Die Berechnung von Bewegung wurde lanciert von den Gebrüder Weber, die das menschliche Gehen als Gehmaschine ansahen. Sie meinten, Formeln von Bewegung erstellen zu können, mit denen Gehbewegungen künstlich generiert werden könnten, womit sie am Beginn der Robotik standen. Im kinematografischen Dispositiv, wie etwa bei Marey, geschieht dagegen eine Aufzeichnung von Bewegung, die sich in Kurven vollzieht. Sie konstituieren sich als reine Kontingenz, da die Kurven sind nicht mehr berechenbar sind und also nicht in mathematische Formeln überführt werden. Dies zeige sich an der arbeitswissenschaftlichen Bewegungsforschung von Frank Bunker Gilbreth, der die entstandenen Bewegungskurven nicht berechnen, sondern nur analoge Bahnen beschreiben konnte.

In Avatar kämen nun beide Geschichten zusammen, Kontingenz verbinde sich mit Generierung, Robotik mit Aufzeichnung. Dieser Moment der Zusammenkunft entspräche zugleich der Überschreitung des kinematografischen Paradigmas. Der Eindruck der Schauspieler des Films, dass sie auf einer Thespis-Bühne stünden, in der sie sich in die virtuellen Welten einfühlen, sei eine völlige Verkennung der Situation. Denn es handle sich um ein reines Agencement in der Interaktion mit technischen Objekten. In Avatar würden dann auch keine Emotionen verhandelt, denn es geht nicht um Handlungen sondern um reine Bewegungsabläufe. Es kommt zu einem technischen Emotionsbegriff, der mit der Sozialisation zum Erkennen von Emotionen in Mimik und Gestik nichts zu tun hat, sondern für eine höchste Affirmation des Technischen steht. Am besten sei Avatar beschreibbar als eine reine Testumgebung, in der auch die kleinsten und feinsten Bewegungen verzeichnet würden, um von einem Computer weiter verarbeitet zu werden. Der Zuschauer partizipiere also an einem Testverfahren, das nichts mehr mit Einfühlung oder Innerlichkeit zu tun habe, sondern nur noch mit einem rein äußerlichen Blick auf die Bewegungen des Körpers. In diesem Dispositiv des Tests lösen sich sowohl Kino als auch Theater auf, da es keine Interaktion des Schauspielers mehr gäbe. Diese Techno-Theatralität sei wohl die radikalste Form der Entfremdung und eben nicht Nachweis einer neuen Innerlichkeit. Mensch würde hier in der Tat vom Akteur zum Datengeber einer Kunst der Daten.

Ulf Heuner. Theater und Interaktion

Ulf Heuner las beim Symposium aus seinem Buch „Wer herrscht in Theater und Fernsehen“.

„Im modernen Guckkastentheater mit seiner erleuchteten Bühne gegenüber dem abgedunkelten Zuschauerraum beherrscht – allen Klagen über den passiven, willenlosen Zuschauer zum Trotz – dieser den Schauspieler. Texte über Macht und Herrschaft scheinen ja ohne Rückgriff auf Michel Foucault nicht mehr möglich, hier soll allerdings, in gewissem Sinne anti-foucaultianisch, Foucault kurz auf den Kopf gestellt werden, um ihn dann schnell hinter sich zu lassen. Denn im Guckkastentheater liegt eine Verkehrung des von Jeremy Bentham konzipierten und von Michel Foucault analysierten panoptischen Gefängnisprinzips vor, demzufolge ein Einzelner im Zentrum sieht, ohne gesehen zu werden, während viele in der Peripherie gesehen werden, ohne selbst zu sehen, und somit der Kontrolle unterworfen sind. Im Guckkastentheater zeigt sich dagegen folgende Struktur: Die vielen Zuschauer im abgedunkelten Zuschauerraum sehen, ohne gesehen zu werden, und die wenigen Schauspieler auf der erleuchteten Bühne werden gesehen, ohne die Zuschauer sehen zu können. Das bürgerliche Theater macht den Zuschauer somit zum Herrscher, der den Schauspieler im Blickfokus beherrscht. … Das bürgerliche Subjekt möchte sehen und nicht gesehen werden, und es möchte ungestört sein; es möchte genießen und herrschen, bis heute. Wenn man jedoch vor einem gemeinsamen Besuch einer Aufführung häufig von Begleitern die Frage hört, ob man da Angst haben müsse, auf die Bühne gezerrt zu werden, zeigt das an, dass sich der Zuschauer auch in den Stadt- und Staatstheatern seiner Dominanz schon lange nicht mehr sicher sein kann. Denn sämtliche Theater(r)evolutionen von der Historischen Avantgarde über die Happenings, Performances bis zum sogenannten ‚postdramatischen Theater’ waren weniger der Versuch, den Zuschauer zu emanzipieren, als ihn zu unterwerfen, die Herrschaft zu erlangen.“ Georg Hobmeier. Remote Control Models

In seiner Lecture beim Cyberlab schloss sich Georg Hobmeier über Elektroden an Gesicht und Extremitäten an Stromstöße an, so dass das Vortragen von Texten sowie eine kontrollierte Mimik und Gestik gestört wurden. Ihm geht es in seinen Erfahrungen mit Elektrizität darum, nicht kontrollierbare körperliche Zustände zu erreichen. Dies sei essentiell, da dieses „remote control model“ die Möglichkeit böte, ästhetische Innovationen hervorzubringen.

Georg Hobmeier verdeutlicht dieses ästhetische Credo an seinen Arbeiten. Von besonderem Interesse ist dabei für ihn zum einen die Geschichte animistischer Belebungen von Dingen sowie von deren Besetzung mit paraphysikalischen Erscheinungen.

Erich Hörl. Objektströme. Über die artefaktische Situation der Gegenwart

Erich Hörl entfaltet einen wissensgeschichtlichen und medienhistorischen Kontext, der Genese und derzeitige Konjunktur der ANT verständlich machen könnte. Ihm geht es um eine „objektgeschichtliche Zäsur“ seit den 1950er Jahren, in der eine Krise der Intentionalität des Subjektes und die Ausstattung von Dingen mit Agency wechselwirkten. In dieser Rekonstruktion erscheint ANT als ein Theoriegebäude, mit dem eine Krise aufgefangen werden soll, indem die Beschreibung der Konstitution von Kultur und Gesellschaft neu orientiert und im wissenschaftlichen Diskurs erprobt wird.

Ausgangspunkt sind für Hörl u. a. die 2005 von Bruce Sterling beschriebene Entwicklungsgeschichte intelligenter Dinge, die eigentätig operieren und doch den Menschen nicht mehr in Ruhe lassen. Mensch würde also in ein technisches In-der-Welt-Sein involviert. Mit dieser Agency der Objekte, die Mensch und Sinn „entwerken“, kämen neue Weisen der Beschreibung des Zugangs zur Welt sowie von Erkenntnis auf. Das Metamorphotische, der Prozess und das Werden zögen als neue ontologische Orientierung herauf, was einer „technologischen Sinnverschiebung“ entspräche. Mit ihr verlagert sich die Konstitution von Sinn in den „intelligenten“ technischen Welten. Sinn als Manifestation von Bedeutung in einem semiotischen Prozess würde abgelöst von der Begegnung a-signifikanter Assemblagen (Gefügen) und sich selbst genügender Modellen, die in einer Welt des unausgesetzten, nur noch selbstbezüglichen Operierens existieren.

Werden die objektgeschichtliche Zäsur und Krise erscheint als eine Reaktion auf die Entfesselung der Objekte ein Neo-Animismus. Dieser Anschluss der animierten Umwelt an die Wissensgeschichte der animistischen Faszination durch Technik sei ein Hinweis darauf, dass das Gespenstische technischer Entwicklungen und Zäsuren mit animistischen Theorien und Praxen beantwortet und kompensiert werde.

Irina Kaldrack. Motion Capture. Zwischen imaginierter Wirksamkeit und Formalisierung

Irina Kaldrack beschäftigt sich in ihrem Beitrag mit über Motion Capture gewonnene „Figuren“ der Schauspieler im Film Avatar. Sie schließen aus mediengeschichtlicher Sicht an die apparatetechnisch situierte und formalisierte Bewegungsforschung seit Mitte des 19. Jahrhunderts an, in der weniger der Mensch als vielmehr die Darstellungsmöglichkeiten technischer Apparate vermessen wurden. Der Rückschluss der künstlichen Bewegungen auf den Menschen gelänge hier mit Hilfe diskursiver Maßnahmen sowie geradezu paraphysikalischen Inszenierungen im Theater, mit denen die Zuschauer gleichsam hypnotisiert und in eine psychedelische Resonanz mit Performern und Apparaten versetzt würden.

Irina Kaldrack skizziert die Mediengeschichte dieser Kopplungen. Mit den Gebrüder Weber wäre ab 1836 ein Paradigma begründet worden, nämlich der Dreischritt von Messung, Berechnung und Darstellung von Bewegung. Mit ihm würde diskursiv behauptet, dass die Darstellung eine nicht-bewusste und unsichtbare Wahrheit der Bewegung wiedergeben würde. So wäre z. B. mit Mareys technischer Aufrüstung Bewegung vom sichtbaren Körper abstrahiert worden. Durch die am Körper angebrachten Lichtpunkte entsteht nur mehr ein Bewegungsgraph. Behauptet wurde aber, dass in dieser Abstraktion sowie mit Hilfe der Technik des Kinematographen sich die Wahrheit der Körperbewegung selbst ins Bild bringe. Denn Formalisierung und Medientechnik versprächen, eine überindividuelle Wahrheit der Bewegung zu erfassen. Das Unberechenbare käme nun da ins Spiel, wo z. B. im Tanz sowie in der neurophysiologischen Forschung um 1900 mit Hilfe hysterischer Frauen Bewegung als Medium einer nicht-kontrollierbaren Erregungsübertragung entworfen und praktiziert wurden. Vor allem in Loïe Fullers Lichttänzen, die Körper und Raum auflösen in ein Environment von Schwingungen und Verwandlungen, wurde dieser Diskurs der Übertragung des Unberechenbaren ästhetisiert. Denn die Lichtstrahlen sollten als Art Gedankenübertragung bzw. Erregungsübertragung dienen.

Der Film Avatar wäre aus dieser Geschichte der Bewegungsforschung zu rekonstruieren. Damit würde eine Tradition fortgesetzt, in der ausgerechnet mit Formalisierung und Bewegungsmessung das Nicht-Formalisierbare, d. h. das Unberechenbare, Unvorhersehbare und Unkontrollierbare erfasst und wahrnehmbar gemacht werden soll.

Christian Kassung und Claus Pias. Genesen und Grenzen der Akteurnetzwerktheorie

Claus Pias und Christian Kassung unternehmen in einem Gespräch Annäherungen an die Genese der ANT aus Technik- und Wissensgeschichte. Dabei wird zunächst deutlich, dass sie nur bedingt als genuine, neue Theorie gelten kann, die Welt komplexer beschreibbar macht. Christian Kassung konstatiert vielmehr, dass das von der ANT stark gemachte Dreieck: „Mensch – Technik – Kultur“ schon lange vor der ANT als maßgeblich für die Organisation von Gesellschaft sowie von Erkennen angesehen wurde.

Claus Pias skizziert zwei Bereiche der Technik- und Wissensgeschichte der ANT. Sie sei wegen ihres antihumanen Gestus (1) ohne die Geschichte der Kybernetik nicht denkbar. Denn in der Kybernetik wäre in den 1940er Jahren die Idee, Menschen als Aktanten zu sehen, da vorgedacht worden, wo Mensch und Maschine von Norbert Wiener in Communication and Control als informationsverarbeitende Systeme gleichgesetzt wurden. Geschichte und Epistemologie der Modellierung und Simulation komplexer und dynamischer Systeme bilden nach Pias (2) den entscheidenden medienhistorischen Kontext, der Denkfiguren der ANT vorbereitet bzw. wird Simulation durch die ANT in die Geistes- und Sozialwissenschaften übertragen. Claus Pias spitzt seine These dahingehend zu, dass Vokabular und Denkfiguren der ANT aus der prototypischen objektorientierten Programmierung und agentenbasierten Modellierung der Informatik der späten 1960er Jahre kämen.

Christian Kassung skizziert die epistemische Zäsur der Quantenmechanik als eine mögliche Genese von zentralen Denkfiguren der ANT. Denn mit der Quantenmechanik würde die tradierte Trennung von Subjekt und Objekt verunmöglicht, da der Beobachter mit seinem Tun in das Beobachtete eingreife und also eine Gefüge von Agierenden entstehe. Diese Wende vollziehe sich zwar um 1900, sie scheine aber erst in den 1960er Jahren als Schockwirkung in den Blick zu geraten und gegebenenfalls als solche bis heute virulent zu sein und sich u. a. in der ANT niederzuschlagen.

Methodische Probleme ANT schränken die Leistungsfähigkeit der ANT bezogen auf die Analyse sozio-techno-kultureller Netzwerke ein, so Pias und Kassung. So setzte Latour an die Stelle der Analyse die möglichst genaue und konkrete Beschreibung der Agentensysteme.

Dieses methodologische Dilemma setzt sich laut Christian Kassung fort in Latours ahistorischem und materialistischem Technikbegriff. Technik sei aber keine monolithische Entität und mit einem Fortschrittsmodell zu erfassen. Vielmehr sei sie komplex zusammengesetzt und entwickle sich diskontinuierlich aus kontingenten Konstellationen. Wie wenig Latour die Kontingenz von Technik im Blick habe, zeige sich an seiner Auffassung von Technik als Blackboxing.

Überzeugend sei die ANT da, so Christian Kassung, wo sie die Vermittlung zwischen Dingen und Zeichen beschreibe. Er widerspricht der oft geäußerten Annahme, dass Latour den Dingen in dem Maße Agency zuspreche, dass ihnen ein einem Subjekt vergleichbarer Eigensinn zugesprochen und Mensch im Wechselspiel damit als Subjekt grundlegend in Frage gestellt würde. Vielmehr sei Latour überzeugend in der Beschreibung der Momente und Konstellationen, in denen ein Dinge in eine symbolische Ordnung fällt, etwa wenn der Berliner Schlüssel zur Disziplinierungsmaßnahme wird, zur symbolischen Gewalt, mit der es gelingt, dass die Eingangstüren der Häuser verschlossen sind.

Martina Leeker. Theater und Medien 1900/1960/2000. Verspätungen, Reminiszenzen und Ambivalenzen

Im Beitrag werden Weisen der Bezugnahmen von Menschen und Technik vorgestellt, die in Theater und Performance mit ihnen entworfen und praktiziert werden. Diese sind beispielhaft dafür, wie Menschen versuchen, Technik zu deuten und sich in ihr und mit ihr zu verorten. Es rückt mithin neben technischen Materialitäten der Umgang mit Medien und Technik in den Fokus und die Frage, wie dieser an deren Konstitution mit beteiligt ist.

Der Umgang mit Technologien in Theater und Performance wird mit den Beschreibungen menschliche und künstliche Kunst klassifiziert. Sie rufen seit dem ausgehenden 19. Jahrhundert zwei epistemologische Kontexte auf. Es geht (1) um eine Weise der Interaktion mit Medien, die diese als Extensionen, d.h. Organprojektionen und damit als Erweiterungen/Prothesen des Menschen ansieht. Mit dieser Sicht werden Schnittstellen zwischen Menschen und Technologie behauptet sowie eine technische Kompatibilität von Mensch und Technik diskursiv hergestellt. Theater erfindet um 1900 in dieser Situation ein spiritistisches Resonanz- und Schwingungsparadigma. Beispielhaft dafür sind die Lichtfarbentänze mit überlebensgroßen Tüchern von Loïe Fuller. Die Lichtfarbentänze sollten über elektromagnetische Schwingungen auf die Zuschauer einwirken, ihre Gedanken und Stimmungen beeinflussen. Derart stellte die Loïe Fuller einen Bezug zwischen elektrischem Feedback in Performances, technischen Medien und spiritistischen Vorstellungen ihrer Zeit her. Dieses Schwingungs- und Resonanzparadigma tauchte schließlich in den Performances der 9 Evenings, Theatre and Engineering in den 1960er Jahren im Kontext von Kybernetik und Computertechnik wieder auf. Mit der okkulten Reminiszenz kann in den 1960er Jahren der Computer als informationsverarbeitende Maschine camoufliert und als elektrisches Medium umgedeutet werden. Erst auf dieser Grundlage kann die Kommunikation zwischen Computer und Mensch im Elektromagnetischen realisiert werden, die auf Grund der nötigen Analog/Digital-Wandlung unmöglich ist.

Im epistemologischen Kontext der „künstlichen Kunst“, in der Maschinen Kunstwerke machen sollen, kommt es dagegen zu einer Entdifferenzierung von Menschen und Technologie. Beide werden gleichermaßen als symbol- oder informationsverarbeitende Systeme angesehen und folglich wird auch ästhetisches Tun als statistisch und informations-mathematisch erfassbar und operationalisierbar gesehen und realisiert. Mit der „künstlichen Kunst“ werden komplexe Vernetzungen, Kontingenz und Emergenz zu verheißungsvollen neuen Denk- und Existenzweisen.

Klaus Obermaier. Interaktive Performances. Apparition und Le Sacre du Printemps

Klaus Obermaiers Theater berichtet in seiner Präsentation über seine Theaterarbeit mit Medien. Er entwickelt sie am Umgang mit Interaktion mit Projektionen. In Apparition (2004) interagieren die Tänzer mit Projektion. Ein anderes Format ist, dass datentechnisch erzeugte Bilder auf die Körper der Performer projiziert werden, sie diese gleichsam mit ihren Körpern animieren und dabei untrennbar mit ihnen verschmelzen. Die Körper- Projektionen kamen in D.A.V.E (1998) und Vivisector (2001) zum Einsatz. Während in D.A.V.E die Körper der Tänzer immer als Projektionsoberfläche sichtbar sind, durch diese aber erweitert werden, verschwimmen in Vivisector Körper und Projektion, so dass sie nicht mehr unterscheidbar sind. In seiner Produktion Sacre du Printemps (2006) kreiert Klaus Obermaier schließlich ein anderes Setting. Hier wird nicht mehr auf den Körper projiziert, sondern vielmehr der Körper der Tänzerin in virtueller Form in die Projektion integriert.

St. Pöltener Gespräche 1. Software-Wissen und die Grenzen der ANT

Mit: Alexander Firyn, Hans-Christian von Herrmann, Erich Hörl, Christian Kassung, Florian Kuhlmann, Claus Pias, Stefan Pinczolits. Moderation: Irina Kaldrack und Martina Leeker

In der Diskussion wird die Wissens- und Technikgeschichte der ANT mit der zeitgenössischen Konstitution des Programmierens zusammen gedacht, das einer Formatierung von Welt in mobilen und multifunktionalen, aber in Teilen vom Nutzer nicht kontrollierbaren und programmierbaren Modulen entspricht. Es entsteht ein Regelwerk, mit dem künstliche, selbstbezügliche Ordnungen hergestellt werden können.

Ausgangspunkt der diskurskritischen Analyse ist, dass in modularen Programmen symbolisches Operieren als Programmieren durch das Manipulieren von „Dingen“ auf Oberflächen abgelöst wird. In der Manipulation zeige sich der zutiefst ästhetische Charakter dieser Art des Programmierens. Es entstehe ein poietischer Raum, in dem Dinge komponiert würden und deren Mannigfaltigkeit zugleich industriell ausgebeutet werde. In eben diesem Operieren von dinglichen Mannigfaltigkeiten - z. B. der Module in Programmen oder der Apps auf dem iPhone – in einem durchorganisierten industriellen Komplex liege die Bürokratisierung und Industrialisierung von Software begründet. Programmieren als Formatieren von Welt zerfalle damit in das Sammeln, Kombinieren und Rekominieren sich selbst genügender und einen Nutzer gar nicht mehr unbedingt adressierender kleiner Tools.

Diese Konstitution habe tief greifende Auswirkungen auf das, was als Erkenntnis angesehen und praktiziert wird. Die epistemische Message dieser Art des Programmierens, ihr Wissen, sei nämlich, dass mit dieser Kulturtechnik Welt nicht mehr theoretisch durchdrungen, sondern nur noch, so Erich Hörl, beschrieben werden könne. Es entsteht, so ließe sich zugespitzt formulieren, ein Epistem des Beschreibens, das zudem einer Technologisierung von Erkenntnis im Kontext umfänglicher Computerisierung entspricht. Verabschiedet werde, so Claus Pias, Erich Hörl und Christian Kassung, die Epistemologie der theoretischen Erfassung und Analyse, wie sie Wissenschaft und Technik bis weit ins 20. Jahrhundert hinein konstituierten. Auch in der computergestützten Modellierung und Simulation setze sich das Epistem des Beschreibens durch. Denn ihnen lägen, wie vor allem Claus Pias betont, weder theoretische Modelle oder Aussagen über eine reale Physikalität zu Grunde, noch würden solche generiert. Vielmehr zähle allein die selbstbezügliche Richtigkeit der Operationen im Modell, die sich an dessen Funktionstüchtigkeit zeige. Damit würde Wissenschaft in eine beschreibende Verhaltenswissenschaft transformiert.

Dieses Epistem der Beschreibung verbreite sich, so Alexander Firyn, umfänglich, da es sich nicht nur auf wissenschaftlicher Ebene entfaltet, sondern über Software in Wirtschaft, Industrie, Produktion, Unterhaltung, Design und Kunst Einzug hält. Wie Alexander Firyn und Hans-Christian von Herrmann ausführen, schlägt diese Vormacht des Beschreibens auch auf die Kunst durch. Statt Kreativität und Authentizität werden Kombinationen und Rekombinationen von kleinmoduligen Plagiaten und Formaten zum Material der Kreation, was sich, so Alexander Firyn, am Skandal um Helene Hegemanns Roman Axolotl Roadkill zeige. Kunst, Kreativität, Identität und Gestaltung konstituieren sich als Optimierung der Kombination vorgefertigter Teile.

St. Pöltener Gespräche 2. Zäsuren. Von der Beobachtung der Kunst in Zeiten entfesselter Objekte

Mit: Dominik Busch, Louis-Philippe Demers, Alexander Firyn, Hans-Christian von Herrmann, Georg Hobmeier, Erich Hörl, Christian Kassung, Claus Pias, Victor Morales

Im Zentrum der Diskussion der Künstler beim Symposium des Cyberlab steht die Auseinandersetzung mit Wahrnehmung, dem Zusammenspiel von Kontrolle und Emergenz, Assemblagen sowie Embodiment in der Medienkunst.

Die Bearbeitung der Wahrnehmung sahen die Künstler als Zentrum ihrer Arbeit an. Es ginge vor allem darum, so alle an der Diskussion beteiligten Künstler, die eigene Wahrnehmung sowie die der Betrachter so in Szene zu setzen, dass sie verunsichert wird und sich neue Weisen der Wahrnehmung erschließen. Louis-Philippe Demers spricht davon, dass Kunst mit Lockmitteln arbeite, die die Wahrnehmung illusionieren würden, um sie dann wieder zu ent-täuschen. Victor Morales geht es vor allem darum, dass Technik auf Grund ihrer Störanfälligkeit und Eigenwilligkeit den Eindruck vermittelt, dass mehr da ist als das, was gerade sichtbar ist oder funktioniert.

Ein weiteres wichtiges Anliegen der künstlerischen Arbeit ist, Emergenz zu ermöglichen. So beschreibt Dominik Busch seine Arbeit mit der Mustermaschine als ein Tun, das nicht auf einem umfänglichen Verstehen der Prozesse oder deren Kontrolle gründe, da sie nicht vorhersagbar seien. Es ginge nicht darum, mit Formalisierungen Welt zu verstehen, sondern mit technischen Optionen spielerisch zu experimentieren. Der Eindruck der Unvorhersagbarkeit ergebe sich, so Jeremy Bernstein, aus der technischen Verfasstheit. Technische Welten könnten nicht mehr analytisch durchdrungen, sondern nur noch in ihren Effekten beschrieben werden. Erich Hörl betont, dass damit theoretische Durchdringung zum Beschreiben von Verhalten aufgelöst würde.

Schließlich reflektiert Louis-Philippe Demers Theorie und Praxis des Embodiment. Mit Embodiment entstünden technische Dinge, die keine symbolische Repräsentation mehr aufweisen, sondern eine radikale Art des Existierens im konkret-dinglichen Sein. Erich Hörl führt aus, dass es in der technischen Umwelt so zu einer radikalen Form der Agency mit der Umwelt komme, da Agenten nicht mehr vom technischen Milieu getrennt werden könnten.

Georg Hobmeier plädierte für eine Rückbesinnung auf die Verantwortung des Künstlers im Umgang mit Medien. Er erinnerte an die Verankerung von Kunst in Operation Research, d. h. in der militärisch kontexualisierten Planungs- und Ablaufanalyse. So gäbe es genügend Beispiele dafür, dass Künstler in den 1950er Jahren in einer Grauzone bestehend aus Militär, Nachrichtentechnik und Psychologie zum Militär überliefen und an menschlich- technischen Servomechanismen mitarbeiteten.