Beiträge:

  1. Martina Leeker:
    Daten und Kunst

Martina Leeker:
DATEN UND  KUNST

Kapitel

  1. Überblick. Digitale Kunst und Ende des Menschen-Theaters
  2. Digitale Kunst als künstliche Musterbildung (Hans-Christian von Herrmann)
  3. Von der Digitalen Kunst zum Creative Coding. Vom symbolischen Operieren zum Re-Mixen von Modulen
  4. Max/MSP/Jitter (Jeremy Bernstein) – Processing. Oberflächen des Mediums
  5. Rekonfiguration der Kulturtechnik Programmieren. Vom Agencement der Dinge
  6. Bewegungsforschung, oder wie Apparate, Daten und Vermessene zusammenkommen (Irina Kaldrack)
  7. Vom Ende theatraler Einfühlung in der Kunst der Daten. Ein Kommentar von Hans-Christian von Herrmann
  8. Mustermaschine (Dominik Busch). Wie Kunst zur Kritik an der Industrialisierung digitaler Musterbildung werden kann
  9. Mustermaschinen-Plagiatoren. Ästhetik der neuen digitalen Kunst

Überblick. Digitale Kunst und Ende des Menschen-Theaters

Dominik Busch hat eine „Mustermaschine“ (seit 2006) programmiert, die nach Eingabe des Nutzers nach algorithmischen Vorgaben selbsttätig Muster generiert. Im der Arbeit von Dominik Busch gewidmeten Kapitel geht es also um Kunst, die nicht mehr (nur) von Menschen gemacht ist, sondern von Computerprogrammen automatisch hergestellt wird. Diese Praxis sowie deren Epistemologie sind für eine Auseinandersetzung mit der ANT anhand der Beobachtung von Kunst von allergrößtem Interesse. Denn hier wird technischen Objekten Agency zugestanden, womit sich auch die Positionierung des Menschen zur Technik grundlegend ändert. Es steht in Frage, ob diese Kunst der Daten mit dem Gedankengebäude der ANT beschreibbar ist.

Es wird sich zeigen, dass die ANT von der Kunst der Daten da überschritten wird, wo in der Ermächtigung der technischen Dinge menschliche Subjekte virtuell, auf jeden Fall aber als Aktanten und Initiatoren, als die sie in den Aktantennetzwerken wichtig wären, eher uninteressant werden. Damit vollzieht sich in dieser Kunst eine technische Sinnverschiebung hin zu einem Agencement von a-signifikanten Handlungsketten und technischen Performanzen. Vor diesem Hintergrund ist die Kunst der Daten (1) eher als Zuspitzung der von Erich Hörl beschriebenen objektgeschichtlichen Zäsur zu sehen, die die ANT diskursiv beschönigt. Denn in der ANT wird die Virtualisierung menschlicher Nutzer dadurch unterlaufen, dass unterschiedliche Aktanten gleichberechtigt und bezogen auf ein übergeordnetes Ziel in einem Netzwerk verbunden sind und tätig werden. Dass die Kunst der Daten dagegen in Fortsetzung der objektgeschichtlichen Zäsur dem Menschen wenig Bedeutung zukommen lässt, erhellt sich durch die Rekonstruktion ihrer Genese aus der Informationsästhetik Max Benses (Hans- Christian von Herrmann). Mit ihr entsteht, so Bense in den 1960er Jahren, eine „künstlicher Kunst“, die nichts mehr mit tradierten Vorstellungen vom menschlichen, schöpferischen Genie gemein hat. In der künstlichen Kunst werden vielmehr Wahrnehmung und Denken informations-mathematisch grundiert und damit gleichsam „ent-menschlicht“, auf jeden Fall ent-subjektiviert, wenn sie mit den technisch-mathematischen Operationen der digitalen Kunst gleichgesetzt werden. Dass die digitale Kunst Denkfiguren der ANT überschreitet bzw. die ANT durch sie als beschönigender Diskurs lesbar wird, hängt zudem (2) aufs Engste mit der Nutzung von Programmen des Creative Coding (Jeremy Bernstein) zusammen. Diese gehören zur modularen Software, die u. a. die durch aktuelle technische Entwicklungen entstehende tendenzielle Virtualisierung der Nutzer bedingen. In der Kunst zeigt sich dies in der Priorisierung des Generativen. In dieser Selbstorganisation assemblierbarer Versatzstücke werden potentielle Zugriffe des Künstlers vom Agencement der datentechnischen Formalisierungen und Übersetzungen unterminiert. Kunst und Software vermitteln so die Botschaft von der Unvorhersehbarkeit der Existenz in der Emergenz technischer Operationen. Mit Blick auf die Mustermaschine, die zugleich entschieden auf die Eingriffe der Nutzer konzipiert ist, bleibt ein ambivalentes Gefüge. In diesem hat sich Mensch von seiner Kopplung an Technik gelöst, so dass er sich nicht mehr über sie definiert. Zugleich setzt aber in der Kunst der Daten sowie der Programmierung seine Virtualisierung ein, wenn er nicht mehr auf einer basalen Ebene in sie eingreifen kann.

Die Rekonstruktion und die Kontextualisierung der Kunst der Daten wird in diesem Kapitel von der Computergrafik und Konzeptkunst der 1960er Jahre über die Programme des Creative Coding seit Ende der 1990er Jahre (Max/MSP/Jitter und Processing) bis hin zum Ende von Einfühlung und Innerlichkeit im bewegungs- und darstellungstechnischen Test-Setting des Films Avatar (Irina Kaldrack, Hans-Christian von Herrmann) reichen. Insbesondere dieser Ausblick auf den Film zeigt die Relevanz der technischen und diskursiven Veränderungen. Digitale Kunst erobert nämlich nunmehr auch traditionell an den Menschen gebundene Bereiche wie Kino und Theater und überzieht sie mit einer computerisierten Ästhetik. Die Kunst der Daten erzeugt ihre eigenen rekursiven Welten, denen der menschliche Akteur vielleicht noch als Datengeber dienen darf. In dieser Entfaltung des Feldes der Kunst der Daten zeigt sich allerdings auch, dass sie nicht als Automatisierung abgetan werden kann. Vielmehr geht es seit den 1960er Jahren um eine Automatisierung zum Zwecke des Einbruchs des Unberechenbaren, der Störung, des Zufalls, des Emergenten. In der Kopplung von Automatisierung und Entautomatisierung zeigt sich allerdings, dass die Einbrüche Letzterer als Selbstbezüglichkeit vorkommen, als Verschiebungen in einer a-signifikanten Kette, denen kein Bewusstsein mehr zur Seite steht. Denn der Mensch hat sich ob der Generativität der digitalen Kunst zurückgezogen, ist wie in Avatar zum Datengeber degradiert und hat dabei das Theatrale als Ort des Anthropologischen verloren.

Da sich die Zusammenstellung der Beiträge sowie die hier vorgeschlagene Spannbreite des Feldes Digitaler Kunst erst aus der wissens- und technikgeschichtlichen Kontextualisierung als eine Zusammengehörigkeit erschließen, ist der Lektürevorschlag zum Kapitel unter Berücksichtigung von Zäsuren, Modifikationen, Kontingenzen und Ambivalenzen historisch- chronologisch aufgebaut.

Digitale Kunst als künstliche Musterbildung (Hans-Christian von Herrmann)

In den 1960er Jahren wurde „Digitale Kunst“, die den historischen Kontext der Arbeit von Dominik Busch bildet, unter anderem in der von Max Bense begründeten Stuttgarter Schule erdacht und praktiziert.[1] Hier geht es um die Ermöglichung von musterbildenden Prozessen durch Software. Diese Prozesse und nicht deren Ergebnisse sind nunmehr das Kunstwerk. Bense nannte die automatische Generierung, so Hans-Christian von Herrmann in seinem Beitrag, „künstliche Kunst“. Sie wird kreativ oder emergent durch die Einfügung von Zufallsgeneratoren, die unerwünschte Regelmäßigkeit unterlaufen.[2] Damit tritt der Mensch in den Hintergrund und zugleich wird sein Bezug zur Welt da, wo auch menschliche Kunst wie die künstliche als Mustererkennung funktionieren soll, in einer mathematisch grundierten Künstlichkeit und Emergenz verankert. Oder, wie von Hermann formuliert: „Benses Interesse galt allerdings in erster Linie dem ‚denaturierten’[3] Charakter der computergenerierten Artefakte. ‚Künstliche Kunst’, mit anderen Worten, reflektiert die konstitutive Künstlichkeit des modernen Weltbezugs.“[4].

Für die Analyse dieser Kunst der Daten ist nun die zentrale These des Beitrages von Hans-Christian von Herrmann entscheidend. Sie besagt, dass diese Medienkunst nicht aus einer technischen Option entsteht. Vielmehr sei sie im ideengeschichtlichen Kontext der Konzeptkunst der 1960er Jahre verankert. Paradigmatisch seien z. B. die „Sentences on Conceputal Art“ von Sol LeWitt[5], die Hans-Christian von Herrmann zitiert:

“7. The artist's will is secondary to the process he initiates from idea to completion. […]
15. Since no form is intrinsically superior to another, the artist may use any form, from an expression of words (written or spoken) to physical reality, equally. […]
22. The artist cannot imagine his art, and cannot perceive it until it is complete. […]
27. The concept of a work of art may involve the matter of the piece or the process in which it is made.
28. Once the idea of the piece is established in the artist's mind and the final form is decided, the process is carried out blindly. There are many side effects that the artist cannot imagine. These may be used as ideas for new works.
29. The process is mechanical and should not be tampered with. It should run its course. […]”[6]

Im Fokus steht also in der Digitalen Kunst wie in der Konzeptkunst, die ohne Bezug auf die technischen Optionen des Computers auskommt, die Ermöglichung von selbst organisierter und emergenter Musterbildung als Kunstwerk. Dies zeigt deutlich, dass Technik nicht a priori einen Gebrauch vorgibt, sondern durch ihren Gebrauch sowie konfiguriert durch Wissensgeschichte erst entsteht. Oder mit Hans-Christian von Herrmann: “dass viel eher zu fragen wäre, was mit dem Computer in dem Moment geschieht, in dem die Kunst ihn als ein neues Medium entdeckt.“[7]

Aus von Herrmanns Rekonstruktion aus der Konzeptkunst erschließt sich die Kunst der Daten in einer neuen Weise. Sie ist eben nicht als Maschinenkunst, sondern als eine epistemologische Praxis zu sehen. Mit diesem wird aus dem Paradigma von Medien als Mittel der Kommunikation ihr Aufbruch ins Generative. In den Computer wird also das Anliegen eingeschrieben, Muster hervorzubringen, die von Komplexität, Eigentätigkeit und Emergenz künden. Von Herrmann schreibt:

„Indem Programmierer wie Georg Nees um die Mitte der sechziger Jahre die abstrakte Malerei der Moderne in Algorithmen überführten, arbeiteten sie nicht einfach an einer maschinellen Nachbildung oder Überbietung menschlicher Kunstproduktion. Stattdessen galt ihre Anstrengung einer algorithmischen Generierung komplexer visueller Muster, die immer auch als Nachahmung natürlicher Formen oder Prozesse zu verstehen waren.“[8]

Diese morphologische Kunst setze, so von Herrmann, an die Stelle des Werkes die Ermöglichung des Prozesses, des Werdens und Wachstums. Denn es zähle nicht mehr: „die materielle Erscheinung, sondern die formale Beschreibung des Prozesses seiner Hervorbringung.“[9] Wird die Kunst der Daten im Kontext der Konzeptkunst als Musterbildung gelesen, dann scheint auch ihre Fortsetzung in einem Programm mehr als sinnfällig, das nicht von ungefähr „Processing“[10] heißt. Umgekehrt wird mit der aufgeführten Kontextualisierung Software in ungewohnter Weise sichtbar. Sie ist nicht mehr eine Umgebung zur Abarbeitung von Regeln, sondern ein Kunstwerk im Sinne der Berechnung des Unberechenbaren. Für die beiden Erfinder, die Künstler Casey Reas und John F. Simon, sind Algorithmus und Programmierung, mithin Schreiben von Software, nämlich ein künstlerischer Vorgang. Entstehen sollen Projekte, die eigentätig Muster generieren, die weder vorhersehbar, noch kontrollierbar sind.

Demnach geht es in diesen ästhetischen Versuchen nicht um eine Kunst aus Automaten oder Programmen, sondern um die Ermöglichung von Prozessen und emergenter Eigentätigkeit als epistemisches, ja ontologisches Statement eines Seins als Werden, Transformation und menschenleerer Unendlichkeit. Dieser Sicht auf die Kunst aus Daten wäre mit der ANT nicht beizukommen. Denn wo sie ein Netzwerk aus Aktanten sieht, geht es in der digitalen Kunst ja gerade um die Alleinstellung der Kunst, um ihre Erfindung als Generative, die sich von Vernetzung mit und Zugriff durch Menschen zu allererst löst.

Von der Digitalen Kunst zum Creative Coding. Vom symbolischen Operieren zum Re-Mixen von Modulen

Das Programm Processing ist allerdings keine kontinuierliche Fortsetzung der Digitalen Kunst der 1960er Jahre. Es wird zwar das Epistem der generativen Musterbildung sowie das Primat der Prozessierung vor dem Werk tradiert. Mit dem Creative Coding[11], zu dem Processing gehört, verändert sich aber das Programmieren erheblich.[12] Während nämlich die Akteure digitaler Kunst in den 1960er Jahren noch Code schrieben, um zu programmieren, konstituiert sich Creative Coding aus dem Kombinieren von Modulen, mit dem die Dynamik eines Prozesses hergestellt werden soll. Modularisierung löst mithin die Formalisierung von Problemen und die Codierung von deren Bearbeitung in Algorithmen in einem Quelltext ab, was im hergebrachten Sinne „Programmierung“ bedeutete.[13] Statt über symbolische Operationen (Formalisierung und Codierung) wird also über die Manipulation von vorgefertigten Modulen nach einem Baukastenprinzip auf hoher Abstraktionsebene „programmiert“, die auf Oberflächen manipuliert und kombiniert werden.[14] Paradigmatisch bezogen auf Konzept, technische Umsetzung und Selbstverständnis ist eine Beschreibung von openFrameworks:

„OpenFrameworks ist eine Architektur aus Programmteilen, die elementare Aufgaben in der Produktion von Medienkunstprojekten übernehmen, also Dinge wie Ein- und Ausgabe von Text, Bild, Ton und Video. Dazu kommt eine Reihe von Modulen, die eine Vielzahl von Manipulationen mit den verschiedenen Medienformaten erlauben. Das Ganze ist nicht als fertige und käufliche Software zu haben, sondern Ergebnis eines Open-Source-Projekts. … Ein Framework ist eben keine umfassende Software, sondern eine Art Baukasten. Was man wirklich bei solch einem Framework nutzen will, richtet sich nach dem, was man machen will.
Im Kunstbereich gibt es zwar schon sehr einfach gehaltene Programmiersprachen wie processing. Weil aber die Leistungsanforderungen an Medienkunst-Projekte oft sehr hoch sind, so Lieberman [einer der Entwickler, die Autorin], habe eine Programmiermöglichkeit gefehlt, die näher an der Hardware und damit wesentlich schneller arbeiten könne als etwa die Skriptsprache processing. So ist die Idee entstanden, auf Basis der Programmiersprache C++ ein Framework für genau solche Zwecke zu entwickeln. Dieses Framework hat den Vorteil für Künstler, dass sie zwar programmieren müssen, aber auf einem sehr einfachen Niveau. Für alles Wesentliche gibt es bereits fertige Module, deren Funktionen sie nur noch aufrufen müssen. Man braucht also das Rad nicht neu zu erfinden und kommt schneller zu Ergebnissen. … Durch die Organisation als Open-Source-Projekt haben Künstler und Programmierer das Framework im Laufe der Zeit um zahllose Module erweitert.“ [15]

In der Modularisierung des Programmierens liegt damit der entscheidende Unterschied zwischen der digitalen Kunst von 1960 und 2010. Er hat Auswirkungen auf Ästhetik und Epistemologie digitaler Kunst. Sie meint heute eine ästhetische Praxis, bei der man nicht immer weiß, was geschieht[16]. Die Künstler der 1960er Jahre wussten dagegen um die Funktionsweisen, denn sie mussten auf basaler Ebene formalisieren und hatten eine Vorstellung von dem, was herauskommen würde. Ungewissheit entstand in den 1960er Jahren mit Hilfe von Zufallsgeneratoren als berechneter Zufall. Diese war zugleich Programm, denn Ziel war die Erzeugung von Emergenz. In der zeitgenössischen digitalen Kunst entsteht Emergenz dagegen statt aus der mathematischen Ordnung des Zufalls als Autopoiesis der Übersetzungen in Modulen und der organisierten Aneinanderreihung von Fragmenten. Hier ist nicht mehr absehbar, was genau geschehen wird.

Diese Konstitution bringt zwei Rekonfigurationen der Kulturtechnik Programmieren mit sich. Mit der Modularisierung kommt es (1) im Vergleich zu den 1960er Jahren zu einer tendenziell gesteigerten Virtualisierung des Nutzers. Im Gegensatz zum Programmieren durch Codierung wird beim Creative Coding nur noch ein kleiner sichtbarer Teil der Steuerung vom Nutzer konfiguriert, während der mächtigere Part auf einer für ihn unsichtbaren Ebene vom Programm übernommen wird. Der vereinfachte Zugang umgeht den Zugriff auf höhere Programmsprachen wie beispielsweise Wird über grafische Benutzeroberflächen mit vorgefertigten Module programmiert, können auch Laien eigene kreativ-künstlerische Projekte herstellen. Im Gegensatz zu Programmen zur Bildbearbeitung oder für Filmschnitt, die Nutzer nur bedienen können, würde die Erzeugung eines visuellen oder akustischen Outputs also überhaupt erst durch eine entsprechende Programmierung möglich. Zugleich aber ist der Nutzer von eigentätigen Programmen umgeben, die er einsetzen, aber nicht mehr gänzlich kontrollieren kann. Software, Automaten und Menschen teilen sich also nicht Handlungsmacht, wie in den Denkfiguren der ANT zu vermuten sei. Vielmehr geht sie auf Erstere über. Ein kompetenter oder konkreter Nutzer ist im Grunde auf einer basalen Ebene konzeptuell nicht vorgesehen, insofern die Generativität des Werkes sowie die Vereinfachung der Programmierung paradoxerweise vor dem Menschen im Vordergrund stehen. An die Stelle der Poesie des Codes und der expliziten Künstlichkeit von Herstellung und Ergebnis tritt ein schnelles, unkompliziertes und halb-wissendes Machen, das zu einem regelrechten Boom selbstorganisierter Produkte führt.

Mit dem Boom des Generativen kündigt sich (2) auch eine Industrialisierung der künstlichen künstlerischen Musterbildung an. Diese Industrialisierung des Generativen hängt neben der Virtualisierung des Programmierens und der Programmierenden aufs Engste mit dem technischen, kulturellen und wirtschaftlichen Kontext zusammen, in dem das Programmieren durch Modularisierung stattfindet. Denn das Creative Coding ist nur Teil einer umfassenderen Entwicklung in der Softwareindustrie. Die Programme des Creative Coding werden zwar exklusiv in Kunst und Design genutzt. Die ihnen zugrunde liegenden Techniken und Konzepte konstituieren aber auch aktuelle Softwareentwicklung, wie sie Alexander Firyn anhand der Software als Dienstleistung[17] exemplarisch beschreibt. Programmieren und damit Zugang zur und Ordnung von Welt konstituieren sich mithin bezogen auf die soeben beschriebenen Entwicklungen aus ihrer Formatierung in kleinen, mobilen und multifunktionalen Modulen. Kreativität ist nicht mehr exklusiv bezogen auf die Fähigkeit eines intentionalen Planens und Gestalten eines Nutzers. Sie entsteht vielmehr aus den logistischen und generischen Möglichkeiten des Programms, das künstliche Ordnungen herstellen und steuern kann sowie aus einem Ensemble verteilter Kreatoren. Beim Creative Coding handelt es sich z. B. um die Nutzer, die Gruppe der Entwickler, die um das Programm gruppierte Community sowie um das Programm selbst. Bei der Software als Dienstleistung gehören zum komplexen Gebilde aus verschiedenen Agenten z. B. Vertragspartner, Anbieter, Kunden, Programme, Formate, Daten, Verrechnungsarchitekturen und Netzwerke. Es kommt, so muss es wohl zugespitzt werden, zu einer Bürokratisierung und Industrialisierung von Software, die mit der Virtualisierung des Nutzers einhergeht, der nicht mehr unbedingt als individuelle Instanz angesprochen wird.

Max/MSP/Jitter (Jeremy Bernstein) – Processing. Oberflächen des Mediums

Die Virtualisierung und Industrialisierung des Schöpferischen in der zeitgenössischen digitalen Kunst zeigt sich auch daran, welche Programme sich derzeit in diesem Bereich durchsetzen. Entscheidend für den wirtschaftlichen Erfolg eines Programms scheint das Verhältnis von Sichtbarkeit und Unsichtbarkeit zu sein. Das heißt, durchsetzen kann sich das Programm, das am wenigsten vom Vorgang des modularen Programmierens zeigt. Dies macht ein Vergleich der beiden Programme Max/MSP/Jitter und Processing deutlich. Während nämlich bei Max/MSP/Jitter die Programmierung offenkundig bleibt, da auch beim fertigen Prozess die so genannten Patches mit ihren Strippen und Boxes noch sichtbar sind, verschwinden die Spuren des Programmierens bei Processing bei der Anschauung des fertigen Produktes von der Oberfläche. Interessanterweise befindet sich Processing derzeit im Vergleich zu Max/MSP/Jitter auf einem Erfolgskurs.[18] Daraus lässt sich die These formulieren, dass die Durchsetzungsfähigkeit eines Programms in Zeiten des modularen Programmierens nicht allein von seiner Leistungsfähigkeit sowie der Einstiegschwelle abhängt, sondern auch von der Sichtbarkeit der Technik.

Das Programm Max/MSP/Jitter, das Jeremy Bernstein in seinem Beitrag vorstellt, gehört zu den grafischen Programmen. Hier werden auf der Oberfläche mit grafischen Objekten Steuerung und Verarbeitung von Daten festgelegt. Dieses Programm begründete das Creative Coding. Es hat sowohl die elektro-akustische Livemusik als auch die Performance revolutioniert, da es zu einer Automatisierung und Digitalisierung der Verkabelung unterschiedlicher Geräte sowie zu einer beinahe instantanen Übersetzbarkeit unterschiedlicher Signale und Medien beitrug.[19] Diese Herkunft wird auf der Oberfläche deutlich, denn sie imitiert ein Flussdiagramm und veranschaulicht, was der Nutzer als Logik der Programmierung zu denken hat. Er soll den Fluss der Daten konzipieren und organisieren. Dazu ist festzulegen, welche Daten wie Eingang finden und bei welchen Werten welche Effekte zustande kommen sollen.

Mit diesem Denken sowie mit der Anmutung der Oberfläche werden bei Max/MSP/Jitter Technik und Funktionalität der Signalleitung in der physikalischen Welt aufgerufen. Denn Max/MSP/Jitter tradiert eine anschauliche Vorstellung der 1960er Jahre, die sich aus der analogen Welt der elektroakustischen Musik sowie der Manipulation elektronischer Bilder speist. Allerdings verbirgt diese Allusion an eine Materialität des analogen Leitens, die über Verkabelung und Modulation von Signalen funktioniert, dass hinter den Kästen und Strippen, die auf der Oberfläche angeordnet und verbunden werden, Übersetzungen in eine numerische Matrix stattfinden. Diese haben nichts mehr mit der Materialität der beteiligten Medien oder symbolischen Systeme, Ton, Bild, Stimme, Körper gemein. Derart suggeriert Max/MSP/Jitter eine Allübersetzbarkeit, mit der unterschiedliche physikalische Phänomene auf der Ebene von Signalen und deren Fluss integriert werden können sollen. Der Nutzer programmiert anscheinend, so die visuelle Anmutung, Kopplungen, Vernetzungen und Datenfluss und nicht Übersetzungen oder Verrechnungen. Dass Max oft im Bereich der Performance Verwendung findet, verwundert dann nicht. Denn hier wird die Übersetzung von analogen Signalen in diskrete Information zum zentralen Thema. Im entstehenden interaktiven Setting werden dann folgerichtig auch materielle Träger, Menschen oder Gegenstände zu Steuerelementen, ganz so, als könnten sie in ihrer Materialität in die Steuerung und Verarbeitung eingreifen, etwa wenn ein Tänzer sich in einem über Max gesteuerten Environment bewegt und Effekte generiert.

Bei Processing operiert der Nutzer im Gegensatz zu Max/MSP/Jitter durch die Eingabe von schriftlichen Befehlen nachvollziehbarer auf der tradierten Ebene von Programmierung durch Codierung. Im Gegensatz zu Max werden also nicht Bildlichkeit und Funktionalität aus dem Umgang mit analogen Medien aufgerufen, sondern Programmieren, das sich seit der Entwicklung und Verbreitung von Hochsprachen in den 1970er Jahren als Skripten konstituiert. In Processing wird auf diese Weise beim Vorgang des Programmierens die Diskrepanz zwischen Tun, schreibend Programmieren, und Output, z. B. das Erscheinen eines bewegten Projektes aufrechterhalten. Der Fakt der Übersetzung wird dabei schließlich allerdings deshalb unsichtbar, weil das Skript, anders als die Patches in Max, hinter den fertigen Outputs verschwindet.

Bei beiden Programmen wird der Nutzer ermächtigt und zugleich durch das Zusammenspiel von Sichtbarkeit und Unsichtbarkeit entmachtet. So wird aus Programmieren in beiden Programmen ein Agieren mit einer Konfiguration, die zur gleichen Zeit aus technischer Materialität und aus Metaphern besteht. Damit verändert sich das Verhältnis von Technik und Oberfläche, die Friedrich Kittler noch als Skandal diskreditiert hatte. Denn sie würde dazu dienen, die binären Codierungen durch das, was auf ihr erschiene, zu verbergen.[20] Die Metaphorizität der universellen Codierung, d. h. dass aus ihr auf Oberflächen alles Mögliche werden kann, hat Georg Christoph Tholen[21] dagegen als die besondere Medialität des Computers beschrieben. Sie entspricht seiner konstitutiven Wandelbarkeit. Beim Creative Coding werden nun die Metaphern und Imitationen auf den Oberflächen zu Medien des Programmierens. Damit verändert sich das Programmieren und dessen epistemischer Stellenwert. Es geht weder um die Repräsentation von Welt noch um die selbstbezüglichen Simulation künstlicher Welten. Programmieren wird vielmehr zur Assemblage von Agencements, die den Nutzer in einer Schein-Mächtigkeit situieren. Dieses Verhältnis konstituiert die Theatralität des zeitgenössischen Programmierens.

Der Unterschied bei beiden Programmen liegt nun, wie eingangs dargelegt, im Grad des Verschwindens der Technik. Dieser könnte für den Erfolg eines Programms bei den Nutzern von Bedeutung sein. Dass Processing Max derzeit den Rang abläuft, hat allerdings noch einen weiteren, wissensgeschichtlichen Grund. Es geht um die Verabschiedung einer Konfiguration in der Technik-Geschichte(n) des Menschen, d. h. in seinen Narrativen zur Beziehung von Mensch und Technik. Im Rahmen dieser Geschichte(n) wird deutlich, dass mit der Durchsetzung von Processing das Generative vor dem Interaktiven, das eher mit Max/MSP/Jitter verbunden wird, eine Vormachtstellung einnimmt. Bei Max/MSP/Jitter transportierte das anschauliche Bild des Leitens von Strom auch die Vorstellung einer interaktiven Verknüpfung von Mensch und Technik via elektrischer Resonanzen und Signaltransporte.[22] Diese interaktive Ausrichtung, die einer anderen Wissens- und Technikgeschichte angehört als die digitale Kunst, wird vom Boom des Generativen überrollt. An die Stelle der Kopplung von Mensch und technischem Prozessieren tritt die Priorisierung des Generativen als Kunstwerk, das sich den Zugriffen des Menschen entzieht. Diese Entwicklung dürfte Teil der Technik-Geschichte(n) des Menschen sein, in der er sich derzeit von den Maschinen zurückzieht und Handlungsmacht abgibt, zumindest aber teilt. Ist der Mensch nicht mehr im Spiel, dann können auch, wie bei Processing, die Spuren der Programmierung von den Oberflächen verschwinden. Das heißt, Kunst mit Programmen ist ein Indikator für die Konfiguration des Verhältnisses von Mensch und Technik, so dass man an ihr zum einen die Auswirkungen von technischen Entwicklungen ablesen kann. Zum anderen trägt Kunst zu Zäsuren im Verhältnis von Mensch und Technik bei, indem sie Erzählungen dazu entwirft und praktiziert. Derzeit wird das Ende der emphatischen Interaktion zugunsten der generativen Musterbildung in entsprechenden technischen Settings konfiguriert. Deutlich wird, dass mit Begriffen der ANT die Software-Epistemologien nicht zu fassen sind.

Rekonfiguration der Kulturtechnik Programmieren. Vom Agencement der Dinge

Die Verabschiedung der Spuren des Menschen auf den Oberflächen deutete es an. Mit der Rekonfiguration der Kulturtechnik Programmieren im Creative Coding kommt es auch zu epistemischen Messages. Damit ist das generative Operieren nicht schlicht eine künstlerische und programmiertechnische Option, sondern es wird zu einem Wissen der Technik, das sich auf den Zugang zur Welt sowie auf Wahrnehmung und Denken niederschlägt. Denn mit dem modularen Programmieren entstehen andere Ordnungen von Kultur sowie andere Vorstellungen von Mensch und Technik als mit Codieren als Programmierung. Neben der In-Formation der Nutzer beim Manipulieren von Dingen auf Oberflächen, bestimmen Syntax und Grammatik der Modulation, wie diese operativen „Denkwerkzeuge“ Erkenntnisraum und Handlungsrahmen ermöglichen. Es wird zu fragen sein, ob sich im Creative Coding ein Aktantennetzwerk aus Programmen und Nutzer erstellt. Oder kommt es vielmehr schon auf der Ebene der Programmierung zu einer Virtualisierung der Nutzer und zu einer Industrialisierung von Software, wie die Ausführungen von Alexander Firyn nahe legen[23], statt zur Entfesselung von Kreativität mit Hilfe von Software. Virtualisierung und Industrialisierung mit den Denkfiguren der ANT zu begegnen, könnte einer Beschönigung der menschlichen Lage gleich kommen.

Mit Creative Coding kommt es zu einer Wende in der Kulturtechnik Programmieren. Sie konstituiert sich als Konvergenz von Diskursiv- Narrativem mit dem Materiellem der Technik. Denn die auf den Oberflächen eingeschriebene Narration entspricht der technischen. Beide erzählen von ständiger Veränderung, Transformation, Prozessualität, die ohne äußere Bezugspunkte in der selbstbezüglichen Ordnung organisieren werden. Diese Art des Programmierens führt zu dessen Virtualisierung. Programmieren wird ein nie abgeschlossener Prozess, der nur Versuch und Möglichkeit ist.

Mit dieser Wende kommt es zu einer epistemischen Rekonfiguration, die in den St. Pöltener Gesprächen 1[24] diskutiert wurde. Ausgangspunkt der Überlegungen ist die Ablösung symbolischen Operierens als Programmieren durch das Manipulieren von „Dingen“ auf Oberflächen. Diese Konstitution habe tief greifende Auswirkungen auf das, was als Erkenntnis angesehen und praktiziert wird. In der Manipulation zeige sich der zutiefst ästhetische Charakter des modularen Programmierens. Es entstehe ein poietischer Raum, in dem Dinge selbstbezüglich komponiert würden und deren Mannigfaltigkeit industriell ausgebeutet werde. In eben diesem Operieren von dinglichen Mannigfaltigkeiten - z. B. der Module in Programmen oder der Apps auf dem iPhone – in einem durchorganisierten industriellen Komplex liege die Bürokratisierung und Industrialisierung von Software begründet. Programmieren als Formatieren von Welt zerfalle damit in das Sammeln, Kombinieren und Rekombinieren sich selbst genügender und einen Nutzer gar nicht mehr adressierender kleiner Tools. Die epistemische Message dieser Art des Programmierens, ihr Wissen, sei, dass mit dieser Kulturtechnik Welt nicht mehr theoretisch durchdrungen, sondern nur noch, so u. a. Erich Hörl, beschrieben werden könne. Es entstehe, so ließe ich zugespitzt formulieren, ein Epistem der Beschreibung als Erkenntnisform, das Theoretisierung und Analyse ablöst. Im Kontext umfänglicher Computerisierung kommt es zudem zu einer Technologisierung des Beschreibens.

Bewegungsforschung, oder wie Apparate, Daten und Vermessene zusammenkommen (Irina Kaldrack)

Auch in der Darstellenden Kunst bzw. im Film hält die Kunst der Daten Einzug wie Irina Kaldrack anhand der über Motion Capture gewonnenen „Figuren“ der Schauspieler im Film Avatar verdeutlicht. Sie schließen aus mediengeschichtlicher Sicht an die apparatetechnisch situierte und formalisierte Bewegungsforschung seit Mitte des 19. Jahrhunderts an, in der weniger der Mensch als vielmehr die Darstellungsmöglichkeiten technischer Apparate vermessen wurden. Der Rückschluss der künstlichen Bewegungen auf den Menschen gelänge hier mit Hilfe diskursiver Maßnahmen sowie geradezu paraphysikalischen Inszenierungen im Theater, mit denen die Zuschauer gleichsam hypnotisiert und in eine psychedelische Resonanz mit Performern und Apparaten versetzt würden.

Irina Kaldrack skizziert die Mediengeschichte dieser Kopplungen. Mit den Gebrüder Weber[25] wäre ab 1836 ein Paradigma begründet worden, nämlich der Dreischritt von Messung, Berechnung und Darstellung von Bewegung. Mit ihm würde diskursiv behauptet, dass die Darstellung eine nicht-bewusste und unsichtbare Wahrheit der Bewegung wiedergeben würde. So wäre z. B. mit Mareys[26] technischer Aufrüstung Bewegung vom sichtbaren Körper abstrahiert worden. Durch die am Körper angebrachten Lichtpunkte entsteht nur mehr ein Bewegungsgraph. Behauptet wurde aber, dass in dieser Abstraktion sowie mit Hilfe der Technik des Kinematographen sich die Wahrheit der Körperbewegung selbst ins Bild bringe. Denn Formalisierung und Medientechnik versprächen, eine überindividuelle Wahrheit der Bewegung zu erfassen. Das Unberechenbare käme nun da ins Spiel, wo z. B. im Tanz sowie in der neurophysiologischen Forschung um 1900 mit Hilfe hysterischer Frauen[27] Bewegung als Medium einer nicht-kontrollierbaren Erregungsübertragung entworfen und praktiziert wurden. Vor allem in Loïe Fullers[28] Lichttänzen, die Körper und Raum auflösen in ein Environment von Schwingungen und Verwandlungen, wurde dieser Diskurs der Übertragung des Unberechenbaren ästhetisiert. Denn die Lichtstrahlen sollten als Art Gedankenübertragung bzw. Erregungsübertragung dienen.

Der Film Avatar wäre aus dieser Geschichte der Bewegungsforschung zu rekonstruieren. Damit würde eine Tradition fortgesetzt, in der ausgerechnet mit Formalisierung und Bewegungsmessung das Nicht-Formalisierbare, d. h. das Unberechenbare, Unvorhersehbare und Unkontrollierbare erfasst und wahrnehmbar gemacht werden soll.

Vom Ende theatraler Einfühlung in der Kunst der Daten. Ein Kommentar von Hans-Christian von Herrmann

Die medienarchäologische Perspektive auf Avatar zeigt, wie Hans-Christian von Herrmann in der Diskussion formuliert, dass der Film aus Daten zugleich das Ende theatraler Einfühlung sowie der anthropologischen Narration des Kinos ist. Damit breite sich die Kunst der Daten in Theater und Kino aus. An die Stelle der anthropologischen Darstellung setze sich eine Affirmation des Technischen.[29] Menschliche Schauspieler performen Daten, Apparate und Formate und bezeichnen dies unbedacht als einen Sieg theatraler Einfühlung über Technik.

Diese Verabschiedung ließe sich aus der Bewegungsforschung erklären. Diese konstituiere sich nämlich aus zwei Strängen, der Berechnung von Bewegung und der Aufzeichnung von Bewegung. Die Berechnung von Bewegung wurde lanciert von den Gebrüder Weber, die das menschliche Gehen als Gehmaschine ansahen. Sie meinten, Formeln von Bewegung erstellen zu können, mit denen Gehbewegungen künstlich generiert werden könnten, womit sie am Beginn der Robotik standen. Im kinematografischen Dispositiv, wie etwa bei Marey, geschieht dagegen die Aufzeichnung von Bewegung, die sich in Kurven vollzieht. Sie konstituieren sich als reine Kontingenz, da die Kurven sind nicht mehr berechenbar sind und also nicht in mathematische Formeln überführt werden. So konnte Frank Bunker Gilbreth[30] in seinen arbeitswissenschaftlichen Forschungen die entstandenen Bewegungskurven nicht berechnen und in Formeln überführen. Er beschrieb nur analoge Bahnen.

In Avatar kämen nun beide Geschichten zusammen, Kontingenz verbinde sich mit Generierung, Robotik mit Aufzeichnung. Dieser Moment der Zusammenkunft entspräche zugleich der Überschreitung des kinematografischen Paradigmas. Der Eindruck der Schauspieler des Films, dass sie auf einer Thespis-Bühne stünden, in der sie sich in die virtuellen Welten einfühlen, sei eine völlige Verkennung der Situation. Denn es handle sich, wie von Erich Hörl für die Epoche der objektgeschichtlichen Zäsur beschrieben, um ein reines Agencement in der Interaktion mit technischen Objekten. Die Schauspieler glauben aber, es sei die Rückkehr zum Theater.

Performance als Agencement, so wäre hinzuzufügen, entspricht einer Aufhebung der Unterscheidbarkeit von Tat und Repräsentation, von Tun und Sinn. Es kommt zu einer Anordnung von Taten in einer Entfesselung des Zufälligen und Unkontrollierbaren, die in der Tat dem Kinematografischen wie dem Theatralen widerspricht, da hier die Performance immer auch eine repräsentative Tat ist, die sich als Plattform für eine Bedeutung selbst überschreitet. Im Zusammenfall von Sinn und Tat aber reiht sich nur mehr Eines an das Andere. Nach Hans-Christian von Herrmann werden dann auch in Avatar keine Emotionen verhandelt, denn es geht nicht um Handlungen sondern um reine Bewegungsabläufe. Es kommt zu einem technischen Emotionsbegriff, der mit der Sozialisation zum Erkennen von Emotionen in Mimik und Gestik nichts zu tun hat, sondern für eine höchste Affirmation des Technischen steht. Am besten sei Avatar beschreibbar als eine reine Testumgebung, in der auch die kleinsten und feinsten Bewegungen verzeichnet würden, um von einem Computer weiter verarbeitet zu werden. Der Zuschauer partizipiere also an einem Testverfahren, das nichts mehr mit Einfühlung oder Innerlichkeit zu tun habe, sondern nur noch mit einem rein äußerlichen Blick auf die Bewegungen des Körpers. In diesem Dispositiv des Tests lösen sich sowohl Kino als auch Theater auf, da es keine Interaktion des Schauspielers mehr gäbe. Diese Techno-Theatralität sei wohl die radikalste Form der Entfremdung und eben nicht Nachweis einer neuen Innerlichkeit. Mensch würde hier in der Tat vom Akteur zum Datengeber einer Kunst der Daten.

Die Kunst der Daten ist radikaler, als es die ANT beschreiben kann. Denn Kunst und Wirtschaft haben den Bezug auf Menschen tendenziell unterlaufen. Die ANT dürfte in diesem Kontext wichtig sein, da sie ein Denkmodell entwickeln könnte, um ihn in modifizierter Weise noch als Handlungsmacht weiterzuführen.

Mustermaschine (Dominik Busch). Wie Kunst zur Kritik an der Industrialisierung digitaler Musterbildung werden kann

Was bedeutet es, in dem bisher geschilderten Szenario der Kunst der Daten Kunst mit diesen zu machen? Wie verhält man sich zur Virtualisierung des Menschen und zur Industrialisierung des Generativen? Die Frage ist, ob Kunst, die Teil industrieller Entwicklungen ist, diese reflektieren und kritisieren kann? Passt sie sich ein oder steht sie quer, stört die Agencements? Ist es überhaupt denkbar, dass eine Kunst, die aus Software erst entsteht, diese reflektieren kann?

Vor dem hier beschriebenen Hintergrund wird nun die Mustermaschine von Dominik Busch in einer besonderen und überraschenden Weise lesbar. Ausgangspunkt dafür ist, dass es in dieser künstlerischen Arbeit explizit um das automatische Generieren von Mustern geht. Das heißt, hier wird das Konzept der digitalen Kunst wie der Konzeptkunst, wie sie Hans-Christian von Herrmann beschrieb, mathematisch und narrativ implementiert und damit in einem gewissen Sinne industrialisiert. Die Mustergenerierung selbst ist automatisiert und wird zur Serienproduktion erhoben, in die allerdings, im Gegensatz zur digitalen Kunst der 1960er Jahre, von Nutzer eingegriffen werden kann. Denn der Nutzer der Mustermaschine kann in deren Gestaltung über die Modifizierung der Parameter eingreifen. Damit wird der Virtualisierung der Benutzer zumindest entgegengearbeitet. Ein weiterer Hinweis auf diese Wirksamkeit ist auch, dass Dominik Busch bei der Entwicklung und Programmierung der Mustermaschine die unterschiedlichen Programme des Creative Coding auf der Suche nach der geeigneten Software für sein Anliegen durchlief. So begann er mit Max/MSP/Jitter, wechselte zu Processing, um schließlich Java zu lernen und die Mustermaschinen in dieser Hochsprache zu programmieren, d. h. ohne auf die vorgefertigten Module der Programme des Creative Coding zurückzugreifen. Das heißt, um die eigenen Anliegen zu realisieren und die Musterbildung der Musterbildung zu ermöglichen, reichte das Kombinieren der Module nicht aus. Vielmehr mussten die verdeckten Programmierungen durchbrochen werden.

Es geht in Dominik Buschs Automatisierung der Kunst der Daten also um eine Musterbildung der Musterbildung. Es kommt somit zu einer Selbstreferentialität und Unabschließbarkeit, auf denen die Musterbildung nun beruht. Aus der in der digitalen Kunst geforderten Emergenz der Musterproduktion wird in deren Automatisierung eine Suche nach einzigartigen Momenten. Denn die Emergenz, das Unberechenbare, so stellt sich heraus, ist in Zeiten der technischen Reproduzierbarkeit künstlicher Kunst, die die Maschine zum Genius Loci erhoben hatte, gar nicht mehr das Erstrebenswerte. Vielmehr besteht ein Begehren nach einem Anhalten im Emergenten, um Unikate zu gewinnen, die als Synonym für Aura unter den Bedingungen automatischer Kunstproduktion gelten können. In diesem Kontext der Industrialisierung von Kunst kommt die Mustermaschine geradezu einer Ironisierung und kritischen Reflexion der Kunst der Daten gleich. Denn die sich unentwegt reproduzierenden und generierenden Muster spielen Virtualisierung, die reine Potenzialität eines Musters, sowie Industrialisierung gegeneinander aus, da sie als Automation von jeglichem Zweck entbunden sind. Es geht um ein L’Art pour l’art der Daten. Es kommt so zu einer Virtualisierung des Industriellen. Damit ist die Mustermaschine eine zutiefst medienreflexive Arbeit sowie ein epistemologischer Versuch über die Sackgassen digitaler Kunst.

Mustermaschinen-Plagiatoren. Ästhetik der neuen digitalen Kunst

Wir erleben in weltweiten Programmierkünsten eine neue Generation von „Programmierern“. Diese greift virtuos auf die Baukästen und die abstrakten Ebenen der Programmierung zu. Sie interessieren sich nicht für das Verdeckte und bewegt sich behände auf den grafischen Oberflächen und zwischen den verschiedenen Programmen. Es zählen schnelle Ergebnisse, Basteleien, flüchtige Begegnungen und flottierende Vernetzungen.

Diese Nutzung unterläuft die Bürokratisierung und Industrialisierung von Software sowie die damit verbundene Virtualisierung der Benutzer, indem sie sich die Module und die generischen Strukturen als Stifter von Ästhetik, Wissen und Identität aneignet. In der radikalen Anerkennung des Baukasten- Programmierens liegt das Potenzial zur Überwindung der Entmachtung der Nutzer in der Ermächtigung der Fragmente und Assemblagen. In diesem Tun liegt der Erfolg von Helene Hegemanns Roman axolotl roadkill[31], den Alexander Firyn als Ausdruck des service-orientierten Programmierens in der Literatur sah. Hier tritt an die Stelle der ökonomischen und industriellen Ausschlachtung der kleinformatigen Module und Programmbausteine das Plagiat. Das modulare Programmieren führt mithin in die medientechnischen Niederungen der Plagiate, Animationen, YouTube-Responses, Blogs und Foren. In diesem Sinne ist Dominik Buschs Mustermaschine zugleich eine ästhetisch- technische Überhöhung dieses Plagiatierens, denn sie wiederholt und kombiniert, allerdings nur noch sich selbst. Und sie ist zugleich gleichsam ein Anachronismus, weil sie im Zugriff des Benutzers noch die Figur der individuellen Auswahl hochhält, den technisch-automatischen Begriff für das traditionelle Genie.

Eine Generation junger Programmierer und Computernutzer reagiert also auf die Industrialisierung und Bürokratisierung von Software und Kreativität mit einer industrialisierten Kunst und Kommunikation und entzieht sie damit der Selbst-Auflösung ebenso wie den Gesetzen des Marktes. Dies geschieht gerade, indem sie sie anerkennt und praktiziert. Was jeder kann, ist nicht verkäuflich. Do it yourself. Creative Coding wird somit zum Paradigma, in dem sich das schon ästhetische Baukasten-Programmieren noch einmal künstlich-künstlerisch überhöht. Was die Programme in der Wirtschaft oder Apps nicht leisten können, leistet das Creative Coding: Es re-integriert den Menschen auf der Ebene von Agencement als Handlungsmacht. Aus dem virtualisierten Nutzer wird ein kooperierender und kooptierter Aktant als Plagiator.


  1. Vgl. einführend: Hg. Barbara Büscher, Hans-Christian von Herrmann, Christoph Hoffmann, Ästhetik als Programm. Max Bense / Daten und Steuerung, Kaleidoskopien. Medien - Wissen - Performance. Band 5, Berlin 2004.
  2. Vgl. zu mathematischen Grundlagen der Zufallsoperationen und zur Bedeutung des Zufalls: Frieder Nake, Zufall & Notwendigkeit, 2007, http://base.dennisbloete.de/studies/programm_und_prozess/content/ProgProz07- Zufall.pdf, ders.: Einmaliges und Beliebiges. Künstliche Kunst im Strom der Zeit, 1995, http://radicalart.info/AlgorithmicArt/Nake95.html. Vgl. auch: Tim Otto Roth, Ein Interview mit Frieder Nake, ‚A plea for datalogy’, 2003, http://www.imachination.net/next100/reactive/nake/index.htm#anchor%20links. Weitere Literatur von Nake: http://viola.informatik.uni- bremen.de/typo/index.php?id=19. Siehe auch: Martin Warnke, Kunst aus der Maschine – Informationsästhetik, Virtualität und Interaktivität, 2004, http://weblab.uni- lueneburg.de/kulturinformatik/warnke/Kunst_aus_der_Maschine.pdf, alle gesehen am 28.3.2011.
  3. In seinem Manuskript vermerkt Hans-Christian von Herrmann zu diesem Begriff einen Aufsatz von Bense aus dem Jahre 1946: Max Bense, „Der geistige Mensch und die Technik“, in: Hg. Barbara Büscher, Hans-Christian von Herrmann, Christoph Hoffmann, Ästhetik als Programm. Max Bense / Daten und Steuerung, Kaleidoskopien. Medien - Wissen - Performance. Band 5, Berlin 2004, S. 32-43, hier: 40.
  4. Zitiert nach dem Vortragsmanuskript von Hans-Christian von Herrmann.
  5. Vgl. einführend: http://www.kunstwissen.de/fach/f- kuns/b_mod/lewit0.htm, gesehen am 2.12.2010.
  6. Siehe die „Sentences on Conceptual Art“ von Sol Lewitt, 1969: http://www.altx.com/vizarts/conceptual.html, gesehen am 2.12.2010.
  7. Zitiert nach dem Vortragsmanuskript von Hans-Christian von Herrmann.
  8. Zitiert nach dem Vortragsmanuskript von Hans-Christian von Herrmann.
  9. Zitiert nach dem Vortragsmanuskript von Hans-Christian von Herrmann.
  10. Processing steht open source zur Verfügung und gehört zur Programmierungsbewegung „Creative Coding“. Vgl. zum Programm: http://www.processing.org/, gesehen am 2.12.2010.
  11. Dazu zählen u. a. die Programme: Max/MSP/Jitter, Processing, Pure Data, Isadora, 4 V oder openFrameworks.
  12. Vgl. dazu auch die Online-Dokumentation „Creative Coding“, Hg. Jochen Koubek und Martina Leeker, zum gleichnamigen Kongress im Juli 2010 an der Universität Bayreuth: http://creativecoding.uni-bayreuth.de/kolloquium- 2010/, gesehen am 25.3.2011.
  13. Vgl. zur Geschichte des Programmierens: Georg Trogemann. „Experimentelle und spekulative Informatik.“ in: Hg. Claus Pias, Zukünfte des Computers, Zürich-Berlin, 2005, S. 109 – 132, online unter: http://interface.khm.de/wp-content/uploads/2008/11/04- spekulativeinformatik.pdf, gesehen am 15.9.2010.
    „Die klassische Theorie des Computers enthält keine Zukunftsdimension. Algorithmen sind endliche schrittweise Verfahren zur Berechnung gesuchter aus gegebenen Größen. Jeder einzelne Schritt besteht aus einer Anzahl ausführbarer deterministischer Operationen. Nach Ausführung eines Schrittes steht eindeutig fest, welcher Schritt als nächstes ausgeführt wird. Alle Berechnung folgt damit einer (endlichen) Kausalkette. Diesem Denken fehlt die Dimension des Werdens, die Gegenwart enthält bereits vollständig alle Zukunft. Die Verbindung zwischen Vergangenheit und Zukunft ist lediglich ein getakteter und gleichmäßig voranschreitender Maschinenzustand. Wird ein Zustand notiert und die Maschine später auf diesen Zustand zurückgesetzt, ist alles, was dazwischen passiert, vergessen, für die Maschine ist es nie passiert. Damit soll keinesfalls gesagt sein, daß auf der Basis des schrittweisen Vorangehens nicht Unvorhersehbares und Überraschendes realisierbar wäre – ganz im Gegenteil – aber ein Begriff des »Werdens« ist bei der Behandlung klassischer algorithmischer Fragestellungen schlicht nicht erforderlich. Es wird von vielen sogar vehement bestritten, dass durch algorithmische Prozesse überhaupt Neues entstehen kann.“ Ebda., S. 169.
  14. Lev Manovich beschreibt 2008 unter dem Begriff Cultural Software Merkmale kreativer Programme (z. B. After Effets): (1) Hybridität, die Vermischung unterschiedlicher Medien und medialer Repräsentationsformen, (2) Interaktivität, (3) Remixens, mit dem unterschiedliche Medien und Inhalte aus Kontexten herausgenommen und neu kombiniert werden, (4) Modularisierung der Softwareelemente. Vgl. Lev Manovich, Software takes Command, 2008, unter: http://lab.softwarestudies.com/2008/11/softbook.html, zur Seite von Manovich: http://www.manovich.net/, beide gesehen am 30.11.2010.
  15. Zitiert nach: http://futurezone.orf.at/stories/305940/, gesehen am 15.9. 2010, am 28.3. nicht mehr auffindbar.
  16. Vgl. den Vortrag von Peter Koval „Es gibt keine Hardware“, 2010 beim Kolloquium „Creative Coding: http://creativecoding.uni- bayreuth.de/assets/Uploads/vortrag/peterkoval.mov, gesehen am 28.3.2011.
  17. Vgl. den Vortrag Software als Service – Kunst als Service von Alexander Firyn in der Online-Publikation.
  18. Ein weiterer Grund ist, das Processing lizenzfrei ist.
  19. Vgl. zu Einführung in die Geschichte von Max: http://en.academic.ru/dic.nsf/enwiki/267299, gesehen am 15.9.2010 sowie Jeremy Bernstein, „Max/MSP/Jitter. Eine Einführung“, in: Hg. Derrick de Kerckhove, Martina Leeker, Kerstin Schmidt, McLuhan neu lesen. Kritische Analysen zu Medien und Kultur im 21. Jahrhundert, Bielefeld 2008, S. 444 – 452.
  20. Vgl. hierzu Friedrich Kittlers Grundlagenaufsatz: „Es gibt keine Software“, in: Draculas Vermächtnis. Technische Schriften. Leipzig 1993, S.225-242. Englische Version des Aufsatzes unter: http://www.ctheory.net/articles.aspx?id=74, gesehen am 15.9.2010. Computer existieren demnach vor allem als Hardware, als Operieren auf der Ebene der Maschinensprache, und ihre kulturellen Wirkungen entstehen aus eben dieser. Da sich Hardware schlechterdings nie selbst, sondern nur in der Gestalt von Software oder Oberflächen zeige, würden sich Computer durch eine Struktur der Verdeckung auszeichnen. Dies wiederum habe den Ausschluss des Menschen aus der Technik zur Folge, da für ihn der Zugriff auf die entscheidenden Teile des Rechners, die schaltlogische Codierung, nicht mehr möglich ist, da nur schwer zugänglich. Somit Schreiben, Codieren und Kontrollieren nicht mehr Menschen sondern eine industrielle Lobby sowie schließlich die Maschinen selbst die Operationen und lassen einen entsubjektivierten Menschen zurück. Aus dieser Medientheorie muss abgeleitet werden, dass das Erlernen einer dem Maschinencode möglichst nahen Sprache für einen selbst bestimmten Umgang mit Computern unabdingbar wäre. Grafische Programme aber oder auch Programme wie Processing, die zwar auf einer schriftlichen Programmierung beruhen, allerdings nicht auf die zugrunde liegende Programmiersprache zugreifen, würden die Entmachtung des Subjektes fortschreiben und zudem die Leistungsfähigkeit des Computers nicht ausschöpfen und verdecken.
  21. Vgl. einführend: Georg Christoph Tholen, Die Metaphorizität des Medialen, http://sammelpunkt.philo.at:8080/351/1/9035.0.thometaph1.pdf, 1999, sowie ders., Überschneidungen. Konturen einer Theorie der Medialität, 1999, http://mewi.unibas.ch/fileadmin/mewi/user_upload/redaktion/4_Ordinariat_THOL EN/Publikationen_Tholen/Auszug_Konfigurationen.pdf, beide gesehen am 15.9.2010.
  22. Vgl. zum Interaktions-Paradigma auch den Lektürevorschlag zum Kapitel: Theater – Performance – Technik. Remote control models (Georg Hobmeier) in dieser Publikation.
  23. Vgl. den Vortrag Software als Service – Kunst als Service von Alexander Firyn in der Online-Publikation.
  24. Vgl. Kapitel: „Technik- und Wissensgeschichte der Akteurnetzwerktheorie im Kontext entfesselter technischer Objekte“, „St. Pöltener Gespräche 1. Software-Wissen und die Grenzen der ANT“.
  25. Friedrich Kittler, "Der Mensch, ein betrunkener Dorfmusikant." in: Hg. Renate Lachmann, Stefan Rieger, Text und Wissen. Technologische und anthropologische Aspekte. Tübingen 2003, S. 29 - 43.
  26. Joel Snyder, „Sichtbarmachung und Sichtbarkeit“, in: Hg. Peter Geimer, Ordnung der Sichtbarkeit. Fotografie in Wissenschaft, Kunst und Technologie, Frankfurt a. M, 2002. S. 142-167.
  27. Georges Didi-Huberman, Die Erfindung der Hysterie. Die photographische Klinik von Jean-Martin Charcot, München 1997. Hans-Christian von Herrmann, Das Archiv der Bühne. Eine Archäologie des Theaters und seiner Wissenschaft, München 2005. Hg. Marcus Hahn, Erhard Schüttpelz, Trancemedien und Neue Medien um 1900. Ein anderer Blick auf die Moderne, Bielefeld 2009, Einleitung unter: http://www.transcript- verlag.de/ts1098/ts1098_1.pdf, gesehen am 28.3.2011.
  28. Vgl. Wolfgang Hagen, The Shock of Electricity and the Technological History of Modern Dance or the Overwhelmingness of Technology and the Possibilities of Art, 2002, unter: http://www.whagen.de/publications/GetanzteFotografie/FullerShock.htm, gesehen am 28.3.2011.
  29. Vgl. zum Making Off von Avatar, in dem die Kunst der Daten und das Ende der Einfühlung bzw. die Fehleinschätzungen der Schauspieler deutlich werden: http://www.youtube.com/watch?v=4qSIz-Z-QSI, http://www.youtube.com/watch?v=HoCppJkP7FE, gesehen am 28.3.2011.
  30. Vgl. Claus Pias, Wie die Arbeit zum Spiel wird. Zur informatischen Verwindung des thermodynamischen Pessimismus, 2001, http://www.uni- due.de/~bj0063/texte/arbeit.pdf, gesehen am 28.3.2011.
  31. Helene Hegemann, Axolotl Roadkill, Berlin 2010.