Beiträge:

  1. Martina Leeker:
    Technik und Wissensgeschichte der ANT

Martina Leeker:
Technik und Wissensgeschichte der ANT im Kontext ENTFESSELTER TECHNISCHER objekte.

Kapitel

Überblick. ANT im Lichte von Zäsuren und aktueller technischer Lage

In diesem Kapitel werden Beiträge der Online-Publikation zusammengestellt, die ihr theoretisches Dach bilden. Es besteht aus einer wissens- und technikgeschichtlichen Rekonstruktion der ANT sowie aus der Sondierung der aktuellen technischen Situation am Beispiel der Softwareentwicklung. Diese Untersuchungen bilden den Rahmen für eine diskursanalytische Sicht auf die ANT. Ziel ist es, einen Realitätsabgleich im Hinblick auf die Frage zu ermöglichen, ob die ANT die aktuelle Situation analysiert und beschreibt oder an deren diskursiver Generierung und Legitimierung beteiligt ist.

Die Beiträge legen aus unterschiedlichen Perspektiven die Vermutung nahe, dass die Beschreibung techno-sozialer Umwelten als Vernetzung von Agenten in Operationsketten, wie die ANT in der zeitgenössischen Medienwissenschaft pointiert wird[1], aus medienhistorisch und medientechnisch induzierten epistemischen Zäsuren hervorgeht. Die technischen Denkfiguren erhebt die ANT allerdings zu Merkmalen der Konstitution von Gesellschaft und übersieht dabei die ihnen innen wohnenden epistemischen Botschaften. Claus Pias sieht in der Erfindung agentenbasierter Simulationen in den 1960er Jahren, die z. B. Kaufverhalten modellieren und vorhersagen sollten, einen technikgeschichtlichen Hintergrund der ANT. Mit diesen Simulationen seien Wissen und Erkenntnis in Wissenschaft und Forschung zu auf Dauer gestellten Hypothesen geworden. Diese Epistemologie der Simulation werde in die Geisteswissenschaften, u. a. derzeit mit der ANT, übersetzt als experimentelle und konstruktive Konstitution von Gesellschaft, Existenz und Wissen. Dies zeige sich in der Konzeption sozialer Systeme in der ANT, da die in ihnen verbundenen Entitäten in der gegenseitigen Übersetzung überhaupt erst entstehen und nur temporär existieren. Sein würde derart in der Tradition der Epistemologie der Simulation in der ANT als komplexe und poietische Experimentalanordnung entworfen. Eine andere für die ANT äußerst relevante Konstellation ist für Erich Hörl eine objektgeschichtliche Zäsur seit den 1950er Jahren, mit der Objekten Agency zugesprochen wurde. Diese Zäsur bedingte eine Krise der Intentionalität des Subjektes, da es in die technische Umwelt verstrickt wurde, während sich diese und die Stiftung von Sinn in eine ununterbrochene Metamorphose entfesseln. Diese Denkfiguren der Agency erweisen sich nach Hörl im diskursanalytischen Blick allerdings auch als neo-animistische Konzepte. Mit ihnen käme nämlich das Gespenstische einer schwer kontrollierbaren und den Menschen involvierenden und zugleich ausschließenden Technik zum Ausdruck. Als weitere Domäne der wissensgeschichtlichen Verortung der ANT sind mit Hans-Christian von Herrmann Entwicklung und Ausformung der digitalen Kunst seit den 1960er Jahren anzusehen. In dieser künstlichen Kunst gehe es nämlich um eine ästhetische Nutzung von Programmen, mit der die Annahme einhergeht, dass der Bezug zur Welt spätestens im Zeitalter des Computers in einer mathematisch grundierten Künstlichkeit und Emergenz verankert sei. Die Untersuchung von Software schließlich steht innerhalb der theoretischen Rahmung der Publikation exemplarisch für aktuelle technische Entwicklungen in der umfänglichen Durchsetzung von Gesellschaft, Wirtschaft und Kultur mit computergestützter Informationsverarbeitung (Alexander Firyn). Sie gründet in einer Kombination und Vernetzung von Modulen, die dem Nutzer auf der Ebene der basalen Programmierung nicht mehr gänzlich und problemlos zugänglich sind. Mit dieser technischen Disposition käme es zu einer tendenziellen Virtualisierung des menschlichen Akteurs sowie zu einer Industrialisierung von Software, die das euphorische Begrüßen einer Theorie zum Netzwerk unterschiedlicher Aktanten als Grundlage von Gesellschaft und Kultur zumindest problematisch werden lässt. Das Kapitel schließt mit einer Diskussion zum Verhältnis von aktueller technischer Lage und medienhistorischen Zäsuren, in denen die ANT in den Beiträgen verortet wurde, zu Theoremen der ANT. Zentrale These ist, dass sich ausgehend von der objektgeschichtlichen Zäsur über die ANT bis zu den zeitgenössischen Entwicklungen von Software eine epistemische Wende konsolidiert, mit der wissenschaftliche und philosophische Theoretisierung von der bloßen Beschreibung abgelöst würden. Forschung wird zu einer Verhaltenswissenschaft, in der, ähnlich wie im zeitgenössischen Programmieren, Bausteine kombiniert und modelliert, aber nicht mehr analysiert werden. In ihrer Verwobenheit mit diesen Wissensformationen und technischen Entwicklungen wird ANT somit als ein technischer Diskurs sowie als eine technisch bedingte Sinnverschiebung lesbar.

Genesen und Grenzen der Akteurnetzwerktheorie (Claus Pias und Christian Kassung)

Claus Pias und Christian Kassung unternehmen in einem Gespräch Annäherungen an die Genese der ANT aus Technik- und Wissensgeschichte. Dabei wird zunächst deutlich, dass sie nur bedingt als genuine, neue Theorie gelten kann, die Welt komplexer beschreibbar macht. Christian Kassung konstatiert vielmehr, dass das von der ANT stark gemachte Dreieck: „Mensch – Technik – Kultur“ schon lange vor der ANT als maßgeblich für die Organisation von Gesellschaft sowie von Erkennen angesehen wurde.

Claus Pias skizziert zwei Bereiche der Technik- und Wissensgeschichte der ANT. Sie sei wegen ihres antihumanen Gestus (1) ohne die Geschichte der Kybernetik nicht denkbar. Denn in der Kybernetik wäre in den 1940er Jahren die Idee, Menschen als Aktanten zu sehen, da vorgedacht worden, wo Mensch und Maschine von Norbert Wiener in Communication and Control[2] als informationsverarbeitende Systeme gleichgesetzt wurden. Dieses Desinteresse an der Materialität, das gleichwohl zu Verkörperungen in gebauten Maschinen führte, machte Menschen mit Computermetaphern beschreibbar und umgekehrt. Diese Epistemologie der Kybernetik sei somit Grundlage für die Denkfigur einer Übersetzung, so einer der zentralen Begriffe der ANT, von Aktanten in symbiotischen Mensch-Maschine-Systemen. Diese Art der mögliche Unterschiede nivellierenden Synthese wurde, so Pias, in den 1960er Jahren vom Topos der „Augmentierung des menschlichen Geistes“[3] (Engelbart) im Sinne einer Kooperation von Vielen in einem heterogenen Ensemble abgelöst. Gemeint sind Formen des verteilten Arbeitens über vernetzte Computer, wie sie von Licklider und Engelbart entworfen und erprobt wurden.[4]

Geschichte und Epistemologie der Modellierung und Simulation komplexer und dynamischer Systeme bilden nach Pias (2) den entscheidenden medienhistorischen Kontext, der Denkfiguren der ANT vorbereitet bzw. wird Simulation durch die ANT in die Geistes- und Sozialwissenschaften übertragen. So wurde z. B. in den 1960er Jahren mit agentenbasierten Modellierungen im sozio-ökonomischen Bereich ein Konzept und Programm entwickelt, um komplexe Analysen von Kaufverhalten durchzuführen.[5] Es entstanden zur Interaktion fähige Agentensysteme.[6] Claus Pias These ist nun, dass Vokabular und Denkfiguren der ANT aus dieser prototypischen objektorientierten Programmierung und agentenbasierten Modellierung der Informatik der späten 1960er Jahre kämen. ANT wäre damit verwoben mit den mit Simulation und Modellierung aufkommenden grundlegenden epistemischen Verlagerungen, die sich in der Ablösung von Berechenbarkeit durch Performanz, von Gesetz durch Regel, von Beweis durch die bloße Demonstration sowie von Wahrheit durch Richtigkeit manifestieren.[7] Was aber bedeutet es, wenn das Vokabular aus der Computertechnik genutzt wird, um Computerphänomene zu beschreiben?

Christian Kassung skizziert die epistemische Zäsur der Quantenmechanik als eine mögliche Genese von zentralen Denkfiguren der ANT.[8] Denn mit der Quantenmechanik würde die tradierte Trennung von Subjekt und Objekt verunmöglicht, da der Beobachter mit seinem Tun in das Beobachtete eingreife und also eine Gefüge von Agierenden entstehe. Zudem könnten die physikalischen Erscheinungen nur noch mathematisch mit Wahrscheinlichkeiten beschreiben werden, da man sich ihrer nicht mehr in Experimente annähren kann. Mit diesem gravierenden epistemologischen Bruch würden neue Beschreibungen gesucht und eine der Situation angemessene Weise sei es, sie als Netzwerke von Agenten zu begreifen, die nur im Nachhinein betrachtet und beschrieben, aber nicht mehr in actu theoretisch erfasst werden können. Diese Wende vollziehe sich zwar um 1900, sie scheine aber erst in den 1960er Jahren als Schockwirkung in den Blick zu geraten und gegebenenfalls als solche bis heute virulent zu sein und sich u. a. in der ANT niederzuschlagen.

Aus der wissens- und technikgeschichtlichen Sicht heraus würden auch methodische Probleme verständlich, die die ANT kennzeichnen und ihre Leistungsfähigkeit bezogen auf die Analyse sozio-techno-kultureller Netzwerke einschränken, so Pias und Kassung. So setzte Latour an die Stelle der Analyse die möglichst genaue und konkrete Beschreibung der Agentensysteme. Zu beschreibende Forschungsgegenstände aber markiere, so Kassung, Latour kaum, vielmehr lege er Traktate für Beschreibungen vor. Es bliebe z. B. unklar, wo ein Netzwerk anfängt, und wo es aufhört. Derart könne die ANT ihre Untersuchungsgegenstände nur noch hypothetisch und experimentell beschreiben, aber nicht mehr analysieren. Darin dürfte sich das Epistem der computerbasierten Modellierung fortsetzen, das nicht mehr auf Theorie aufbaut, sondern auf regelbasierter Folgerichtigkeit. Damit künden die Netzwerke der ANT von der Epistemologie von Modellierung und Simulation, mit denen an die Stelle eines Zugangs zur Welt, die Richtigkeit und die Performanz operational geschlossener Systeme treten würden.[9] Dieser prekäre Status methodische und epistemische Status der Simulation würde in der ANT allerdings keiner kritischen Reflexion unterzogen sondern vielmehr unreflektiert zu einer methodischen Forderung. Forschungshypothese wäre, dass die ANT ob ihrer wissens- und technikgeschichtlichen Genese eine experimentelle Verhaltensbeschreibungswissenschaft sei, die wie eine Computermodellierung ein Szenario entwickelt und dieses durchrechnet und erprobt, unabhängig von der Validität der Ausgangsannahmen.

Dieses methodologische Dilemma setzt sich laut Christian Kassung fort in Latours ahistorischem und materialistischem Technikbegriff. Technik sei aber keine monolithische Entität und mit einem Fortschrittsmodell zu erfassen. Vielmehr sei sie komplex zusammengesetzt und entwickle sich diskontinuierlich aus kontingenten Konstellationen, in denen sich historisch jeweils etwas gleichsam Zufälliges als Technik durchsetze. So sind laut Kassung 99% der technischen Ideen verschwunden, da sie schließlich nicht umgesetzt wurden. Ein weiterer Hinweis für die Kontingenz des Technischen sei, dass z. B. zur Weltausstellung 1852 in Paris der Patentschutz aufgehoben wurde, da es zu wenige Einreichungen gab. Auf diese Weise wurden dann auch unausgereifte Maschinen zugelassen, um die leeren Hallen zu füllen. Technikgeschichte könne also nicht über die Dinge im Museum beschrieben werden, sondern nur in einer Untersuchung darüber, was sich überhaupt technisch materialisiert und durchsetzt und was nur „Papiermaschine“ bleibt oder vergessen wird. Man kann also nicht über die Technik sprechen, da sie kontingent ist oder aus Störung entsteht, was konstitutiv für ihre Wissensgeschichte sei.

Wie wenig Latour die Kontingenz von Technik im Blick habe, zeige sich an seiner Auffassung von Technik als Blackboxing. Blackboxing meint, dass die Schnittstellen zu Technik sowie technische Materialität verdeckt sind. Wird die Geschlossenheit des Systems behauptet und davon ausgegangen, dass seine Analyse nicht möglich sei, werde die Epistemologie der Computersimulation sowie der Quantenmechanik aktiviert und fortgesetzt. Denn wie in diesen Wissensfeldern würde konstatiert, dass die Untersuchungsgegenstände nicht theoretisch herzuleiten sind bzw. nicht eingrenzbar und nicht einsehbar sein sollen. Im Gegensatz zu Latours Auffassung, Technik sei verborgen, geht Kassung davon aus, dass Technik sich als Verdeckung und Sichtbarmachung sowie als Komplexion und Dekomplexion gleichermaßen konstituiere. Claus Pias verdeutlicht, dass mit dem Blackboxing Verzerrungen von Erkenntnis sowie des Einblicks in den epistemischen Status des hypothetischen Agentennetzwerks vorprogrammiert sind. Denn es wäre die Frage zu klären, wie viel von der Blackbox geöffnet werden müsse, um sie überhaupt wissenschaftlich analysieren zu können. Zudem sprechen die Dinge nicht selbst, sondern werden zum Sprechen gebracht, wodurch im Beschreiben Verfremdungseffekte entstehen.

Überzeugend sei die ANT da, so Christian Kassung, wo sie die Vermittlung zwischen Dingen und Zeichen beschreibe. Er widerspricht der oft geäußerten Annahme, dass Latour den Dingen in dem Maße Agency zuspreche, dass ihnen ein einem Subjekt vergleichbarer Eigensinn zugesprochen und Mensch im Wechselspiel damit als Subjekt grundlegend in Frage gestellt würde. Vielmehr sei Latour überzeugend in der Beschreibung der Momente und Konstellationen, in denen ein Dinge in eine symbolische Ordnung fällt, etwa wenn der Berliner Schlüssel[10] zur Disziplinierungsmaßnahme wird, zur symbolischen Gewalt, mit der es gelingt, dass die Eingangstüren der Häuser verschlossen sind. Dieses Beispiel als Netzwerk von Agenten, Mensch und technischen Dingen zu beschrieben, wäre durchaus angemessen und sinnvoll. Auch Claus Pias sieht die Leistungsfähigkeit der ANT darin, dass sie die Vermittlung zwischen Akteuren und Medien, mithin Medialität, bezeichnen kann. Medien würden in der Tat über Handlungsmacht wachen, etwa wenn in der Software festgelegt ist, was ein User tun könne. Ungewöhnliche gedankliche Horizonte würden zudem auf den Plan gerufen. Wo läge z. B. die Verantwortlichkeit bei einem Unfall, wenn auch Objekte handeln?

Objektgeschichtliche Zäsur, oder: Was vor der ANT geschah (Erich Hörl)

Erich Hörl entfaltet einen weiteren wissensgeschichtlichen und medienhistorischen Kontext, der Genese und derzeitige Konjunktur der ANT verständlich machen könnte. Ihm geht es um eine „objektgeschichtliche Zäsur“ seit den 1950er Jahren, in der eine Krise der Intentionalität des Subjektes und die Ausstattung von Dingen mit Agency wechselwirkten. Auch bei Erich Hörl wird also die ANT auf eine technik- und wissensgeschichtliche Genese zurückgeführt. In dieser Rekonstruktion erscheint sie als ein Theoriegebäude, mit dem eine Krise aufgefangen werden soll, indem die Beschreibung der Konstitution von Kultur und Gesellschaft neu orientiert und im wissenschaftlichen Diskurs erprobt wird. Hörls Zugang ist mithin, das Wissen, das in Technik steckt, in Wechselwirkung mit dem Wissen, das ihr zugeschrieben wird, zu rekonstruieren.

Ausgangspunkt sind für Hörl die 2005 von Bruce Sterling[11] beschriebene Entwicklungsgeschichte intelligenter Dinge, die eigentätig operieren und doch den Menschen nicht mehr in Ruhe lassen. Mensch würde also in ein technisches In-der-Welt-Sein involviert. Mit dieser Agency der Objekte, die Mensch und Sinn „entwerken“, kämen neue Weisen der Beschreibung des Zugangs zur Welt sowie von Erkenntnis auf. Das Metamorphotische, der Prozess und das Werden zögen als neue ontologische Orientierung herauf, was einer technologischen Sinnverschiebung entspräche. Mit ihr verlagert sich die Konstitution von Sinn in den „intelligenten“ technischen Welten. Sinn als Manifestation von Bedeutung in einem semiotischen Prozess würde abgelöst von der Begegnung a-signifikanter Assemblagen (Gefügen) und sich selbst genügender Modellen, die in einer Welt des unausgesetzten, nur noch selbstbezüglichen Operierens existieren. Zu dieser sinngeschichtlichen Wende zitiert Hörl u. a. Jean Luc Nancy:

Welt, das ist der Name einer Fügung [assemblage] oder eines Zusammen- Seins [être-ensemble], die zu einer Kunst [art] gehören – einer techné – und deren Sinn identisch ist mit der Ausübung dieser Kunst. […] So ist eine Welt immer eine ‚Schöpfung’ [création]: eine techné ohne Prinzip noch Zweck noch Stoff außer ihr selbst. Und auf diese Weise ist die Welt Sinn außerhalb des Wissens, Sinn außerhalb des Werks, Sinn außerhalb des Gehäuses der Präsenz, sondern die Entwerkung des Sinns, oder der zu jedem Sinn dazukommende Sinn – man ist versucht zu sagen: die künstliche Intelligenz des Sinns, der durch Kunst und als Kunst begriffene und gefaßte Sinn, d.h. techné, das, was die physis bis an die Grenzen der Welt verräumlicht und differiert. […] Es wird nötig sein, die ‚Technik’ als das Unendliche der Kunst zu begreifen, die eine Natur suppliiert, die es nie gab und nie geben wird. Ökologie kann wohl verstanden nur Technologie sein.[12]

Werden die objektgeschichtliche Zäsur und Krise nicht als eine Beschreibung der durch entfesselte technische Objekte ausgelösten Lage, sondern vielmehr als eine Reaktion auf diese gesehen, dann scheint auf, was Hörl als einen mit der Entfesselung der Objekte aufkommenden Neo-Animismus identifiziert. Diese Anschlüsse der animierten Umwelt an die Wissensgeschichte der animistischen Faszination durch Technik sei ein Hinweis darauf, dass das Gespenstische technischer Entwicklungen und Zäsuren mit animistischen Theorien und Praxen beantwortet und kompensiert wird. Die Welt der animierten Objekte und die objektgeschichtliche Zäsur wären so Effekt einer Wiederaufnahme der Wissensgeschichte des Animismus als eine Art, eine medientechnisch unübersichtliche Lage zu bewältigen. Dabei aber bringe der Neo-Animismus der Agency nur die gespenstische Mediensituation zum Ausdruck und entspräche keiner Beschreibung der Situation. Wie aber ist eine radikale und ökologische Existenz in distributed cognition zu beschreiben, in der Innen und Außen nicht mehr unterscheidbar sind, und welche ontologischen Effekte hat sie und welche werden ihr zugeschrieben?

Als Computerprogramme zu Agenten für Kunst wurden (Hans-Christian von Herrmann)

Hans-Christian von Herrmann zeichnet in seinem Beitrag die Geschichte digitaler Kunst nach. Von Interesse sind seine Ausführungen im Rahmen des theoretischen Daches der Publikation, da sich an dieser Kunst in Korrespondenz mit der objektgeschichtlichen Zäsur sowie mit der Epistemologie der Simulation eine Hinwendung zum Generativen, d. h. zu technischer Eigentätigkeit, festmachen lässt. Dieses morphologische, auf Musterbildung bezogene Interesse unterscheidet von Herrmann klar von einem kommunikationstheoretischen oder interaktiven im Umgang mit Technik, bei dem z. B. die visuellen Erscheinungen auf medialen Oberflächen als Metaphern menschlicher Aktion aufgenommen und lesbar gemacht würden. Es käme, ähnlich wie bei der von Erich Hörl dargestellten technischen Sinnverschiebung, zu einer technischen Ästhetikverschiebung. Denn es entsteht, wie von Max Bense formuliert, eine „künstliche Kunst“, die auf der Grundlage algorithmischer Strenge wie Natur Muster erzeugt. Es handelt sich allerdings nicht um Abbildungen der Muster der Natur, sondern um künstliche Muster, die in der Eigentätigkeit ihres Entstehens nicht unkontrollierbar sind, Emergenz erzeugen. Diese Praxis hat epistemische Auswirkungen, wenn von Hermann formuliert: „Benses Interesse galt allerdings in erster Linie dem ‚denaturierten’[13] Charakter der computergenerierten Artefakte. ‚Künstliche Kunst’, mit anderen Worten, reflektiert die konstitutive Künstlichkeit des modernen Weltbezugs.“[14] Diese Wendung kann auch als eine ästhetische Nobilitierung von Simulation und ihrer Epistemologie verstanden werden.

Die künstliche Kunst als Ermöglichung von Musterbildung realisiert sich etwa, wie in den 1960er Jahren bei Michael Noll[15], in der Entwicklung von Algorithmen und der Anwendung von Zufallsverteilungen, die nicht vorhersehbare Muster und Formen bilden. Da die mathematischen Operationen im Zusammenspiel mit algorithmisch gesteuertem Zufall den Prozess generieren, kann Mensch nicht mehr als Urheber von Kunst gelten. Morphologische Kunst setze zudem an die Stelle des Werkes die Ermöglichung des Prozesses, des Werdens und Wachstums. Denn es zähle nicht mehr: „die materielle Erscheinung, sondern die formale Beschreibung des Prozesses seiner Hervorbringung.“[16]

Von Bedeutung für die theoretische Auseinandersetzung mit der ANT und der aktuellen technischen Situation ist nun, dass Hans-Christian von Herrmann die Genese der digitalen Kunst nicht auf einen technischen, sondern auf einen ideen- oder wissensgeschichtlichen Kontext zurückführt. Denn sie komme nicht mit den Möglichkeiten des Computers auf, sondern in Korrespondenz mit der konkreten Kunst, in der ebenso wie in der digitalen Kunst die Ermöglichung generativer Musterbildung angestrebt wurde. Von Herrmann sagt: „Vielmehr findet in der digitalen Kunst eine lange Mediengeschichte der Kunst ihre Fortsetzung, so dass viel eher zu fragen wäre, was mit dem Computer in dem Moment geschieht, in dem die Kunst ihn als ein neues Medium entdeckt.“ [17]

Diese Konzeptualisierung von Kunst setzt sich heute in einer Software fort, die nicht von ungefähr „Processing“[18] heißt.[19] Für die beiden Erfinder, die Künstler Casey Reas und John F. Simon, sind Entwicklung und Programmierung von Algorithmen, mithin Schreiben von Software, der künstlerische Vorgang. Entstehen sollen Projekte, die eigentätig Muster generieren, die weder vorhersehbar, noch kontrollierbar sind.

Hans-Christian von Herrmann geht davon aus, dass diese Entwicklungen durchaus mit dem Vokabular der ANT beschreibbar wären, da Mensch und Technik in einem Netzwerk verbunden würden und Technik zudem in der Tat ob des mathematischen Zufalls und der technischen Performanz den Status eines Agenten erhält. Im Zusammenspiel der Beiträge zum technischen Dach der Online-Publikation ist auch eine weitere Lesart möglich. Zum einen kann digitale Kunst als Teil der objekt- und modellgeschichtlichen Zäsur gesehen werden, die eine Re-Definition von Objekten und Subjekten, von Mensch und Technik erfordert. Solche Orientierungen leistet die digitale Kunst in Form eigentätigen Musterbildung. Dabei ist sie zugleich wie die von Hörl vorgestellten Beschreibungen der technischen Sinnverschiebungen der objektgeschichtlichen Zäsur in diesem Tun auch unabhängig von Technik eine technische Denkfigur. ANT ist, so die Vermutung an dieser Stelle, nur Teil dieser Rekonfigurationen. Zum anderen zeigt sich gerade an digitaler Kunst die konzeptuelle Begrenztheit der ANT. Das kreative Potenzial der entfesselten Objekte sowie deren massive Art, Mensch als Entität aufzulösen und damit Übersetzungen obsolet werden zu lassen, wie Erich Hörl mit dem „In-Sein“ beschrieb, werden von der ANT unterschlagen. Damit aber übersieht sie genau den Bezug zum aktuellen technischen Kontext, der weitaus radikalere Ergebnisse zeitigt, als die theoretisch-systematischen Positionen der ANT, die sich als universelle Theorie und damit a-historisch gibt und den blinden Fleck der eigenen Genese übersieht.

Aktuelle technische Lage in der Softwareentwicklung und ANT (Alexander Firyn)

Neben den historischen Beiträgen ist die Konstitution der aktuellen technischen Lage zu untersuchen, was beispielhaft an der Softwareentwicklung vorgenommen wird. Mit ihr verändert sich, was bisher als Programmieren galt. Es geht um ein Programmieren, bei dem der Nutzer nicht mehr auf Maschinen nahe Programmiersprachen zugreift. Vielmehr löst das Kombinieren von Modulen, mit dem die Dynamik eines Prozesses gesteuert werden soll, die Formalisierung von Problemen und die Codierung von deren Bearbeitung in Algorithmen in einem Quelltext ab, was im hergebrachten Sinne „Programmierung“ bedeutete. Statt über symbolische Operationen (Formalisierung und Codierung) wird also über die Manipulation von vorgefertigten Modulen in einem Baukastenprinzip auf hoher Abstraktionsebene „programmiert“. Die Programmierung wird dabei auf mehrere Ebenen verteilt. Es entsteht ein Dispositiv der Un/-Sichtbarkeit. Denn das Setting besteht aus einer sichtbaren, auf der der Nutzer die Steuerung konfiguriert, und aus einer unsichtbaren Ebene. Auf Letzterer wird die Steuerung vom Programm übernommen, indem die Teilaktionen des Nutzers auf die Gesamtheit des Programms übersetzt werden. Die Programme beruhen mithin auf einer technischen Modularisierung, die ein Prinzip von Delegation und Übersetzung impliziert, mit dem die Kontrolle über die Programmarchitektur sowie über die Steuerung des Prozessierens von Daten aus der Hand gegeben wird.

Alexander Firyn referiert zu Software als Dienstleistung und zeigt an diesem Modell beispielhaft aktuelle Entwicklungen in der Konzeptualisierung und Herstellung von Software, die sowohl als Technik wie auch als Geschäftsmodell firmieren. Software als Dienstleistung bedeutet, dass Firmen und Institutionen ihre Daten und deren Verwaltung sowie ihre Software ins Internet oder an Dienstleister auslagern. Zugleich können sie auf modulare Softwarebausteine mit verschieden einsetzbaren Funktionalitäten zugreifen und diese individuelle nutzen (generischen Dienste, serviceorientierte Architektur, Cloud Computing).[20] Die vom Dienstleister zur Verfügung gestellten Programmpakete und Programmierungsumgebungen beruhen auf einem hohen programmierungstechnischen Abstraktionsniveau und sind deshalb in den einzelnen Komponenten schnell rekonfigurierbar. Die Umstellung der IT- Branche und der Organisation von Unternehmen auf Serviceorientierte Architektur und Programmierung (SOA)[21] ermöglicht es, dass sie von Mitarbeitern eines Betriebes ohne Vorkenntnisse genutzt werden kann. Zu dieser Art des modularen und generischen Programmierens gehört auch die Herstellung von Apps über Toolkits, z. B. für das iPhone. Ebenso wäre der „unwissende“ Umgang mit benutzerfreundlichen Programmen wie CM-Systeme im Internet hinzuzurechnen. Pointiert formuliert Alexander Firyn in diesem Kontext, dass es derzeit weniger um einen Wandel des Programmierens als vielmehr um das Ende dieser Tätigkeit gehe.[22] Statt in C als Programmiersprache arbeite man auf der Ebene von grafischen Oberflächen oder mit Programmmodulen zur Organisation von Daten. Aus Programmieren würden das Organisieren und das Controlling von Daten. Es wird nicht mehr programmiert, sondern Prozesse würden moduliert.

Software als Dienstleistung konstituiert derart ein komplexes Gebilde aus verschiedenen Agenten z. B. Vertragspartner, Anbieter, Kunden, Programme, Formate, Daten, Verrechnungsarchitekturen und Netzwerke. Es kommt, so muss es wohl zugespitzt werden, zu einer Bürokratisierung und Industrialisierung von Software, mit der eine tendenzielle Virtualisierung des Nutzers einhergeht, der nicht mehr als individuelle Instanz sondern als Funktion angesprochen wird. Virtualisierung, Bürokratisierung und Industrialisierung kommen z. B. darin zum Tragen, dass es ob der Vervielfachung der Anzahl der Dienstleister problematisch wird, Verantwortung und Haftung zu personalisieren und Kontrolle über den Umgang mit Daten zu garantieren. Auf der basalen technischen Ebene zeigt sich die Bürokratisierung und Industrialisierung darin, dass es wegen der Schichtungen und Verkapselungen[23] in den modularen Programmen immer schwieriger wird, auf die Ebene der grundlegenden Programmierungen vorzudringen und das Netz der Formatierungen so zu durchschauen, dass man in sie noch eingreifen könnte.

Es steht in Frage, ob ANT die modulare Art des Programmierens als Kulturtechnik beschreiben kann, oder ob sie vielmehr als diskursives Umfeld Teil der kulturellen Formatierungen ist. Die These ist, dass in dem Moment, in dem in den aktuellen Programmierweisen das Modulare und Generative betont werden, auch die Agency von Dingen ins Blickfeld gerät und in den Wissenschaften diese Verfahrensweisen als Konstitution von Kultur thematisiert werden. Handelt es sich also aus technik- und wissensgeschichtlicher Sicht um theoretische Orientierungen, die erst mit modularem Programmieren nötig und möglich werden? ANT kommt somit als eine Weise in den Blick, die Virtualisierung des Softwareanwenders zu beschönigen und damit zu unterschlagen und „Mensch“ als Agent in Netzwerken mit anderen Agenten zumindest noch zu erfinden und als eine potenzielle Entität zu erhalten.

Diskussion. Ende der Theorie, oder: ANT als Epistemologie des bloßen Beschreibens (St. Pöltener Gespräche 1. Software-Wissen und die Grenzen der ANT)

In der Diskussion wird die Wissens- und Technikgeschichte der ANT mit der zeitgenössischen Konstitution des Programmierens zusammen gedacht, das einer Formatierung von Welt in mobilen und multifunktionalen, aber in Teilen vom Nutzer nicht kontrollierbaren und programmierbaren Modulen entspricht. Es entsteht ein Regelwerk, mit dem künstliche, selbstbezügliche Ordnungen hergestellt werden können.

Ausgangspunkt der diskurskritischen Analyse ist, dass in modularen Programmen symbolisches Operieren als Programmieren durch das Manipulieren von „Dingen“ auf Oberflächen abgelöst wird.[24] In der Manipulation zeige sich der zutiefst ästhetische Charakter dieser Art des Programmierens. Es entstehe ein poietischer Raum, in dem Dinge komponiert würden und deren Mannigfaltigkeit zugleich industriell ausgebeutet werde. In eben diesem Operieren von dinglichen Mannigfaltigkeiten - z. B. der Module in Programmen oder der Apps auf dem iPhone – in einem durchorganisierten industriellen Komplex liege die Bürokratisierung und Industrialisierung von Software begründet. Programmieren als Formatieren von Welt zerfalle damit in das Sammeln, Kombinieren und Rekominieren sich selbst genügender und einen Nutzer gar nicht mehr unbedingt adressierender kleiner Tools.

Diese Konstitution habe tief greifende Auswirkungen auf das, was als Erkenntnis angesehen und praktiziert wird. Die epistemische Message dieser Art des Programmierens, ihr Wissen, sei nämlich, dass mit dieser Kulturtechnik Welt nicht mehr theoretisch durchdrungen, sondern nur noch, so Erich Hörl, beschrieben werden könne. Es entsteht, so ließe sich zugespitzt formulieren, ein Epistem des Beschreibens, das zudem einer Technologisierung von Erkenntnis im Kontext umfänglicher Computerisierung entspricht. Mit dem Beschreiben als Erkenntnisweise und Wissensform vollzöge sich ein Bruch mit der tradierten Epistemologie. Verabschiedet werde, so Claus Pias, Erich Hörl und Christian Kassung, die Epistemologie der theoretischen Erfassung und Analyse, wie sie Wissenschaft und Technik bis weit ins 20. Jahrhundert hinein konstituierten. Auch in der computergestützten Modellierung und Simulation setze sich das Epistem des Beschreibens durch.[25] Denn ihnen lägen, wie vor allem Claus Pias betont, weder theoretische Modelle oder Aussagen über eine reale Physikalität zu Grunde, noch würden solche generiert.[26] Vielmehr wären vom Computer gestützte Modellierungen als eine Verzeitlichung von Modellen, die eigentliche Simulation, zu sehen, die auf formale Beschreibungen von Prozessen zielen. So könne z. B. bei einer Simulation die ihr zugrunde liegende physikalische Theorie falsch sein. Dies würde der Simulation keinen Abbruch bescheren, denn es zähle allein die selbstbezügliche Richtigkeit der Operationen im Modell, die sich an dessen Funktionstüchtigkeit zeige. Damit würde in der Wissenschaft Theorie und Analyse aufgelöst. Wissenschaft werde in eine beschreibende Verhaltenswissenschaft transformiert. Es würde nämlich nur noch das Verhalten von Modellen in Simulationen beobachtet und beschrieben und dieser Modus auch auf den Umgang mit Wissen und Erkennen außerhalb der Simulation übertragen. Dieser Prozess sei nicht neu, sondern seit den 1950er Jahren im Gange, etwa in der Informationsästhetik von Abraham Moles, in der Geschichte der Computersimulation[27] oder der Systemtheorie.

Dieses Epistem der Beschreibung verbreite sich, so Alexander Firyn, umfänglich, da es sich nicht nur auf wissenschaftlicher Ebene entfaltet, sondern über Software in Wirtschaft, Industrie, Produktion, Unterhaltung, Design und Kunst Einzug hält. Die Undurchschaubarkeit der Layer von Software sei entscheidend dafür, so Claus Pias und Alexander Firyn, dass es mit der Verbreitung der modularen Software zu einer Technologisierung des Beschreibens käme. Wie Alexander Firyn und Hans-Christian von Herrmann ausführen, schlägt diese Vormacht des Beschreibens auch auf die Kunst durch. Statt Kreativität und Authentizität werden Kombinationen und Rekombinationen von kleinmoduligen Plagiaten und Formaten zum Material der Kreation, was sich, so Alexander Firyn, am Skandal um Helene Hegemanns Roman Axolotl Roadkill [28] zeige. Kunst, Kreativität, Identität und Gestaltung konstituieren sich als Optimierung der Kombination vorgefertigter Teile.

Auswertung. ANT als Diskurs

Ausgehend von der wissens- und technikgeschichtlichen sowie der Sondierung der aktuellen technischen Lage kann eine diskurskritische Analyse der ANT begonnen werden. Es zeigt sich, dass ein merkliches Interesse an Dingen und einer Rekonfiguration von Agency, die sich von Intentionalität löst, dann aufkommt, als sich Software tendenziell verselbständigt. Dieses Interesse zieht weite Kreise. So orientieren sich auch zeitgenössische Medienwissenschaft und Kulturtechnikforschung an Dingen und Agency sowie an Prozessualität und Generativität.[29] In den Fokus rückt eine Euphorie für Remixen, Beschreiben und Hybridisieren sowie eine Vorliebe für Operationen von Dingen und für offene Objekte. Es stellt sich die Frage, welche Bedeutung die Priorisierung der Akteurnetzwerktheorie in den Medien- und Kulturwissenschaften hat und ob sie die Formatierung von Welt in modularen Programmbausteinen überhaupt theoretisch durchdringen kann. Oder könnten die aktuelle Konzeptualisierung der Entmachtung des Subjektes in der Medien- und Kulturtechnikwissenschaft und seine Reformulierung in Handlungsbegriffen von Agency-Netzwerken und Operationsketten die wirtschaftliche und datenpolitische Entwicklung geradezu befördern und legitimieren? Es wäre mithin zu prüfen, ob sich das Interesse der aktuellen Medien- und Kulturwissenschaft für Dinge sowie für das Nichtberechenbare und Emergente nicht aus einer Faszinationsgeschichte für das aus der Kybernetik stammende Nichttriviale herleiten ließe, die Erich Hörl[30] begonnen hat zu rekonstruieren.

Ausblick. Kriterien für die Beobachtung der Kunst im Kontext von ANT

Aus dem theoretischen Dach der Publikation sind mit Ausblick auf die Zusammenarbeit der Künstler im Lab Kriterien für dessen Analyse abzuleiten. Diese werden bereits an dieser Stelle skizziert, damit die in den folgenden Kapiteln vorgestellten Arbeiten der Künstler des Lab mit dem Beschreibungs- und Analyseraster begegnet werden kann. In Frage steht, welche Modelle in der Kunst entworfen werden, um mit der objektgeschichtlichen Zäsur im Kontext aktueller technischer Entwicklungen umzugehen.

Beschreibungsweisen der ANT

Da ANT sich als ein Versuch entpuppte, eine medientechnische und epistemische Zäsur zu bewältigen, wäre es problematisch, sie voraussetzungslos als Methode und Systematik für die Beschreibung von Kunst anzuwenden. Vielmehr sind Konzeptualisierungen der ANT oder weiterer, ihr vergleichbarer und aus der objektgeschichtlichen Zäsur abzuleitender Modelle daraufhin zu prüfen, ob sie als Reaktionen einer durch unkontrollierbare technische Situationen in die Krise geratenen Gesellschaft und Kultur anzusehen sind. Statt Kunst mit ANT zu beschreiben gälte es, das diskursive Potenzial der ANT zu analysieren. Würden mit ANT beschreibbare Denkfiguren und Praxen auftauchen, dann sollen sie also auf ihre Relevanz im Hinblick auf Vermittlungen zwischen mediengeschichtlichen Zäsuren und technischer Lage ausgewertet werden. Es wäre dabei zu klären, ob Agentennetzwerke entworfen oder diese reflektiert werden.

Bezogen auf die ANT wäre das Augenmerk zu richten auf die Inszenierung von Dingen als Aktanten, auf Netzwerke, auf Übersetzungen zwischen Aktanten sowie auf die Rolle des Menschen, insbesondere die Konfiguration von Subjekt-Objekt-Positionen. Diese Phänomene wären auf ihre Bedeutung in der aktuellen technischen Situation zu befragen. Wenn die ANT eher einen technischen Zustand beschönigt, dann könnten Kunst und künstlerische Arbeit diesem Vorgang gegebenenfalls Vorschub leisten, indem sie Agententum herstellen. Kunst wäre prädestiniert dies zu tun, da sie sowohl die Denkfigur eines schöpferischen Subjektes, etwa im Geniebegriff, sowie des Eigenlebens von Dingen mit sich führt. Das heißt, in Kunst werden immer auch Verhältnisse von Subjekt und Objekt entworfen sowie Übersetzungen gesucht und erprobt zwischen dem, was von Menschen adressierbar ist, und den Medien und Techniken, die sie adressieren.

Es wäre schließlich zu fragen, ob Kunst der ANT etwas entgegensetzt oder hinzufügt, ob also die ANT von künstlerischer Praxis etwas lernen kann.

Aus der Technik- und Wissensgeschichte der ANT sowie der Analyse der aktuellen technischen Lage lassen sich des Weiteren Merkmale und Kriterien skizzieren, die auf eine Fortführung der objektgeschichtlichen Zäsur hindeuten könnten. Sie verweisen zudem auf Selbstbeschreibungen von Gesellschaften in technisch und epistemisch induzierten Krisen, die über die der ANT hinausgehen oder aber andere Wege beschreiten.

Objektgeschichtliche Zäsur und Künstliche Kunst

Aus der Perspektive der objektgeschichtlichen Zäsur (Hörl) sowie der Rekonstruktion der digitalen als künstlicher Kunst (Hans-Christian von Herrmann) werden andere Kriterien sichtbar, die die Analyse der Zusammenarbeit der Künstler leiten bzw. die aus dieser hervorgehen könnten. Die Krise des intentionalen Subjektes sowie die der tradierten Objektgeschichte zeigen sich in Assemblagen sowie in Entwerkung und Sinn- Werdung. Ständige Metamorphose, an die Stelle von Dichotomien treten, wären ein Hinweis darauf, dass Da-Sein eine künstliche, selbstbezügliche Konstitution zugeschrieben wird. Schließlich wäre auf eine Betonung des Generativen sowie von Software und Programmierung als künstlerisch- ästhetischer Zugang zu achten.

Modularisierte Software und Epistemologie des Beschreibens

Aus dem Beitrag von Alexander Firyn wären Formatierungen in kleinen Modulen, das Verschieben und Kombinieren von Modulen auf Oberflächen sowie Plagatieren ästhetische Praxen, die aus der modularisierten Software entstehen. Wichtig würde zudem auf Grund der Verfasstheit modularisierter Software das Spiel mit Kontrolle und Kontrollverlust.

Ästhetiken der objektgeschichtlichen Zäsur

Aus den Diskussionen in den St. Pöltener Gesprächen 1 lassen sich Ästhetiken ableiten, die Hinweise darauf geben, ob und inwiefern zeitgenössische Kunst in der Tradition der objektgeschichtlichen Zäsur steht. Erich Hörl sieht (1) eine „Kunst der Assemblage“ als Versuche einer Gesellschaft, die sich nicht mehr erfassen kann, überhaupt noch angemessene Beschreibungen zu finden. Christian Kassung führt an, dass Kunst, da sie andere Systeme der symbolischen Operationen zur Verfügung hat, (2) „Ordnungen der Komplexität“ statt der Linearität und Kausalität schaffen kann. Zugleich wäre (3) „Kunst als Beschreibung“, die an die Stelle großer Narration tritt, ein Hinweis dafür, dass einer technischen Sinnverschiebung Folge geleistet wird. Kunst könnte mithin daraufhin betrachtet werden, welche Weisen der Beschreibung von Welt, Menschen und Dingen sie vornimmt in einer Zeit, deren epistemische Konstitution im Beschreiben liegt. Schließlich sei zu erkunden, so Claus Pias, ob in der Kunst so etwas wie eine (4) „Utopie vernetzter Kommunikation“ auftauche. Mit dieser wurde die Kybernetik in den 1960er Jahren mit kooperativen Konzepten vermenschlicht fortgeführt.

Die an dieser Stelle zusammengestellten Kriterien, mit denen im letzten Kapitel der Lab analysiert werden wird, rahmen die Aufgabe der Publikation: die Kultur der Beobachtung von Kunst vorzuschlagen und zu entwickeln. Dies ist von größter Relevanz, denn Kunst ist eine kulturbildende und epistemische Arbeit einer Gesellschaft, die in Zeiten der Krise auf der Suche nach neuen, post-anthropologischen Selbstbeschreibungen ist.


  1. Vgl. einführend: Lorenz Engell, Bernhard Siegert, „Editorial Kulturtechnik“, in: Hg. Lorenz Engell, Bernhard Siegert, Zeitschrift für Medien- und Kulturforschung, Schwerpunkt Kulturtechnik, Heft 1, 2010, Hamburg 2010, online: http://www.ikkm- weimar.de/publikationen/zeitschrift/10_1_editorial/prm/268/ses_id__373a92856 b95dfcaae0f982114357620/cs__11/index.html, gesehen am 25.3.2011.
  2. Norbert Wiener, Kybernetik. Regelung und Nachrichtenübertragung im Lebewesen und in der Maschine, Düsseldorf, Wien 1963.
  3. Dieses Paradigma stammt von Douglas Engelbart. Vgl. den Aufsatz: Douglas Engelbart, Augmenting the human intellect. A conceptual framework, 1962, online unter: http://sloan.stanford.edu/mousesite/EngelbartPapers/B5_F18_ConceptFrameworkI nd.html, gesehen am 25.3. 2011.
  4. Vgl. zu Lickliders Visionen der vernetzten Arbeit die beiden paradigmatischen Aufsätze: Joseph Carl Robnett Licklider, Man-Computer Symbiosis, 1960, sowie ders. The Computer as a Communication Device, 1968, online unter: http://memex.org/licklider.pdf, gesehen am 25.3.2011.
  5. Vgl. auch Claus Pias, Details zählen, Vortrag beim IKKM Weimar, 12.11.08, http://podster.de/episode/816781 oder unter: http://www.podcast.de/episode/1136947/IKKM_Lectures_1%3A_Claus_Pias, beide gesehen am 25.3.2011. Hier erläutert Claus Pias die Genese der ANT u. a. aus der Geschichte der Simulation, im Vortrag von Kaufverhalten mit prototypischen Formen objektorientierter Programmierung und agentenbasierter Modellierung am Beispiel von: Arnold E. Amstutz. Computer Simulation of Competitive Market Response, Cambrige/Mass. 1967. Vgl.: Axel Bänsch, Käuferverhalten, München, Wien 2002.
  6. In Details zählen, ebda., zieht Claus Pias EpiSims heran, ein Programm, mit dem derzeit agentenbasiert die Ausbreitung einer Epidemie simuliert werden kann. Entscheidend sei dabei, dass ausgehend von statistischen Daten ein komplexes und individualisiertes Modell entstehe. Dieses überwindet Statistik zugleich da, wo individuelle Verhaltensweisen formalisiert und parametrisiert werden, so dass mögliche Szenarien je detailreich hypothetisch und experimentell ausgeführt werden können. Die Betonung des Details entspricht laut Pias dem Ende der Statistik und damit dem Übergang in eine nur mehr hypothetische Wissenschaft. Vgl. einführend: Manfred Dworschak, Stadt der Seuchen, in: Spiegel online, 21.3.2005, unter: http://www.spiegel.de/spiegel/print/d-39774241.html, sowie die Site zum Projekt: http://ndssl.vbi.vt.edu/episims.php. Zu einer Fallstudie: Phillip D. Stroud u. a., EpiSimS Los Angeles Case Study, 2006, unter: http://public.lanl.gov/stroud/LACaseStudy5.pdf, gesehen am 25.3.2011.
  7. Vgl. auch Claus Pias, Details zählen, Vortrag am IKKM Weimar, 12.11.08, a. a. O..
  8. Vgl. dazu auch Wolfgang Hagen, Es gibt kein „digitales Bild.“ – Eine medienepistemologische Anmerkung, 2004, unter: http://www.whagen.de/publications/EsGibtKeinDigBild/egkdb.htm sowie: ders., Die Camouflage der Kybernetik, 2002, unter: http://www.whagen.de/vortraege/Camouflage/CamouflageVortrag.htm, beide gesehen am 25.3.2011.
  9. Wie Claus Pias, Details zählen, Vortrag am IKKM Weimar, 12.11.08, a. a. O.. sowie die St. Pöltener Gespräche 1. Software-Wissen und die Grenzen der ANT.
  10. Bruno Latour, Der Berliner Schlüssel. Erkundungen eines Liebhabers der Wissenschaften. Berlin, Wien 1996. Es handelt sich um einen Durchsteckschlüssel. Der Schlüssel verfügt an jedem Ende über einen Bart. Um die Türe zu öffnen, muss man den Schlüssel durchstecken und um ihn wieder herausnehmen zu können, die Türe abschließen.
  11. Bruce Sterling, Shaping things, Cambridge Massachusetts, 2005. Siehe zum Buch: http://mitpress.mit.edu/catalog/item/default.asp?tid=10603&ttype=2, mit ausgewählten Kapiteln: http://mitpress.mit.edu/catalog/item/default.asp?ttype=2&tid=10603&mode=toc, Video-Vortrag zum Buch: http://vimeo.com/10256403 sowie: http://video.google.com/videoplay?docid=-8575858411965484751#, alle gesehen am 25.3. 2011.
  12. Jean-Luc Nancy, Le sens du monde. Paris 1993, S. 66.
  13. In seinem Manuskript vermerkt Hans-Christian von Herrmann zu diesem Begriff einen Aufsatz von Bense aus dem Jahre 1946: Max Bense, „Der geistige Mensch und die Technik“, in: Hg. Barbara Büscher, Hans-Christian von Herrmann, Christoph Hoffmann, Ästhetik als Programm. Max Bense / Daten und Steuerung, Kaleidoskopien. Medien - Wissen - Performance. Band 5, Berlin 2004, S. 32-43, hier: 40.
  14. Zitiert nach dem Vortragsmanuskript von Hans-Christian von Herrmann.
  15. Vgl. zur Computerkunst von Michael Noll: http://noll.uscannenberg.org/ComputerArt.htm, mit weiterführenden Links zu Aufsätzen und Videoclips, gesehen am 25.3.2011.
  16. Zitiert nach dem Vortragsmanuskript von Hans-Christian von Herrmann.
  17. Zitiert nach dem Vortragsmanuskript von Hans-Christian von Herrmann.
  18. Processing steht open source zur Verfügung und gehört zur Programmierungsbewegung „Creative Coding“, siehe die folgende Anmerkung. Die Software wird vor allem von Künstlern und Designern benutzt. In der Medienkunst ist seit ein paar Jahren ein deutlicher Shift von interaktiven zu generativen Arbeiten zu beobachten. Vgl. zum Programm: http://www.processing.org/, gesehen am 25.3.2011.
  19. Vgl. dazu auch die Online-Dokumentation „Creative Coding“, Hg. Jochen Koubek und Martina Leeker, zum gleichnamigen Kongress im Juli 2010 an der Universität Bayreuth: http://creativecoding.uni-bayreuth.de/kolloquium- 2010/, gesehen am 25.3.2011.
  20. Diese so genannten „Generischen Dienste“ oder „Cloud Computing“ werden z. B. von der Firma Sales Force betrieben. Vgl. zur Einführung und zu weiteren Links: http://de.wikipedia.org/wiki/Salesforce.com, gesehen am 25.3.2011.
  21. Vgl. einführend: http://www.soa-expertenwissen.de/, gesehen am 25.3.2011. Zudem: Dieter Masak, SOA?, Serviceorientierung in Business und Software, Berlin, Heidelberg, New York 2007, auch bei Google Books online verfügbar.
  22. Vgl. den Videomitschnitt des Vortrags Vom Verschwinden des Terminals von Alexander Firyn auf dem Kolloquium „Creative Coding“: http://creativecoding.uni-bayreuth.de/kolloquium-2010/, gesehen am 25.3.2011.
  23. Es handelt sich um ein Konzept und eine Technik, mit denen Datengruppen gebildet und Zugriffsrechte auf diese geregelt werden. Vgl. einführend: http://de.wikipedia.org/wiki/Datenkapselung_%28Programmierung%29, gesehen am 15.9.2010.
  24. Vgl. hierzu auch die Online-Dokumentation des Symposiums Creative Coding: http://creativecoding.uni-bayreuth.de/kolloquium-2010/, gesehen am 25.3.2011.
  25. Vgl. auch Claus Pias, Details zählen, Vortrag am IKKM Weimar, 12.11.08, http://podster.de/episode/816781 sowie http://www.podcast.at/episoden/ikkm-lectures-1-claus-pias-4220477.html. Vgl. Anmerkung 6.
  26. Vgl. Günter Küppers, Johannes Lenhard, „Computersimulationen: Modellierungen zweiter Ordnung“, in: Journal for General Philosophy of Science, 36/2, 2005, Berlin, Heidelberg, New York 2005, S. 305-329. Online zu kaufen unter: http://www.springerlink.com/content/n201513g352w1t66/. Vgl. auch: Johannes Lenhard, „Mit dem Unerwarteten rechnen? Computersimulation und Nanowissenschaft“, in: Hg. Alfred Nordmann, Joachim Schummer, Astrid Schwarz: Nanotechnologien im Kontext, Akademie Verlag, Berlin 2006, S. 151-168. Online unter: http://www.zit.tu- darmstadt.de/cipp/tudzit/lib/all/lob/return_download,ticket,guest/bid,1276/c heck_table,it_chap_downl_embed/_/lenhard.pdf. Vgl. auch einführend: Sybille Krämer, Simulation und Erkenntnis. Über die Rolle computergenerierter Simulationen in den Wissenschaften, 2009, Unter: http://userpage.fu- berlin.de/~sybkram/media/downloads/Simulation_und_Erkenntnis.pdf. Alles Site gesehen am 21.11.2010.
  27. Vgl. Günter Küppers, Johannes Lenhard, „Computersimulationen: Modellierungen zweiter Ordnung“, 2005, a. a. O..
  28. Helene Hegemann, Axolotl Roadkill, Berlin 2010.
  29. Vgl. zu dieser Forschungsrichtung das IKKM in Weimar: http://www.ikkm- weimar.de/, gesehen am 15.9.2010.
  30. Vgl. zu einer Faszinationsgeschichte des Nicht-Trivialen: Erich Hörl, Rationalitätsschicksale. Luhmann und die Faszinationsgeschichte nichttrivialer Maschinen, Vortrag gehalten am IKKM in Weimar 2008, unter: http://www.ikkm-weimar.de/publikationen/audio_- _video/lectures01_audio_de/prm/197/ses_id__92872ec2e655715e1a29a7de51afdbb4/ cs__11/index.html, gesehen am 15.9. 2010.