Der
gläserne Hund
©1999-2000,
Stephan (Spiv) Schröder
Die „Gatekeeper“ Software entpuppt sich als trojanisches
Pferd - absichtlich hat man Hintertüren einprogrammiert, um Zugang
zu sämtlichen privaten und staatlichen Systemen zu erlangen. Noch
am Tag ihrer Erkenntnis versucht man Angela Bennetts wahre Identität
systematisch auszulöschen um einen globalen Gau zu vermeiden. In unserer
Informationsgesellschaft verdrängen digitale Daten zunehmend das analoge
Papier. Die Krankenakte, KFZ- und Sozialversicherung, Kreditkarte,
was wir essen, welche Bücher wir lieben, woher wir kommen und wohin
wir gehen – alles wird protokolliert, kontrolliert und registriert. Ein Szenario aus dem Film „The Net“ von Irwin Winkler
– das bereits vor Jahren der Utopie entwachsen ist. Das Netz ist längst
nicht mehr das ideale Versteck. Der kleine elektronische Schatten
liegt auf jedem von uns, wartet
nur darauf, manipuliert zu werden und: „Deutschland geht T-Online“
- gehen Sie mit ? Brechts illusorische Radiotheorie mit der Einsicht
des Autors, dass diese „undurchführbar in dieser Gesellschaftsordnung,
durchführbar in einer anderen“ sei, scheint seine Erfüllung im Internet gefunden
zu haben. Das anonyme Medium, welches durch einen Comic illustriert
wurde, in dem der beste Freund des Menschen nonchalant an der Tastatur
verkündet „on the internet
nobody knows you’re a dog“ und konträr dazu der transparente User,
fördert eine seltsame Legierung zu Tage.
Die vielleicht größte Erfindung seit dem Faustkeil
hat sich der sinnlichen wie humanistischen Komponente entledigt und
sich der Zahlentheorie verschrieben. Abgerechnet wird im Netz in einem
Machwerk aus Hits, Clicks, PageImpressions und AdViews, in dem wir
selbst eine Chimäre, also „ein gläserner Hund“ sind.
Um die Position des Netzes gegenüber den anderen Medien
besser verstehen zukönnen, wollen wir uns zunächst der jungen Historie
zuwenden. Im Herbst 1999 wurde in vielen Orten der Welt der Geburtstag
des Internet gefeiert. Das genaue Alter des garantiert mutterlosen,
aber von vielen Vätern erschaffenen Netzes ist angesichts der vielseitigen
Interpretationen und vielfältiger Interessen an der Historie reine
Spekulation. Auch wenn Anfang der 1970er Jahre parallel an Projekten
gearbeitet wurde, die maßgeblich für das heutige Internet waren, empfand
es damals keiner der Wissenschaftler als revolutionär, geschweige
denn, dass jemand hätte erahnen können, dass diese „fixe Idee“ Weltökonomie
verändern wird. Vint Cerf, der bei der MCI Worldcom die „PR-Vaterrolle“
glänzend ausfüllt, definiert den 22.November 1977 als Geburtstag des
Internet. An diesem Tag wurden erstmals drei unterschiedliche Netze
zusammengeschaltet, denn „wenn ein Rechner mit einem Kommunikationsprozessor
Daten austauscht sei das noch lange kein Internet“ ,so Cerf. Leonard Kleinrock plädiert für den 2.September 1969,
den Tag als an der University of California in Los Angeles (UCLA)
der erste Computer an ein Interface Messaging Processor (IMP) angeschlossen
wurde. Der Rechner musste mit einem Kran in das Labor Kleinrocks gehievt
werden, wobei seine einzige Aufgabe darin bestand, Daten zu senden
und zu empfangen. Der Bau des IMP-Rechners wurde, wen wundert es,
von der amerikanischen Forschungsabteilung im Verteidigungsministerium
ausgeschrieben. Nachdem zu dieser Zeit führende Unternehmen wie IBM
den Bau des IMP-Rechners als nicht realisierbar ablehnten, wagte die
Firma BBN den Bau von 4 IMPs unter der technischen Leitung von Bob
Taylor von der Advanced Research Projects Agency (ARPA). Bob Taylor
formulierte erstmals in „The Computer as Communication Device“ [1]
die Idee der Vernetzung aller Computer. Anfang der 1970er Jahre kam die Idee auf, die IMPs
durch Computer abzulösen die keine Spezialrechner waren. Der Informatiker
Bob Metcalfe beschäftigte sich 1972 damit, das hausinterne Netz der
Firma XEROX an das ARPAnet anzubinden und erfand eine Übertragungstechnik,
die er Ethernet nannte. Diese Erfindung weckte das Interesse von Vint
Cerf und Bob Kahn, die 1974 den Vorschlag für ein einheitliches Übertragungsprotokoll
machten. Dieses Protokoll wurde TCP/IP genannt und am 1. Januar 1983
zum offiziellen Standard erklärt. Im Jahre 1989 schließlich, als schon
etwa 100.000 Hostrechner am Datennetz hingen, wurde das in die Tage
gekommene ARPAnet abgeschaltet. Wohl aber nicht nur wegen der technologischen
Unnotwendigkeit, sondern auch weil der Warschauer Pakt in diesem Jahr
zu zerfallen begann. Bis zur Entwicklung des World Wide Web (WWW) durch
Tim Berners-Lee [2] Anfang der 1990er Jahre wurden die bis dahin rein
textuellen Internetdienste wie eMail, FTP, BBS oder das heute fast
schon wieder vergessene Gopher überwiegend universitär genutzt. Von
kommerziellem oder künstlerischem Interesse war das Netz zum damaligen
Zeitpunkt kaum, zumal die graphische Nutzung in skurriler ASCII &
ANSI-Art das Ende der Fahnenstange markierte. ASCII/ANSI-Art versuchte
dabei eine Visualisierung mittels des normalen, auf der Tastatur verfügbaren,
Zeichensatzes zu erreichen - vergleichbar mit den graphischen Möglichkeiten
des damaligen BTX oder des heutigen Videotextes. Durch den zusätzlichen
WWW-Dienst, der völlig neue mediale Möglichkeiten etablierte und heute
fast schon zum Synonym für das Internet schlechthin geworden ist,
wurde das Netz nicht zuletzt kommerziell interessant. Ab etwa 1993 ist ein exponentielles Wachstum des Internet
zu verzeichnen, welches zur Jahrtausendwende in 56 Mio. registrierten
Servern gipfelte. Die Anzahl der Clients kann heute nur noch geschätzt
werden. Die Verbreitungsgeschwindigkeit des Mediums Netz sucht seines
gleichen, laut einer Studie des Pacific Research Institute [3] konnte sich das Internet
9x mal schneller als das Radio, 4x mal schneller als der Computer
und 3x mal schneller als das TV etablieren.
Wenn wir das Netz nicht nur als Technik, sondern tatsächlich
mit den klassischen Medien vergleichen wollen, so hat man „nicht mehr als einen Schrotthaufen, in dem
Gold und Perlen versteckt sind“ [4], wie es der Computerkritiker
Joseph Weizenbaum drastisch beschreibt. Dieser „Schrotthaufen“ soll
im folgenden untersucht werden. 2. Der Computer als Medium. Der Computer ist ein Multimedium, welches sequenziell
die klassischen Medien zu subsumieren scheint. Das Internet explodiert
dabei als ein Medium der Texte und der Schrift, auf der es genaugenommen
basiert. Die dazugehörige Beschreibungssprache HTML, das Fundament
sämtlicher Internetseiten, aber auch Bilder, Töne und Filme basieren
in ihrer digitalen Architektur auf Schrift. Dabei ergibt sich die Paradoxie, dass wir einerseits die technischen Bilder (Fotografie, Film und TV) offensichtlich aufgegeben
haben und wie es scheint, zu Schrift und Sprache zurückfinden, aber
andererseits das Ende der Gutenberg Galaxis verkünden. Maschine, ebenso wie Mechanik, entstammt dem griechischen
Wortstamm Mechus, was soviel wie List bedeutet. Vom Hebel bis zum
Computer sind diese Vorrichtungen zum Überlisten der Natur, die wohl
größte Leistung des menschlichen Gehirns, ohne das man sich jedoch
selbst als Bestandteil der Natur sehen würde. Seit Turing [5] misst man den Maschinen
künstliche Intelligenz bei und arbeitet damit an der Überlistung seiner
selbst. 2.1.
Digital Divide Stets haben wir bei einschneidenden Umwälzungen der
Informationstechnologie oder der Geburt eines neuen Mediums zwei klare
– sozial bedingte Haltungsfronten erkennen können – Euphorie und Pessimismus.
Die eine kennzeichnet das neue Medium als göttliches Geschenk zur
Freisetzung der Möglichkeiten, als Machtzuwachs des Subjekts mit geradezu
emanzipatorischer Kraft, die andere beklagt den Verlust humaner Eigenschaften
und eine zunehmende Abhängigkeit und Fremdsteuerung des Subjekts durch
das Medium selbst. Aus chronologischer Sicht beobachten wir immer
kürzere Akzeptanzzeiten neuen Medien gegenüber. Um 1450 war es Gutenberg, der denjenigen, die des
Schreibens privilegiert waren, erstmals gehörige Zukunftsängste machte.
Verlernt haben wir es bis heute nicht. Im 18. Jahrhundert fürchteten
die Gelehrten die „Lesesucht“ und einen einhergehenden Verlust ihres
Hoheitswissens. Von nun an, so der Glaube, könne jeder Ungebildete
aus Wörterbüchern und Lexika Wissen konsumieren und dies für das seinige
ausgeben. Heute bedauern wir sogar, dass die Menschen so wenig lesen.
Beim Einzug des Telefons warnten Kritiker vor der Vereinsamung der
Menschen. Heute treffen sich die Menschen, weil sie sich per Telefon
verabreden können. Bei der Einführung des Privatfernsehens warnten
viele vor unmäßigem Fernsehkonsum. Heute gibt es 50, morgen vielleicht
500 Kanäle, und die Menschen gucken trotzdem nicht länger. „Für Kulturpessimismus
besteht kein Grund. Die Diskussion über Medieneinflüsse ist alt, nur
das Medium ist neu.“ [6] Doch Dr. Jürgen Rüttgers, damaliger Bundesminister
für Bildung, Wissenschaft, Forschung und Technologie, unterschätzt
das Medium Internet in eklatanter Art und Weise. Kann ein jeder, der
das Alphabet beherrscht, ohne weiteres mit dem Printmedium umgehen,
kann ein jeder der seiner Sinne mächtig ist (ein Empfangsgerät vorrausgesetzt),
fernsehen oder Radio hören – so hat der Abstraktionsgrad des Zugangs
zum Medium Internet stark zugenommen. „Digital divide“ nennt die amerikanische Regierung
das Phänomen der immer weiter klaffenden Schere zwischen Menschen
mit und ohne Netzzugang. Dabei ist der Zugang innerhalb der Onlinegruppe
kein soziologisches Parameter mehr, sondern manifestiert sich an den
technologischen Polen. Die Geschwindigkeit des Prozessors und des
Netzzugangs treten an die Stelle des sozialen Status, Ideologie ist
eine Frage des Browsers oder des verwendeten Betriebsystems geworden
und die Identität ist zur Seriennummer verkommen. Gibt es innerhalb der Fernsehzuschauer oder
Radiohöher kein privilegierteres Moment mehr, so ist beim Netz ein
zweites, inhärentes „digital divide 2“ absehbar. So wird der Benutzer
mit den bestmöglichen technischen Vorraussetzungen zu den privilegiertesten
Benutzern gehören. Schon heute ist ein Trend erkennbar, der dem Nutzer
immer weitere Hard- und Softwareaktualisierung („PlugIns“) aufdiktiert,
ohne die er vom Angebot schlichtweg ausgeschlossen wird. Der privilegierte
Netznutzer wird künftig am schnellsten Informationen konsumieren und
publizieren können, wodurch eine weitere wesentliche Differenz von
Netz und dem Rest der Medien offenbar wird – die Bidirektionalität.
Schon früh setzte Siegfried Krakauer sehr große Hoffnungen
in die Massenkultur. Bei Brecht gibt es die Utopie, den Massenmedien
ihren monologischen Charakter zu nehmen (vgl.[7]) – kaum drei Jahre
später war in ganz Europa die „Wochenschau“ zu sehen und die „Göbbelsschnauze“
(Volksempfänger) zu hören. In Amerika gab es seit den 1970er Jahren
periphere Versuche eines „PublicAccess Television“, wenig später fand
man Verblend-ungsmethoden irgendwo zwischen „Superbowl“ und einem
sterilen, virtuell aufbereiteten Golfkrieg. Der ewige Traum von der
emanzipatorischen Kraft, von der Auflösung des Sender-Empfänger-Paradigmas,
scheint erst heute durch den Computer in Erfüllung zu gehen. Dienten
bislang Medien nicht zur Kommunikation, sondern zu ihrer Verhinderung,
wie Enzensberger[8] bemerkt, so steht
dem heute selbstredend der Slogan eines Internetproviders gegenüber:
„Kommunikation ist alles“. Diese Kommunikation trägt bisweilen merkwürdige Früchte,
die niemand hätte erahnen können – schließlich haben wir es hier mit
einem historischen Novum zu tun. Das einst wissenschaftliche Distributionsnetz
hat die Sphären des von Brecht
geforderten Kommunikationsapparates längst wieder verlassen. Da die
Sendeapparate, die Computer, so selbstverständlich zwischen Käsetheke und Wurstregal des Gemischtwarenladens verkauft
werden und man sich fragt „bin ich schon drin?“ (AOL Werbekampagne)
ohne auch nur minimal zu hinterfragen, warum ich denn rein
soll, gibt es eine wahre Flut an emanzipatorischen Publikationen.
Die totale Kommunikation wandelt sich zu heillosem Gebrüll. Kein Mikrokosmos,
kein noch so abstruses Hobby, welches nicht über den großen „Publizieren“-Button
den Weg ins Netz findet. Ganz davon abgesehen, dass sich nun auch
jeder als Chefdesigner oder Künstler sehen kann, resultiert die Mehrzahl
der Veröffentlichungen im Netz auch rein textuell in eine bizarre
Form von Eigenbrötlerei, die zum Zwecke der Werbung mit Superlativen
bespickt wird. Die Homepage des dörflichen Schützenvereins X koexistiert
so neben dem Online Pendant eines klassischen Medienkonzerns Y. Wege
aus diesem Rauschen fand das System trotz der kurzen Lebenszeit selbst.
Der Tatsache, dass im Sekundentakt neue Websites das
Licht der Onlinewelt erblicken, steht die Erkenntnis gegenüber, dass
das Netz subjektiv kleiner wird. Der Weg,
den der User im Web zurücklegt wird
kürzer – er erforscht weniger und bewegt sich in zunehmenden
Maße auf den ihm bekannten Pfaden und Sites. Der Fakt, dass nun jeder nach Belieben senden kann
und demzufolge natürlich auch empfangen werden will, führt zu einem
interessanten Phänomen, das ich als Portalboom bezeichnen möchte.
Da das Netz dezentral ist, kann sich zwar jeder einbilden, er wäre
im Zentrum des Geschehens - versierte Benutzer kennen allerdings die
auch im Netz bestehende Hierarchiekette. Das Netz operiert inzwischen
in Sphären von „Multi“ und „Meta“. Wer seine Homepage nicht bei Suchservices
anmeldet oder anderweitig bewirbt, ist de facto nicht präsent. Er
sendet also gewissermaßen auf einer unbekannten Frequenz und wird
nicht empfangen. Suchmaschinen und zentrale Einstiegsseiten, die sich
einer speziellen Thematik widmen und kleinere Homepages subsumieren,
versprechen hier Linderung. Jedoch decken Suchmaschinen auch nur etwa
20% des Datenbestandes, daher werden inzwischen mehrere Suchmaschinen
in einer Metasuchmaschine zusammengeschaltet (z.B. www.google.com)
und „special interes“ Portalsites zu größeren „general interes“ Portalsites
zusammengefasst. Die logische Konsequenz ist, dass es Websites gibt,
die punktuell genaues Spezialinteresse ansprechen, wie etwa die Homepage
unseres Schützenvereins X, die ja sehr wohl das Interesse der Mitglieder
des Vereines bedient. Aber andererseits findet der Neueinsteiger immer
mehr einen kommerziellen Interessensquerschnitt Y, ein „general interess“
Geplänkel. Man könnte genauso gut von einer Zweiteilung des Netzes,
in ein ober- und ein unterweltliches, sprechen. Das „unterweltliche“,
indem auch die Perlen versteckt sind, ist nur über geheime Insidertipps
zugänglich.
Der
Computer nimmt keinerlei Rücksicht auf die biologische Uhr des Menschen.
Verkauft, informiert und gesendet wird rund um die Uhr in gleicher
Konzentration und Menge. Zur Folge hat das Senden für ein imaginäres,
zeitunabhängiges Publikum, dass die tägliche Distributionswelle nicht
mehr am Sender, sondern am Empfänger ablesbar ist. Relativ zum Standort
bzw. der Zeitzone des Senders lässt Abb.1 erkennen, dass sich die
Empfänger überwiegend nah am Senderstandpunkt
befinden. Der Server steht in Deutschland, nachts (zwischen
1.00 Uhr und 9.00 Uhr GMT) wird deutlich weniger empfangen, obgleich
sich das nächtliche vom täglichen Angebot nicht unterscheidet. Die
Unruhe, wie Geißler die Hektik der Zeit beschreibt, ist aus der
Uhr ins Leben geflüchtet. [9] 3. Die Informationsgesellschaft. Die Parole der „Informationsgesellschaft“ sagt implizit
erst einmal, dass eine andere Gesellschaft, die Industriegesellschaft,
untergeht oder bereits untergegangen ist. Aufgestellt wurde die These
bereits in den sechziger Jahren, beispielsweise durch Alvin Tofflers
Buch „Future Shock“[10]. Die materielle Produktion, dies ist der Kern
der These, verliert an Bedeutung und die Kopf- oder Angestelltenarbeit
nimmt ihren Platz ein. Und aller Augenschein belegt dies: Werften
und Stahlwerke versinken im Schutt; Banken und Büropaläste schießen
wie Pilze aus dem Boden. Als man sich scheinbar von der schmutzigen
Kohle lösen konnte und das Fernsehen salonfähig wurde, proklamierte
man die Informationsgesellschaft. Nun da wir das Multimediahaus, den „intelligenten“
Kühlschrank und unsere eigene „weltweite Verfügbarkeit“ erreicht haben,
werden Futuristen nicht müde, bereits die Wissensgesellschaft auszurufen.
Begrifflichkeiten wie „Informationsgesellschaft“, „Virtualität“ oder
„Cyberspace“ werden aber nur von einem Bruchteil der Erdbevölkerung
gebraucht, schon insofern ist die Informationsgesellschaft ein Konstrukt
einer elitären Minorität, die, nach Baudrillards Hypothesen, längst
nicht mehr in der Realität sondern in der Hyperrealität lebt.[11] Gesamtgesellschaftlich gesehen ist das natürlich großer
Quatsch, „wer hungert, wird von Simulationen nicht satt“ ,
wie Enzensberger die Informationsgesellschaft entzaubert. Primär dient
das Manifest der Informationsgesellschaft also der Verabsolutierung
der Perspektiven der Propheten dieser Parallelwelt. Die materielle
Produktion verschwindet nicht, sondern wird eher unsichtbar. Was sich
tatsächlich ändert, ist die Arbeitsteilung. Die Fabrikhallen sind
um den Globus herum auf die Süd- und die Osthalbkugel gerutscht, das
Herrenhaus mit der Verwaltung ist in der ersten Welt stehen geblieben.
Dass die Propheten der Informationsgesellschaft, wenn man sie mit
Tatsachen konfrontiert offensichtliche Immunität genießen wollen,
lässt sich an der Ambivalenz von realem und virtuellem Raum ablesen.
Realität und Virtualität, so die Propheten, wachsen immer mehr zusammen.
Dem ist aber mitnichten so, eher das Gegenteil ist der Fall (vgl.
2.1). Waren in der industriellen Gesellschaft die Güter keineswegs
gerecht verteilt, so führt die kritische Betrachtung unserer heutigen
Informationsgesellschaft zu der Frage: Ist unsere Informationsgesellschaft
immer auch zugleich eine informierte Gesellschaft ? Der freie Informationsfluss führt zu einem Paradoxon:
Wir verfügen über eine unvergleichliche Masse an Information oder
Daten, was die Illusion von einem Wissensparadies schürt, von dem
jeder potentiell zehren könne. Damit sind wir bei einem weiteren essentiellen
Problem der Informationsgesellschaft, nämlich dem des Begriffsdilemmas. Die Entropie, so verrät das Lexikon, bezeichnet in
der Informationswissenschaft die Größe des Nachrichtengehalts einer
Zeichenmenge. Nun versucht man, da Bandbreite und Zugangsgeschwindigkeit
elementare Grundpfeiler einer funktionierenden Informations-gesellschaft
darstellen, immer mehr Nachrichtengehalt in immer weniger Zeichenmenge
zu quetschen. Augenscheinlich ist zwar, dass Computerprogramme und
die damit gespeicherten Daten immer größer werden, doch dies beruht
nicht auf technischer Notwendigkeit, sondern findet seinen Ursprung
in der Ökonomie. Keine andere Branche diktiert uns einen derart rasanten
Kaufrausch. Das Gespann aus Software- und Hardwarehersteller floriert
eigentlich nur, weil nichts so richtig funktioniert. Stellen Sie sich
vor Sie müssten ihr Auto jedes Jahr aufrüsten um noch am Straßenverkehr
teilnehmen zu dürfen. Unvorstellbar – aber praktiziert in der Computerbranche.
Die Datenreduktion möchte ich in zwei Phasen einteilen: In Phase 1 kommt es dadurch zu einer Kastration des
Sinnlichen, nämlich dessen, was als überflüssig bewertet wird. Als
Beispiel kann das beliebte Musikformat MP3 (MPEG Layer3) dienen. Bei
dieser digitalen Musik werden zum Zweck der Kompression Frequenzen,
die der Mensch nicht bewusst hört, die jedoch immer mitschwingen,
abgeschnitten. Technikfetischisten begeistert, dass sie nun 20 CDs
auf der Kapazität von einer unterbringen können, Musikgenießern ist
das MP3 Format ein Graus.
Flankiert wird der Kompressionswahn und die geringe
Halbwertszeit durchschnittlicher Technik von einer Flüchtigkeit, die
die Informationsgesellschaft abverlangt.
So ist es kein technisches sondern eher ein psychologisches
Phänomen, dass beispielsweise Emails immer mehr einem Telegramm gleichen
und immer weniger vermeintlich Überflüssiges, wie dies noch beim Brief
der Fall war, beinhalten. Diesen Zeitsog, dem die Menschen erlegen
sind, beschreibt wohl kaum ein Satz besser, wie jener den ich im Rahmen
meiner Recherche im Netz fand: „Kürzlich sagte mir ein Bekannter, er übertrage jetzt
seine Daten mit 200KB/sec, ich wunderte mich – welch’ ein schneller
Leser...“ Neben der Zeit ist der zentrale Wert der Informationsgesellschaft
nicht Information, sondern Wissen. Wer informiert ist, wer etwas weiß,
ist noch nicht wissend oder wie der Philosoph Jürgen Mittelstraß
bemerkt: „Wissen setzt den Wissenden voraus.“ Auf den Infobahnen wandelt sich, wenn überhaupt,
Wissen zur digitalen Information. Es braucht einen Wissenden,
der aus Daten oder Information wieder Wissen macht. Die Schwierigkeit
liegt dabei, dass wir gewissermaßen an einer Überdüngung von Daten
leiden und inzwischen immer neue Informationen und neue Werkzeuge
brauchen, um alte Informationen zu kanalisieren. Im Gegensatz zum
Printmedium gibt es im Internet weder ein zentrales Archiv im Sinne
der „Deutschen Bücherei“, noch ein eindeutiges Archivsystem im Sinne
der ISBN. Die „Deutsche Bücherei“ existiert seit 1912 mit der Maßgabe
der Ablieferungspflicht der Verleger. Im Netz besteht keine Anmeldepflicht
bei Suchmaschinen. Ebenso wenig sind Inhalte im Netz explizit und
unikat auffindbar, wie dies durch die ISBN Nummer bei Büchern garantiert
ist. Ein Serverinhalt kann mehrere Male dupliziert worden (mirror)
oder auch nicht mehr existent sein. Die Suchmaschinen und Portalsites (vgl.2.2) werden
dadurch zu (meist kommerziellen) Machtinstrumenten, die uns den Blick
auf die Dinge gewähren oder versperren. Hierbei kann zwischen zwei
Variationen unterschieden werden: dem Roboter und der Redaktion. Redaktionell
betreute Suchmaschinen und Kataloge (z.B. „Yahoo“) entscheiden dabei
subjektiv was gezeigt wird und was nicht. Suchmaschinen die rein technologisch
über Roboterprogramme das Netz durchforsten, können wiederum nicht
kontextsensitiv arbeiten, denn „Altavista“ wüsste beispielsweise „Kohl“
weder bei Gemüse noch unter Politiker einzuordnen. Zu diesem Zweck
entstand auch die Suchmaschine für Netzkunst „verybusy.org“, die jeden
Benutzer auch gleichzeitig zum Redakteur erhebt. Nach Immanuel Kant
definiert sich Objektivität durch Intersubjektivität. Das anscheinend mit Bravour gelöste Problem des 19.
Jahrhunderts, wie möglichst schnell Informationen von A nach B zu
transportieren seien, invertiert sich, und wir stehen nunmehr vor
dem Problem, wie wir die Informationen wieder los werden. Information
ist gleichsam zu einem globalen Müllproblem geworden, wie in ähnlich
skurriler Weise etwa Bargeld lästig ist, weil es das Portemonnaie
unnötig aufbläht. Die intelligente Kombination von Informationen resultiert
in Wissen. Die Informationsflut kann schnell zur Wissensdürre werden,
was wiederum im System selbst seine Ursachen findet. Anstelle des
Kontextes tritt der Link, die vielbeschworene Hypertextualität resultiert
in einer unerträglichen Verstrickung, die die Psychologie „Option
Paralysis“ nennt. Dem Menschen werden zu viele, zu undurchsichtige
Parameter gegeben, so dass dessen lineare Auffassungsgabe kapitulieren
muss. Gelingt die Konsolidierung zu Wissen in Folge der
Isolierung von Information, soll
im folgenden eine erhöhte Aufmerksamkeit der Authentizität der Information
zuteil werden. Von den ersten Rauchzeichen, Keilschriften, Papyrus,
über die Seefahrer des 15. Jahrhunderts, bis zur Telegraphie, Radio,
TV und Internet – beruht unser Weltbild auf Überlieferungen, Niederschriften,
Erzählungen – kurzum, auf Medien. Analogen Aufzeichnungen auf physischen Medien haftet
dabei der Nimbus des Objektiven, des „Wahren“ an. Filmmaterial half
bei der Aufarbeitung der unseligen deutschen Geschichte, Tonbandaufnahmen
brachten Mörder ins Gefängnis, die Graphologen brachten politische
Größen in Bedrängnis. Erste offenkundige Fälschungen dieser analogen
Medien fand die Wissenschaft zur Zeit Karl des Großen (747-814), in
der Zeit, in der eben dieser Karl der Große eine Schriftenreform und
eine damit einhergehende Vereinheitlichung durchsetzte. Dennoch grenzt der gefälschte Nachdruck und die Verteilung
einer Tageszeitung auch heute noch ans Unmögliche, nicht aber der
Austausch eines Artikels auf einem Internet-Server. Ein Telefongespräch
ist authentischer als eine Email, ein Celluloidstreifen „echter“ als
ein MAZ-Zusammenschnitt, der Blick aus dem Fenster oftmals glaubwürdiger
als der Blick in den Fernsehapparat. “Was wir von der Gesellschaft und ihrer Welt wissen,
wissen wir fast ausschließlich durch die Medien. Gleichzeitig haben
wir jedoch den Verdacht, dass dieses Wissen permanent manipuliert
wird.“ [13] (Luhmann) Geht es um die Wahrung finanzieller und urheberrechtlicher
Interessen, so ist man schnell mit Passwortschutz und anderen Lösungen
zur Hand. Bei einer wirksamen Methodik der Verifizierbarkeit digitaler
Informationen, wie die eines digitalen Wasserzeichens, tut man sich
dagegen vergleichsweise schwer. Obgleich Fälschungen (z.B. diverse
Urkunden, die Bibel usw.) seit jeher existieren, so haben wir gerade
heute z.B. durch die sogenannte Checksumme
die Möglichkeit, Fälschungen und Manipulationen vergleichsweise
einfach zu filtern. Wir kennen heute bereits Werbespots, die längst verstorbene
Schauspieler mittels „Motion Capturing“ [14]
wieder in neuem Ambiente aufleben lassen. In etwa fünf Jahren wird
Mensch und Mimik in Echtzeit simuliert werden können. Die Möglichkeit
Sein und Schein zu unterscheiden sei durch die Medien bereits abgeschafft,
behauptet Baudrillard auf der einen, „Auf die Trägheit des Körpers
ist Verlass. Das Zahnweh ist nicht virtuell.“ [15] Enzensberger konträr dazu auf der
anderen Seite. Ich persönlich halte beide Aussagen für zu absolut.
Information schließt immer auch Desinformation ein. Die Welt ist keine
Simulation, allenfalls die Welt hinter der Mattscheibe. Diese jedoch
wird zunehmend perfekter. Es dürfte nur eine Frage der Zeit sein,
wann holographische Systeme eine neue Qualität der Irritierung etablieren.
Dass Desinformation oder die Etablierung einer Unwahrheit nicht zwingend
ausgereifter technischer Lösungen bedarf, ist bereits geschichtliche
Erfahrung. Das eigentlich Gefährliche (was Enzensberger großzügig
übersieht) ist heute die nahezu uneingeschränkte Manipulations- und
Verbreitungsmöglichkeit digitaler Daten. Das tilgt letzte Skrupel,
dergleiche Machenschaften für den eigenen, geldwerten oder politischen
Vorteil zu gebrauchen.
Kritisch reflektiert wurde Orwells Werk gerade wegen
der Methodik des Big Brother in den 1970er Jahren mit dem Aufkommen
des Kabelfernsehens, wodurch terrestrische Antennen mehr und mehr
verschwanden und die Vernetzung erstmals auch augenscheinlich wurde. In Hinblick auf die veränderte politische Lage bei Orwell argumentierte
Enzensberger zu einer Zeit da von Internet noch keine Rede war: „George Orwells Schreckbild einer monolithischen Bewusstseins-Industrie
zeugt von einem Verständnis der Medien, das undialektisch und obsolet
ist. Die Möglichkeit einer totalen Kontrolle solcher Systeme durch
eine zentrale Instanz gehört nicht der Zukunft, sondern der Vergangenheit
an. ... Informations-Quarantänen
sind heute nur noch um den Preis industrieller Regression möglich.“
[17] 1970 gehörte die Informationsquarantäne und die einhergehende
industrielle Regression jedoch noch längst nicht der Vergangenheit
an. Analog zu Orwells Sinnumkehrung des „Ministry of Truth“, welches
für die Verbreitung von Lügen verantwortlich war, war das Ministerium
für Staatssicherheit der ehemaligen
DDR keineswegs für die Sicherheit des Staates oder seiner Bürger zuständig.
Selbst nachdem das System vor über einem Jahrzehnt zusammenbrach,
sind die Parallelen zu Orwells Schreckbild frappierend und erschreckend
zugleich. Der DDR-Staatssicherheitsdienst bespitzelte und ängstigte
nicht nur die eigenen Bürger, er hatte seine Abhörgeräte auch auf
die Schaltzentralen der westdeutschen Eliten gerichtet. Kennern der
Materie war schon länger klar: Wenn die Aufzeichnungen der Stasi-Telefonaufklärung
auch nur in Teilen bekannt werden, müssen einige Kapitel der offiziellen
Nachkriegsgeschichte Westdeutschlands neu geschrieben werden. Ein
in über vierzig Jahren gezüchtetes Netzwerk aus Informanten, Decknamen,
Wanzen mit direkter Anbindung zum Kreml, an deren Spitze Erich Mielke
in der Rolle des Orwellschen O’Brien stand, schreibt auch nach der
massenhaften Vernichtung von Daten immer wieder Schlagzeilen. Das emanzipatorische Potential des von Brecht geforderten
und nun endlich etablierten Rückkanals, ist gegenteilig genau das,
was der Staat fürchtet wie die Pest. Nicht umsonst wurde in den Diktaturen
des Ostblocks penibel genau darauf geachtet, dem Volk möglichst wenig
Medien, in konsumierender als auch produzierender Weise, an die Hand
zugeben; bezüglich auf den konsumierenden Bürger durch Minimierung
staatlicher Medien, wie Presse oder TV-Kanäle, zur Wahrung einer einhergehenden
kontrollierenden Übersicht. Die produzierende Seite bedarf kaum mehr
einer Erklärung, jedoch hier ein erinnerndes Beispiel: In der DDR
war ein Telefonanschluß ein Privileg, das Ärzten, Mitarbeitern der
Feuerwehr und Spitzeln vorbehalten war; Ausnahmen galten innerhalb
des Volkes schon als verdächtig. Ferner waren die Telefone damals
verplombt. Die Kommunikationstechnologie war strengstes Staatsgeheimnis.
„Zivilisation beruht letztlich auf Zwang. Was die Gesellschaft
zusammenhält ist nicht die Polizei, sondern der gute Wille der kleinen
Leute, und doch ist dieser gute Wille machtlos, wenn die Polizei nicht
da ist, um ihn zu unterstützen.“ Ich halte „1984“ für aktueller denn je, nicht des politischen
Gehaltes sondern der Methodik wegen. Freilich ist eine Situation wie
Orwell sie in „1984“ beschreibt nur noch in wenigen diktatorisch verfassten
Staaten möglich, aber darum geht es auch gar nicht. Die Staaten und
damit deren politische Interessen werden im digitalen Raum zunehmend
obsolet. Heute wo Diktaturen aber auch demokratische Staaten
durch eine digitale Parallelwelt ersetzt werden, nützt es nichts,
die Zwinge nachzuziehen – sondern man muss sie komplett neu ansetzen.
Versuche, wie beispielsweise in China, das Surfverhalten staatlich
zu kontrollieren, scheitern an einem umspannenden Netzwerk aus Satelliten
auf der einen, an der Möglichkeit der anonymen Datenreise auf der
anderen Seite. Die Dompteure der digitalen Manege sind nicht die Staaten,
sondern die Software-Giganten, die überpolitische kommerzielle Interessen
haben. Hier manifestieren sich die Grenzen neu entlang der technischen
Parameter. Es gelten keine Gesetze, sondern die Standards der globalen
Marktführer. Als rudimentärer Rest staatlicher Regulierung kann die
Domainvergabe gelten. So ist es beispielweise in Spanien nicht möglich,
ohne Gewerbeschein eine dem Staat zugeordnete Domain .es anzumelden,
woraus resultiert, dass Spanier für gewöhnlich auf .com oder
.net Adressen ausweichen. Noch grotesker wird die Staats- und
Gesetzesangehörigkeit dadurch, dass es jedem frei steht, sich anonym
unter .to (Tonga), .sc (Seychellen), .gu
(Guam) usw. sein virtuelles Lager aufzuschlagen; Inselparadiese,
die selbst mit dem Finger auf der Landkarte einigen Personen Probleme
der Ortung bereiten dürften. Wenn diese Inseln nun tatsächlich ans
Netz angebunden sind, so gibt es dort sehr wohl eine staatliche Ordnung,
könnte man einwerfen. Doch auch hier fand ich eine verblüffende Ernüchterung
in einer Liste möglicher Domain-Endungen einer Analysesoftware; wer
auf Nummer sicher gehen will bedient sich einfach der Adresse .nt
(neutral zone). „Sex sales“ sagt man und beschreibt damit eines der
finanziellen Zugpferde des Internets. Das anonyme Netz hat den Voyeurismus
salonfähig gemacht, der nun auch im TV seine Parallelen findet. Der
gefürchtete Big Brother wird in die Sphären des Entertainment katapultiert,
ähnlich wie der einst wildlebende Bär nun im Zirkus tanzt. Von diesem
Bären geht keinerlei Gefahr mehr aus, nachdem man ihm die Pranken
beschnitt und die Zähne heraus brach. Aus ähnlich sicherer Distanz
darf man sich nun dem entzauberten Big Brother nähern bzw. selbst
dessen Rolle einnehmen, so etwa in der Fernsehshow „Big Brother“
auf dem Kanal RTL2, die sich selbst als „Life Soap“ versteht.
Das Sendekonzept fußt auf einem scheinbaren Machtzuwachs des Zuschauers,
der über Wochen hinweg das
Leben junger Leute beobachten kann, die ohne Rückbindung zur „Außenwelt“
in einem Wohncontainer hausen. Man darf kleiner „großer Bruder“ sein
und ist doch nur Quotenmarionette des Produzenten „ENDEMOL Productions“. Die Medienindustrie gibt sich dabei alle erdenkliche
Mühe, von einer tatsächlichen Gefahr abzulenken und unsere Überwachung
vergessen zu lassen. Dass der Staat in Zeiten eines globalen Netzes eine
Kontrollmacht aufbauen kann, darin irrte Orwell freilich, wohl aber
anderen Instanzen ist dies möglich. Wer seine Software nicht selber schreibt, seine Hardware nicht selber lötet
und sich somit einem Industrie-Standard hingibt, ist immer auch potentielle
Zielscheibe speziell in der Netzwelt, wie ich im folgenden zu belegen
versuche.
Die Kontrollstruktur der Observatoren ist hierarchisch aufgebaut.
Diese Hierarchie soll ihre Analogie in der Anordnung der nächsten
Kapitel finden. Das neuste Werk der Berliner Künstlerin Andrea Zapp
„Little Sister“ (www.azapp.de/littlesister/) ist ein non-stop „CCTV
Drama“, eine Daily Soap aus Webcams und Überwachungskameras, die den
Benutzer in eine voyeuristisch privilegierte Position bringt. Man
wähnt sich als Superbeobachter. Das
Beobachten solcher exhibitionistischer Internetvideos erfolgt zumeist
– wie auch hier - über das populäre Streamingverfahren Realvideo der
US-amerikanischen Firma Real Networks. Das Unternehmen Real Networks wiederum sah sich Ende
1999 mit einem Gerichtsverfahren konfrontiert, weil der Realplayer
sowie der Multimedia-Player von Microsoft gezielt Userdaten an die
Server von Real Networks übermittelten,
aus denen sich das Unternehmen eine Analyse der Hör- und Sehgewohnheiten
der Benutzer erhoffte (vgl.[19]).
Jede Rolle, die man selber als kleiner „großer Bruder“ ausfüllen kann,
scheint wiederum durch eine höhere Instanz kontrollierbar. Die Ambivalenz von Privatsphäre und dem, was die Computerbranche
mit Begriffen wie „datamining“ oder „user-profiling“ umschreibt, wird
seitens dieser oft mit dem Argument der Kundenbetreuung entschärft
und grobe Fahrlässigkeit mit angeblicher Unkenntnis argumentiert.
So kümmerte sich auch Chip Hersteller Intel zuletzt
hingebungsvoll um seine Kundschaft
und gab bekannt, dass man in den Pentium III Prozessoren Seriennummern
eingearbeitet habe. In bekannt doppelter Formation verkündete dann
auch Microsoft dem unerfahrenen Benutzer, dass
dank des Pentium III das Internet nun noch schneller und bunter
auf den heimischen Monitor kommen würde. Die Seriennummer des besagten
Prozessors, so Intel, diene als elektronischer Ausweis für den sicheren
Online-Einkauf. Die drohende Nebenwirkung allerdings; wie von selbst
entsteht ein detailliertes Einkaufsprofil des Kunden. Anhand dieses,
bare Münze werten Profils, lässt sich der Kunde dann gezielt mit auf
ihn abgestimmten Werbekampagnen überschütten. Viele Online-Shops bieten
dem treuen Stammkunden heute aufgrund seiner Vorlieben spezielle Angebote
an oder lassen ihn selbst die virtuellen Regale konfigurieren. Im
Falle Intel ist der Big Brother aber direkt in der Hardware implantiert,
ein Austauschen der Software bzw. des Betriebsystems bringt rein gar
nichts. Datenschützer zeigten sich dann auch alarmiert und riefen
auf zahllosen Kongressen zum Boykott des verräterischen Schaltkreises
auf. Andere Experten wiederum winkten ab und stellten nüchtern fest,
dass digitale Gravuren, sogenannte „Globally Unique Identifiers“,
seit langem Bestandteil von Festplatten, Steckkarten oder Modems sind.
Microsofts Politik ist allerdings alles andere als undurchsichtig.
Seit dem ersten 32-BIT Betriebsystem Windows 95 dürfte auch Gelegenheitsnutzern
klar sein, wohin die Reise geht. Das Betriebsystem verschmilzt zunehmend
mit dem Internet-Browser und mutierte bis zur letzten Veröffentlichung
(Windows 2000) zu einem Riesenbrowser mit peripherem Betriebsystem. Interessant sind hinsichtlich Microsofts aggressiver
Verkaufspolitik frappierende Parallelen zu Orwell. So heißt es in
Königs Erläuterungen und Materialien: „Orwells letzter Roman zeigt
die Welt aufgespalten in drei Supermächte, Ozeanien, Eurasien und
Ostasien, die einander in Herrschaftskultur und Ideologie gleichen.
Der Scheinkrieg, den sie gegeneinander führen, dient ihnen als Alibi
für Gewaltmaßnahmen im eigenen Machtbereich.“
[20] Und im weiteren: „... die sich im Dauerkrieg um den
Rest der Erde befinden, aber niemals stark genug sind, sich gegenseitig
völlig zu besiegen und dies auch gar nicht beabsichtigen“. [21] So werden die Gewaltmaßnahmen im eigenen Machtbereich
Microsofts, das Diktat ständiger Updates etwa, mit der Konkurrenzsituation
argumentiert. Um diese wiederum zu erhalten, subventionierte Gates
beispielsweise die Apple Macintosh Computer, als diese im Jahre 1998
kurz vor dem finanziellen Ruin standen. Das Betriebsystem und die Office Anwendungen aus dem
Hause Microsoft, deren Markt-Dominanz bei etwa 90% liegt, aktualisieren
und reparieren sich selbstständig aus dem Netz und optisch wie faktisch
besteht bei der Navigation kein Unterschied mehr darin, ob ich mich
auf meiner Festplatte oder über das Internet auf einem fremden Rechner
bewege. Übertroffen wird das durch die Vision von Bill Gates, wonach
künftig der Rechner über keine eigene Festplatte verfügen soll und
Betriebsystem, Anwendungen sowie persönliche Daten „on demand“ über
das Internet bezogen werden. Die Grenzen von öffentlichem und privatem
Raum werden damit vollends obsolet. Mit digitalen Signaturen und Zahlenkolonnen kann ja
niemand wirklich etwas anfangen, möchte man meinen, denn es existiert
ja keine Datenbank, die diese Information mit einer Person in Verbindung
setzt. Doch auch hier waren es die Mannen um Bill Gates, die ganze
Arbeit geleistet haben, dies zu widerlegen. Der „Registration Wizard“,
der Sie freundlich und hilfsbereit durch jede Installation einer Software
unter Windows 98 dirigiert, erwies sich als Plaudertasche im System.
Für gewöhnlich fragt dieser
fadenscheinig über ein Formular
Namen, Telefonnummer und dergleichen ab, was auch das modernste Programm
nicht zu eruieren im Stande ist. Andere Informationen, wie Email Adresse,
Netzwerknummer des Rechners, benutzte Hard- und Software und so fort
werden automatisch im Hintergrund gesammelt und gebündelt zur Zentrale
des Software-Giganten nach Redmond versandt. Dieser Dateneingriff
implantiert sich dann auch in verschlüsselter Form in jeden Brief
und jede Tabelle, die mit Microsoft Office Produkten entstanden ist.
Ob anonyme Schreiben an die Presse oder Firmeninterna, Redmond hat
den Schlüssel zu den Klarnamen. Zwar werden ständig neue Bugfixes [22]
auf den Markt geworfen um die aufgebrachte Meute zu besänftigen, doch
wer installiert diese ? Zwar kann man auf ein gemeinschaftlich entwickeltes
Betriebsystem wie Linux wechseln und hoffen, dass durch die dezentrale
Programmierung und beständige Kontrolle der Entwicklergemeinde ein
zentraler Informationsgau zerstreut wird oder gar nicht erst manifestierbar
ist. Doch welches Großraumbüro, welche öffentliche Institution oder
welches Unternehmen stellt sich aufwendig um ? Abhilfe schafft hier lediglich eine selbst suggerierte
Überzeugung von der Banalität seiner eigenen Daten oder die Meidung
des Computernetzwerks. Sind von den Methoden der Software-Giganten
ausschließlich deren Produktbenutzer betroffen, so existiert auch
hier ein übergeordneter Big Brother, dem sich auch die Software- und
Hardwareproduzenten nicht entziehen können. Der große amerikanische
Lauschangriff „Echelon“, eine gesamt-gesellschaftliche Spionage auf gänzlich anderer
Ebene.. 4.2. Echelon ”Manipulation, zu deutsch Hand– oder Kunstgriff,
heißt soviel wie zielbewusstes, technisches Eingreifen in ein gegebenes
Material. Wenn es sich um ein gesellschaftlich unmittelbar relevantes
Eingreifen handelt, ist Manipulation ein politischer Akt.“ [23] Zwischen
Washington und Baltimore liegt das 3500 Seelen Dorf Ford George
Meade. Ein ganz normales amerikanisches Dorf könnte man denken - fast.
Jeden Morgen lassen Pendler das Dorf auf das 15-fache anschwellen.
Bevor man sich dort überhaupt aufhalten darf, wird Monate lang die
Lebensgeschichte geprüft und man muss eine Vereinbarung unterzeichnen,
niemals ein Wort über die Siedlung, ihre Bewohner und deren Arbeit
zu verlieren. Das Dorf ist von einem Zaun aus Stacheldraht
umgeben, alle hundert Meter mit Schildern „Fotografieren verboten!“
bespickt. Hinter einem zweiten Hochspannungszaun, patrouilliert von
Militär und bewacht von versteckten Kameras die jede Bewegung aufzeichnen,
strecken sich Bovisten ähnliche Gebäude in den Himmel – welcome to
Ford Meade, National Security Agency (NSA) Headquarters. Die NSA wurde 1952 mit dem Auftrag
gegründet, die hochspezialisierten technischen Aufgaben der geheimdienstlichen
Tätigkeiten der USA zu betreuen. Entgegen anderen Geheimdiensten des
„Kalten Krieges“ richtete sich die Aktivität der NSA nicht primär
gegen militärische Ziele. Ein wesentlicher Aspekt der Arbeit ist ein
weltweites Abhörsystem mit dem Namen „Echelon“, das von der NSA konzipiert
wurde, koordiniert wird und in Zusammenarbeit mit Großbritannien,
Kanada, Neuseeland und Australien umgesetzt wurde. Das Echelon-System
ist vornehmlich dazu konzipiert, jede Form moderner Kommunikation
(Telefon, Fax, Pager, Email, Telex, Handy ...) zu überwachen und nach
„interessanten“ Inhalten zu durchforsten. Zur Massenüberwachung, die,
so schätzen Experten, jährlich 1 Billion US-Dollar verschlingt, wurde
ein ganzes Netzwerk geheimer Abhöreinrichtungen aufgebaut. Waihopai
(Neuseeland) oder die in der einsamen Moorlandschaft Nordenglands
gelegene Station in Menwith Hill überwachen beispielsweise die 20
Satelliten der Intelsat Gruppe, über die der Großteil der weltweiten
satellitengestützten Kommunikation abgewickelt wird. Andere überwachen
landgestützte Kommunikationskanäle, Radio und Funkwellen, deren Abhören
ohne weiteres aus dem Weltall per Satellit möglich ist – folglich
wird dies auch praktiziert. Eine der ersten Serien von Spionagesatelliten
dieser Art trug den Codenamen „Rhyolite“ und wurde 1973 erstmals ins
All geschossen. Einfacher ist natürlich, die Kommunikationsanbieter
zu überzeugen, notfalls per Gesetz zu zwingen, eine Abhörschnittstelle
zur Verfügung zu stellen. 1945 stimmten in den Vereinigten Staaten
ITT World Communications, Western Union und RCA Communications einem
solchen Vorhaben zu, und auch in Deutschland ist im Telekommunikationsgesetz
verankert, dem Bundesnachrichtendienst (BND) ein Ohr am Draht einzuräumen. Innerhalb der NSA gab es zu Zeiten
des „Kalten Krieges“ Abteilungen wie ADVA (Advanced Soviet), GENS
(General Soviet), ACOM (Asian Communists), die auf das Abhören dieser
Länder und das Entschlüsseln diplomatischer und militärischer Kommunikation
spezialisiert waren. Von Beginn an gab es jedoch auch immer eine Abteilung
ALLO (all others), die den Rest der Welt ausspionierte und der nach
dem Zerfall des Ostblocks besondere Aufmerksamkeit zu teil wurde.
Zwei der geheimsten Operationen der
NSA trugen die Namen „Shamrock“ und „Minaret“. Geheim hielt man diese
Operationen schlicht und einfach deshalb, weil sie illegal waren:
Die NSA ist ein Auslandsgeheimdienst, die Überwachung von US-Bürgern
ist ihr verboten. Erste Risse in dieser Trennung entstanden aber schon
1953 mit dem Beginn der Operation „Shamrock“. Zum präventiven „Schutz
der nationalen Sicherheit“ sollten ausländische Regierungen, Individuen
und Organisationen, die a.) als Agenten
Einfluss auf US-Friedensgruppen zu nehmen versuchen, oder b.) US-Organisationen beeinflussen oder kontrollieren
oder c.) in Kontakt
mit ausländischen Regierungen stehen oder d.) als Agenten
in den USA tätig sind identifiziert werden. Einmal mehr zeigte sich, dass solche
„Watch-Listen“ die Tendenz zum Wachstum haben. Schnell wurden die
Aktivitäten radikaler Studenten, jugendlicher Aktivisten, militanter
und bewaffneter Gruppen observiert, ebenso wie Antikriegsaktivisten,
Deserteure und deren Komplizen, Wahlboykotteure und Proteste gegen
die Regierung sowie Medienauftritte mit verwandten Inhalten.
Ob nun der Globalplayer USA tatsächlich in einer solchen
privilegierten wirtschaftlichen Lage ist, ist letztlich irrelevant
– in einer derart eigenmächtigen ethischen Lage sollten sie nicht
sein. Diejenigen, deren Ethos es schon immer war, alte Tugenden
wie Moral im sterilen digitalen Raum aufrechtzuerhalten, sind die
Hacker. Für die einen verantwortungslose Pubertäre, für die anderen
die „Robin Hoods“ des Cyberspace, haben Hacker eine konkrete Macht
des digital-politischen Infiltrierens gleichsam einer Guerilla. Die
Antwort auf Echelon kam postwendend am 21. Oktober 1999 unter dem
Namen „Jam Echelon Day“ daher. Dabei wurden Millionen Internetnutzer
aufgefordert, ihre Emails in der Signatur (am Ende der Botschaft)
mit Schlagwörtern zu versehen, die dann das Echelon-System aufmerksam
werden lassen. Das rapide Anwachsen offenbar höchst brisanter Nachrichten
würde Echelon nicht verkraften und unter der Last der Informationsflut
zusammenbrechen. Unter www.Xechelon.com richtete man zudem einen Phrasengenerator
ein, der in einem Zufallsverfahren Sätze bildet, die man in fingierte
Emails einbauen sollte. Beispielsweise: Die amüsante Idee der Überflutung, die bei der Chance
2000 „Aktion Wörther See“, dem ehemaligen Kanzler eher ein müdes Lächeln
abgerungen haben dürfte, verebbte dann auch mit demselben Effekt in
den Gesichtern der NSA-Wissenschaftler. Dem liegen mehrere Fakten
zugrunde. Die reine Textrecherche und die Auswertung ist seit
Jahrzehnten ein typisches Aufgabenfeld der Computerlinguistik. Dass
die NSA dabei über Analytiker verfügt, die weit komplexere Aufgaben
als das Programmieren einer Rechtschreibprüfung in einer Textverarbeitung bewältigen können, versteht sich von selbst.
Explizite Schlagwörter zu filtern, die zudem kaum in
terroristischen Nachrichten in dieser Reinform auftauchen werden,
dürfte die Profianalytiker wenig beeindrucken. Wesentlich mehr Kopfzerbrechen
würde da schon ein erhöhter Gebrauch von „PGP – Pretty Good Privacy“
verschlüsselten Emails auslösen. Je intensiver der Grad der kryptographischen
Maßnahmen, desto höher der Rechenaufwand, diese wieder in lesbare
Informationen umzukehren. Bezeichnenderweise fällt 128-BIT-Kryptographie,
eine derart starke Form der Verschlüsselung (an der eine Batterie
von Hochleistungsrechnern gemeinsam Jahrzehnte rechnen würde um den
Schlüssel zu knacken), unter das amerikanische Waffengesetz und darf
offiziell nicht exportiert werden. Die Serverüberlastung, oder wie
es in Fachkreisen heißt „Denial of Service“[27]Attacken,
konnten Echelon nicht aus der Reserve locken. Echelon arbeitet heute
noch und das vor allem deshalb, weil der größte Schutz des Systems
die Unwissenheit der meisten Menschen ist. 4.3 CCTV. Aber auch andere Instrumentarien eignen sich hervorragend als potentielle Big Brother-Systeme, so zum Beispiel Fernsehüberwachungsnetze – CCTV (Camera Control Television) genannt. Die Technik der Fernsehüberwachung hat sich in den letzten Jahren rasch weiterentwickelt. Natürlich photographieren Polizei und Agenten immer noch Demonstrationen und Personen von Interesse, aber solche Bilder können zunehmend zentral gespeichert und abgerufen werden. Aufgrund der gegenwärtigen Entwicklung zur Ultraminiaturisierung sind solche Geräte jetzt tatsächlich unauffindbar und können sowohl von Einzelpersonen als auch Unternehmen und offiziellen Behörden missbräuchlich eingesetzt werden. Die Mitgliedstaaten der Europäischen Union vertreten ganz unterschiedliche Positionen im Zusammenhang mit CCTV-Kameranetzen, wobei in Dänemark derartige Kameras gesetzlich verboten sind, während es in Großbritannien bereits Hunderte von CCTV-Netzen gibt. Gerade beim Schreiben dieser Arbeit erfuhr ich kürzlich im Radio, dass demnächst auch in meiner unmittelbaren Nähe – in den Straßenbahnen der Leipziger Verkehrsbetriebe - Videokameras zur Überwachung eingesetzt werden sollen. Zum Schutz der Bürger, heißt es. Doch wie sieht es mit der Zuverlässigkeit von digitalem Material aus, wo einerseits Bilder und Videos rechtlich als Beweismittel gelten können, andererseits das von solchen Systemen gelieferte Material unbemerkt, und das heißt auch aus technischer Sicht ohne Qualitätsverlust und ohne existierende Authentizitätprüfung, editiert werden kann ? „Nobody’s perfect – nobody’s software too.“ – weiß der Programmierervolksmund zu berichten. Kein Datenbanksystem, auch nicht CCTV Archive, sind gegen Angriffe vollends immun und das Editieren der Daten sollte schon heute, allenfalls morgen auf jedem beliebigen Heimcomputer möglich sein. Wie einfach ein Abhören und Mitschneiden diverser Kommunikationskanäle ist, hat Marko Peljhan mit seinem Projekt „Makrolab“ auf der „documenta X“ eindrucksvoll bewiesen. Vierzig Tage lebte der Slowene in seinem selbstgebauten Labor Makrolab auf dem Lutterberg in der Nähe von Kassel. Von dort klinkte er sich in die Telefonate ein, die in dieser Zeit über internationale Telekommunikationssatelliten liefen und führte im Mai 1998 eine Telefonkonferenz mit der Raumstation MIR. Wohlgemerkt mit, wie der Künstler sagt, handelsüblichen Geräten, die man nur in der richtigen Reihenfolge zusammenschalten und ein paar Signale synchronisieren müsste. Die Resultate dieser Streifzüge durch den Äther wurden auf einer Website dokumentiert.[28] Auf die Frage, wie denn die Rechtslage bei derlei Machenschaften sei, antwortet Peljhan: „Es ist natürlich empfehlenswert, sich
mit der rechtlichen Situation vertraut zu machen, weil die in jedem
Land anders ist. In Deutschland ist das, was wir gemacht haben, legal,
aber man darf das, was man gehört hat, nicht an Dritte weitergeben.
In Australien ist es ähnlich, aber in USA oder in Österreich ist die
Situation ganz anders. Dort sind die Rechte des Einzelnen zwar vor
anderen geschützt, aber nicht vor dem Staat, der als einziger mithören
darf.“ Neben
weiteren Künstlern wie Michael Klier („Der Riese“), Julia Sher oder
Dieter Fraese, die sich der „surveillance“ Thematik in aktiver Weise verschrieben haben,
wurden nun auch passive „Nicht-Künstler“ im Kunstkontext diskutiert.
Prominentes Beispiel hierfür ist die 1997 durch ihre „Jenny Cam“ (www.jennicam.org)
bekannt gewordene Wirtschaftswissenschaftlerin Jenny Marketou, die
inzwischen auf zahlreichen Ausstellungen und Konferenzen geladen ist.
4.4. Die Welt von innen und
außen – theoretisches Konstrukt des Superbeobachters Was die Realisten heute an einer zentralen Medienmachtinstanz
zweifeln lässt, ist das Anerkennen des eigenen Standpunktes, der einem
kleinen Zahnrad im Getriebe gleicht. Angesichts der vielen uns umgebenden
Zahnräder fällt es uns schwer, den Prozess der gesamten Maschinerie
zu sehen oder bildlich an einen großen Hebel zu glauben. Andererseits
kann man Baudrillards Thesen,
dass uns das Wirkliche bereits abhanden gekommen sei und die Welt
nur noch eine Simulation ist weder bestätigen noch widerlegen, weil
die „Beweismittel“ unmittelbar aus der Simulation selber kämen und
damit nichtig sind. Galouyes Science-Fiction-Roman
„Simulacron-3“ [29]
aus dem Jahr 1964, der 1973 von Rainer Werner
Fassbinder unter dem Titel „Die Welt am Draht“ verfilmt wurde, ist
von besonderer Bedeutung für das Verständnis von Simulationen. Ergänzt
wurde „Simulacron-3“ von einer Reihe utopischer Werke, die eine virtuelle
Scheinwelt thematisieren, z.B. William Gibsons „Neuromancer“
[30],
in dem erstmals der Begriff des Cyberspace auftaucht, Steve Lisbergers
„Tron“ (1982) oder „The Matrix“
(1999). Die Akteure sind nicht physisch, sondern nur als Projektionen
in der Simulationswelt des Computers vorhanden. Das Universum dieser
Projektion besteht aus Menschen und Gegenständen, deren Kenntnis nur
virtuell und nie physisch möglich ist. Galouyes Simulationswesen sind
Puppen, die das ausführen, was sich der Spieler einer höheren Wirklichkeitsebene
ausgedacht hat. Im Bezugssystem des Simulators ist jede Bewegung illusorisch;
zwar glauben die subjektiven Einheiten (im Roman ID’s genannt) in einer körperlichen Umwelt zu agieren, in
Wirklichkeit kommen sie jedoch nicht vom Fleck. In der klassischen Physik meinte man,
es wäre so, dass jeder Beobachter von vornherein außerhalb ist. Das
ist nicht wahr. Wenn man annimmt, dass die klassische Physik auf unsere
Welt zutrifft und das auch wir Teil der klassischen Physik wären,
dann könnte man nicht so privilegiert wie ein Superbeobachter sein,
sondern man wäre in der Welt. Wenn man sich bildlich eine Schnittstelle
in Form eines Bildschirms vorstellt, in den alles hineinprojiziert wird, dann hat der Beobachter
dort eine Objektivität zur Verfügung. Diese Objektivität ist aber
eine beobachter-objektive Realität, die nicht identisch mit der ist,
die ein Superbeobachter zur Verfügung hätte. So ist es denn auch, dass uns ein Buch
oder ein Film nicht etwa die Rolle eines Superbeobachters gibt, sondern
uns lediglich diese simuliert. Es handelt sich gewissermaßen um eine
Simulation in der Simulation, denn wir sitzen ja nach wie vor im Kino
oder über dem Buch in dieser anzunehmenden, simulierten Welt,
die wir Realität nennen. Dadurch erweitern wir nicht unser Interface,
sondern verengen es – wir sind nicht in einer „Außen-Welt“, sondern
eher in einem Mikromolekül der Innenwelt. Was übrigbleibt, ist immer
nur eine Endo- oder Interface-Objektivität - auch
den Medien gegenüber, denn wir sind ja in dieser Medienwelt
– nicht über ihr. Gehen wir einmal davon aus, dass jeder
Mensch sich in dieser (Medien)welt befindet und ein bestimmtes Interface
zu dieser hat, welches er nicht überschreiten kann. Dieses Interface
umgibt uns also wie das Wasser den Fisch, der nach Laotse[31] das Wasser nicht erkennen kann, weil es für ihn
eine unbekannte Größe ist. Dann fragt man sich einerseits, wie man
denn überhaupt zur Konstruktion einer höherstufigen Parallelwelt kommen
kann. Wenn das Interface nicht überschreitbar ist, dann ist der potentielle
Blick „von außen“ auf sich gar nicht denkmöglich. Und im weiteren, wie könnte man diesen einen
Exostandpunkt einnehmen ? Wenn man das Interface nicht überschreiten
kann, so kann man es sich jedoch vorstellen. Man kann sich als Fisch
im Wasser sehen und sich vorstellen man könnte hinaus. Oder man kann
sich als Zahnrad im Getriebe sehen - das ist denkbar. Durch diesen
Abstraktionsvorgang kann man zumindest auf einer Metaebene das Interface
verlassen, ohne allerdings in dieser Ebene agieren zu können. Ebenso
kann man sich ja auch in einen anderen Menschen hineinversetzen, doch
selbst die Psychologie ist hier auf Mutmaßungen angewiesen – der andere
Mensch ist man schließlich nie selbst. Naturwissenschaftlich oder empirisch lässt
sich eine „Außenwelt“, zumindest auf klassischem Wege, auch nicht
nachweisen, weil Experimente in unserer „Innenwelt“ ja – einfach formuliert
– nur die Vorstellung über die Welt, die im Inneren der Welt gemacht
wurden, zu verifizieren versuchen. Wie im Windkanal können wir uns
im Computer eine Kunstwelt bauen – etwa in Computerspielen [32] -
für die wir Zugriff von außen haben; das Experiment liefe aber
nach wie vor in unserer Welt ab... Für wichtiger als Experimente sind jedoch
die möglichen Konsequenzen für Moral und Ethik zu halten. Wenn ich
einmal zum Beispiel des Hollywood Films „Matrix“ zurückkehre, in dem
die „wahre“ Welt bereits durch Kriege zerstört wurde und den Überlebenden,
nach kurzer Retusche ihrer Erinnerung, eine intakte Welt simuliert
wird; wenn wir dies nun einmal auf unsere „Realität“ übertragen –
wer hätte dann wohl Lust über den Tellerrand zu blicken ? Wer möchte
dann die Last des Exo-Standpunktes tragen ? Insofern sind Baudrillards
Simulationsthesen auch hinfällig, denn ob die Wirklichkeit nun simulativ
oder real ist, ist schlussendlich irrelevant. Es ist unsere Wirklichkeit,
in der wir tagtäglich leben und sterben. 5. Ein Dorf namens Babylon?
Ist das von McLuhan proklamierte globale Dorf nun ein
Segen, oder ein weiterer Tribut humaner Eigenschaften an die Maschinenwelt
? Vajapur, eine Retortenstadt, die vor den Toren Bombays
als Freihandelszone in die Wüste gestampft wurde, um westliche
Computer- und Softwareindustrie anzuziehen, ist der Arbeitsplatz derjenigen,
die zu der einen Promille der vernetzten Einwohner des 900- Millionen-Staates
Indien zählen. Westliche Banken und Versicherungen lassen hier über
das Kabel ihre Kundendateien billig bearbeiten – ein Grundwiderspruch
des Medienzeitalters. Mag man dem Netz auch noch so demokratische
Eigenschaften bescheinigen wollen, die Machtzentren bleiben dieselben.
Digitaler subtiler Kolonialismus scheint ein Grundpfeiler der Globalisierung
zu sein. Wo jeder dritte Inder Analphabet ist und Schreibstuben
einträchtig neben einem „Ghandi- Cybercafé“ das Straßenbild prägen,
ist es müßig, über unser ethisches Weltbild einer Informationsgesellschaft zu sinnieren. Tim Berners-Lee’s Aussage:
Innerhalb der wenigen Regionen, die heute die Synonyme
„weltweit“ und „global“ gern und oft benutzen
und schon früh den Medien das Tribut des „free speech“ abverlangten,
gastiert seit dem Netz umso mehr die Opposition der Theoretiker. Die
pessimistischen Thesen und Kritiken derer lassen sich dabei an den aktiven und passiven Positionen des Users
dingfest machen. Einerseits richtet sich die Kritik an eine Überwachungsmethodik,
die Orwell beschreibt und die den passiven Konsumenten gerade heute
kaum mehr unbeobachtet lässt. Zum anderen richtet sich die Kritik
an den Konsumenten selbst, der, wie von Huxley[34]
oder Postman[35] beschrieben, aktiv dem Big Brother huldigt
und eine Verblendung oder „Verblödung“ durch diesen erfährt. Die Frage danach, was die Medien mit dem Menschen
machen oder warum wir uns im Postmanschen Sinn durch sie beeinflussen
lassen, ist falsch gestellt. Wir wissen, entgegen dem Huhn und dem
Ei - erst war der Mensch und dann das Medium. Folglich müssen wir
uns fragen, was die Menschen mit den Medien machen. Genaugenommen
wird der „Infowar“, die Manipulation und die Kontrolle zwischen den
Menschen ausgetragen. Das Medium selbst ist neutral, seine Kanäle jedoch
nicht. Computer wissen nichts von der psychologischen Signalwirkung
der Farbe Rot, wenn ihnen dies nicht von Menschenhand eingegeben wird.
Das Medium manipuliert nicht. Computer protokollieren und kontrollieren
nichts, ohne dem Interesse eines Menschen an der Auswertung. Das Medium
kontrolliert nicht. Das Medium an sich war zu keiner Zeit „message“ aus
eigenen Dingen (vgl. [36]), sondern stets
Spiegel des Menschen, der mit dem Medium (auch missgebräuchlich)
umgeht. Parallel zur Manipulation lässt sich selbiges für die Orwellsche
Kontrollkritik anbringen: „A sucht erstens zu wissen, was B weiß, ohne dass B
von As Wissen weiß. A sucht zweitens sein Wissen an A’ (Untergebene
oder Vorgesetzte oder Verbündete) zu übermitteln, ohne das B von der
Übermittlung, geschweige denn vom übermittelten Wissen weiß.“ [37] (Kittler) Die Enttäuschung ist angesichts der großen Erwartungen,
die an ein emanzipatorisches Medium gestellt wurden, groß. Die Begründung
dafür ist darin zu finden, dass man den Kanälen des neuen Mediums,
respektive des Internets, Neutralität
zubilligte. Res publica bedeutet die "öffentliche Sache". Niemand
hat je den ergänzenden Begriff "res privata" geprägt,
obgleich der erste die Rechtfertigung für den zweiten abgibt. Das
Recht auf Privatismus beruht grundsätzlich auf der Anerkennung eines
öffentlichen Bereichs. Nur innerhalb der Grenzen des öffentlichen
Bereichs kann Privatismus beansprucht werden. Demokratie basiert auf
der Akzeptanz dieser Trennlinie. Selbstverständlich entspringt die
Idee der Demokratie der Illusion, Raum sei neutral, frei von jeglichem
gewichtigem sozialen, psychologischen oder physiologischen Widerstand.
Der Raum Internet freilich ist genauso wenig leer, wie der Luftraum
oder ein psychologischer Raum, den eine Gemeinschaft einnimmt. Das Medium Netz befreit nun jeden zum Sender. Diese einzigartige Chance, das „global village“ des McLuhan, welches inzwischen eine Großstadt ist, zum positiven Nutzen zu wandeln, ist nicht eine Frage des Mediums, sondern unserer Vernunft. Eine Demokratie ist im soziologischen Sinn stets eine Utopie geblieben. Die Medien, die verlängerte Organe des Menschen sind, können daher genauso wenig demokratisch sein, allenfalls liberal. Kritik kann, wenn überhaupt, gegenüber dem Medium erst geltend gemacht werden, wenn wir eine künstliche Intelligenz zur Verfügung hätten. Doch auch dann würde diese primär den Autor „Mensch“ beschreiben. Die Manipulation und die Observation sind keine Nova der Medien, sondern erfahren durch sie allenfalls eine neue Qualität. Literaturverzeichnis und
Glossar: [2] Tim Berners-Lee (mit Mark Fishetti):
„Der Web-Report“, econ Verlag, München [3] Helen Chaney, Pacific Research
Institute, “digital divide” [8] Hans Magnus Enzensberger, „Baukasten zu einer Theorie der Medien“, 3. S. 100 ff [17] Hans Magnus Enzensberger, „Baukasten
zu einer Theorie der Medien“, Kapitel 5. S. 106 [22] BugFix; Computerergänzungsprogramm das die Fehler des Originalprogramms beseitigen soll [24] Wahlspruch für Mitarbeiter der National Security Agency [33] Tim Berners-Lee (mit Mark Fishetti): „Der Web-Report“, econ Verlag, München [36] Marshall McLuhan, „Die magischen
Kanäle. Understanding Media“, Dresden 1994
|