Der gläserne Hund
Cyberdemokratie und Machtinstanz unserer Informationsgesellschaft



©1999-2000, Stephan (Spiv) Schröder
spiv@hgb-leipzig.de

Vorwort

Sämtliche Institutionen des Landes werden durch das neuartige Sicherheitssystem „Gatekeeper“ von Gregg Computer Systems beschützt, welches sich als am resistentesten  gegenüber ständigen Hackerangriffen am Markt behaupten kann. Als Angela Bennett, Programmsystemanalytikerin aus Santa Monica, eines Tages an eine Diskette gelangt, die ihr Zugang zur zentralen Datenbank des FBI gewährt, deckt sie Skandalöses auf.

Die „Gatekeeper“ Software entpuppt sich als trojanisches Pferd - absichtlich hat man Hintertüren einprogrammiert, um Zugang zu sämtlichen privaten und staatlichen Systemen zu erlangen. Noch am Tag ihrer Erkenntnis versucht man Angela Bennetts wahre Identität systematisch auszulöschen um einen globalen Gau zu vermeiden. In unserer Informationsgesellschaft verdrängen digitale Daten zunehmend das analoge Papier. Die Krankenakte, KFZ- und Sozialversicherung, Kreditkarte, was wir essen, welche Bücher wir lieben, woher wir kommen und wohin wir gehen – alles wird protokolliert, kontrolliert und registriert.

Ein Szenario aus dem Film „The Net“ von Irwin Winkler – das bereits vor Jahren der Utopie entwachsen ist. Das Netz ist längst nicht mehr das ideale Versteck. Der kleine elektronische Schatten liegt auf jedem von uns,  wartet nur darauf, manipuliert zu werden und: „Deutschland geht T-Online“ - gehen Sie mit ?

Brechts illusorische Radiotheorie mit der Einsicht des Autors, dass diese „undurchführbar in dieser Gesellschaftsordnung, durchführbar in einer anderen“  sei, scheint seine Erfüllung im Internet gefunden zu haben. Das anonyme Medium, welches durch einen Comic illustriert wurde, in dem der beste Freund des Menschen nonchalant an der Tastatur verkündet  „on the internet nobody knows you’re a dog“ und konträr dazu der transparente User, fördert eine seltsame Legierung zu Tage. 

Die vielleicht größte Erfindung seit dem Faustkeil hat sich der sinnlichen wie humanistischen Komponente entledigt und sich der Zahlentheorie verschrieben. Abgerechnet wird im Netz in einem Machwerk aus Hits, Clicks, PageImpressions und AdViews, in dem wir selbst eine Chimäre, also „ein gläserner Hund“ sind.




1.
Die Geschichte des Internet

Um die Position des Netzes gegenüber den anderen Medien besser verstehen zukönnen, wollen wir uns zunächst der jungen Historie zuwenden.

Im Herbst 1999 wurde in vielen Orten der Welt der Geburtstag des Internet gefeiert. Das genaue Alter des garantiert mutterlosen, aber von vielen Vätern erschaffenen Netzes ist angesichts der vielseitigen Interpretationen und vielfältiger Interessen an der Historie reine Spekulation. Auch wenn Anfang der 1970er Jahre parallel an Projekten gearbeitet wurde, die maßgeblich für das heutige Internet waren, empfand es damals keiner der Wissenschaftler als revolutionär, geschweige denn, dass jemand hätte erahnen können, dass diese „fixe Idee“ Weltökonomie verändern wird.

Vint Cerf, der bei der MCI Worldcom die „PR-Vaterrolle“ glänzend ausfüllt, definiert den 22.November 1977 als Geburtstag des Internet. An diesem Tag wurden erstmals drei unterschiedliche Netze zusammengeschaltet, denn „wenn ein Rechner mit einem Kommunikationsprozessor Daten austauscht sei das noch lange kein Internet“ ,so Cerf.

Leonard Kleinrock plädiert für den 2.September 1969, den Tag als an der University of California in Los Angeles (UCLA) der erste Computer an ein Interface Messaging Processor (IMP) angeschlossen wurde. Der Rechner musste mit einem Kran in das Labor Kleinrocks gehievt werden, wobei seine einzige Aufgabe darin bestand, Daten zu senden und zu empfangen. Der Bau des IMP-Rechners wurde, wen wundert es, von der amerikanischen Forschungsabteilung im Verteidigungsministerium ausgeschrieben. Nachdem zu dieser Zeit führende Unternehmen wie IBM den Bau des IMP-Rechners als nicht realisierbar ablehnten, wagte die Firma BBN den Bau von 4 IMPs unter der technischen Leitung von Bob Taylor von der Advanced Research Projects Agency (ARPA). Bob Taylor formulierte erstmals in „The Computer as Communication Device“ [1] die Idee der Vernetzung aller Computer.
1971 wurde das inzwischen mit 15 IMPs operierende Forschungsnetz ARPAnet der Öffentlichkeit vorgestellt. Zu diesem Zeitpunkt hatte das Netz etwa die Dimension wie auf den ersten Skizzen des Informatikers Larry Roberts aus dem Jahre 1966 erreicht, der die Idee eines dezentral verknüpften Netzwerks entwickelte. Heute ist Roberts einer der Väter, die am stärksten gegen die Idee vom kriegerischen Internet polemisieren. Vordergründig sei ein effizientes Netz gewesen; das Argument eines Atomschlages sei erst später dazugekommen, um Forschungsgelder des Militärs locker zu machen.

Anfang der 1970er Jahre kam die Idee auf, die IMPs durch Computer abzulösen die keine Spezialrechner waren. Der Informatiker Bob Metcalfe beschäftigte sich 1972 damit, das hausinterne Netz der Firma XEROX an das ARPAnet anzubinden und erfand eine Übertragungstechnik, die er Ethernet nannte. Diese Erfindung weckte das Interesse von Vint Cerf und Bob Kahn, die 1974 den Vorschlag für ein einheitliches Übertragungsprotokoll machten. Dieses Protokoll wurde TCP/IP genannt und am 1. Januar 1983 zum offiziellen Standard erklärt. Im Jahre 1989 schließlich, als schon etwa 100.000 Hostrechner am Datennetz hingen, wurde das in die Tage gekommene ARPAnet abgeschaltet. Wohl aber nicht nur wegen der technologischen Unnotwendigkeit, sondern auch weil der Warschauer Pakt in diesem Jahr zu zerfallen begann.

Bis zur Entwicklung des World Wide Web (WWW) durch Tim Berners-Lee [2] Anfang der 1990er Jahre wurden die bis dahin rein textuellen Internetdienste wie eMail, FTP, BBS oder das heute fast schon wieder vergessene Gopher überwiegend universitär genutzt. Von kommerziellem oder künstlerischem Interesse war das Netz zum damaligen Zeitpunkt kaum, zumal die graphische Nutzung in skurriler ASCII & ANSI-Art das Ende der Fahnenstange markierte. ASCII/ANSI-Art versuchte dabei eine Visualisierung mittels des normalen, auf der Tastatur verfügbaren, Zeichensatzes zu erreichen - vergleichbar mit den graphischen Möglichkeiten des damaligen BTX oder des heutigen Videotextes. Durch den zusätzlichen WWW-Dienst, der völlig neue mediale Möglichkeiten etablierte und heute fast schon zum Synonym für das Internet schlechthin geworden ist, wurde das Netz nicht zuletzt kommerziell interessant.

Ab etwa 1993 ist ein exponentielles Wachstum des Internet zu verzeichnen, welches zur Jahrtausendwende in 56 Mio. registrierten Servern gipfelte. Die Anzahl der Clients kann heute nur noch geschätzt werden. Die Verbreitungsgeschwindigkeit des Mediums Netz sucht seines gleichen, laut einer Studie des Pacific Research Institute [3] konnte sich das Internet 9x mal schneller als das Radio, 4x mal schneller als der Computer und 3x mal schneller als das TV etablieren.


Diese Tatsache mag auf den ersten Blick faszinieren, der rasante Wachstum hat jedoch seine Tücken. Von allen Medien, den neuen und den klassischen, war dem Internet die wenigste Zeit für eine Positionierung gegeben. Konträr zu den Entwicklungsprozessen des Buchdrucks oder des TV ist das Internet gewissermaßen die wässrige Gentomate im  „Mediengemüsegarten“. 

Wenn wir das Netz nicht nur als Technik, sondern tatsächlich mit den klassischen Medien vergleichen  wollen, so hat man „nicht mehr als einen Schrotthaufen, in dem Gold und Perlen versteckt sind“ [4], wie es der Computerkritiker Joseph Weizenbaum drastisch beschreibt. Dieser „Schrotthaufen“ soll im folgenden untersucht werden.



2. Der Computer als Medium.

Der Computer ist ein Multimedium, welches sequenziell die klassischen Medien zu subsumieren scheint. Das Internet explodiert dabei als ein Medium der Texte und der Schrift, auf der es genaugenommen basiert. Die dazugehörige Beschreibungssprache HTML, das Fundament sämtlicher Internetseiten, aber auch Bilder, Töne und Filme basieren in ihrer digitalen Architektur auf Schrift.

Dabei ergibt sich die Paradoxie, dass  wir einerseits die  technischen Bilder (Fotografie, Film und TV) offensichtlich aufgegeben haben und wie es scheint, zu Schrift und Sprache zurückfinden, aber andererseits das Ende der Gutenberg Galaxis verkünden.

Maschine, ebenso wie Mechanik, entstammt dem griechischen Wortstamm Mechus, was soviel wie List bedeutet. Vom Hebel bis zum Computer sind diese Vorrichtungen zum Überlisten der Natur, die wohl größte Leistung des menschlichen Gehirns, ohne das man sich jedoch selbst als Bestandteil der Natur sehen würde. Seit Turing [5] misst man den Maschinen künstliche Intelligenz bei und arbeitet damit an der Überlistung seiner selbst.

 

2.1. Digital Divide

Stets haben wir bei einschneidenden Umwälzungen der Informationstechnologie oder der Geburt eines neuen Mediums zwei klare – sozial bedingte Haltungsfronten erkennen können – Euphorie und Pessimismus. Die eine kennzeichnet das neue Medium als göttliches Geschenk zur Freisetzung der Möglichkeiten, als Machtzuwachs des Subjekts mit geradezu emanzipatorischer Kraft, die andere beklagt den Verlust humaner Eigenschaften und eine zunehmende Abhängigkeit und Fremdsteuerung des Subjekts durch das Medium selbst. Aus chronologischer Sicht beobachten wir immer kürzere Akzeptanzzeiten  neuen Medien gegenüber.

Um 1450 war es Gutenberg, der denjenigen, die des Schreibens privilegiert waren, erstmals gehörige Zukunftsängste machte. Verlernt haben wir es bis heute nicht. Im 18. Jahrhundert fürchteten die Gelehrten die „Lesesucht“ und einen einhergehenden Verlust ihres Hoheitswissens. Von nun an, so der Glaube, könne jeder Ungebildete aus Wörterbüchern und Lexika Wissen konsumieren und dies für das seinige ausgeben. Heute bedauern wir sogar, dass die Menschen so wenig lesen. Beim Einzug des Telefons warnten Kritiker vor der Vereinsamung der Menschen. Heute treffen sich die Menschen, weil sie sich per Telefon verabreden können. Bei der Einführung des Privatfernsehens warnten viele vor unmäßigem Fernsehkonsum. Heute gibt es 50, morgen vielleicht 500 Kanäle, und die Menschen gucken trotzdem nicht länger.

„Für Kulturpessimismus besteht kein Grund. Die Diskussion über Medieneinflüsse ist alt, nur das Medium ist neu.“ [6]

Doch Dr. Jürgen Rüttgers, damaliger Bundesminister für Bildung, Wissenschaft, Forschung und Technologie, unterschätzt das Medium Internet in eklatanter Art und Weise. Kann ein jeder, der das Alphabet beherrscht, ohne weiteres mit dem Printmedium umgehen, kann ein jeder der seiner Sinne mächtig ist (ein Empfangsgerät vorrausgesetzt), fernsehen oder Radio hören – so hat der Abstraktionsgrad des Zugangs zum Medium Internet stark zugenommen.

„Digital divide“ nennt die amerikanische Regierung das Phänomen der immer weiter klaffenden Schere zwischen Menschen mit und ohne Netzzugang. Dabei ist der Zugang innerhalb der Onlinegruppe kein soziologisches Parameter mehr, sondern manifestiert sich an den technologischen Polen. Die Geschwindigkeit des Prozessors und des Netzzugangs treten an die Stelle des sozialen Status, Ideologie ist eine Frage des Browsers oder des verwendeten Betriebsystems geworden und die Identität ist zur Seriennummer verkommen.  Gibt es innerhalb der Fernsehzuschauer oder Radiohöher kein privilegierteres Moment mehr, so ist beim Netz ein zweites, inhärentes „digital divide 2“ absehbar. So wird der Benutzer mit den bestmöglichen technischen Vorraussetzungen zu den privilegiertesten Benutzern gehören. Schon heute ist ein Trend erkennbar, der dem Nutzer immer weitere Hard- und Softwareaktualisierung („PlugIns“) aufdiktiert, ohne die er vom Angebot schlichtweg ausgeschlossen wird. Der privilegierte Netznutzer wird künftig am schnellsten Informationen konsumieren und publizieren können, wodurch eine weitere wesentliche Differenz von Netz und dem Rest der Medien offenbar wird – die Bidirektionalität.


2.2. Bidirektionalität


Mediale Macht ist nicht erst seit dem Bau des Computers oder der weltweiten Vernetzung eine Tatsache, die Diktatoren und Militärs gleichermaßen weitsichtig erkannten wie die Demokraten. Dabei scheinen die Befürworter der Emanzipation, denen hinterherzuhinken, die durch die Emanzipation einen Machtverlust befürchten.

Schon früh setzte Siegfried Krakauer sehr große Hoffnungen in die Massenkultur. Bei Brecht gibt es die Utopie, den Massenmedien ihren monologischen Charakter zu nehmen (vgl.[7]) – kaum drei Jahre später war in ganz Europa die „Wochenschau“ zu sehen und die „Göbbelsschnauze“ (Volksempfänger) zu hören. In Amerika gab es seit den 1970er Jahren periphere Versuche eines „PublicAccess Television“, wenig später fand man Verblend-ungsmethoden irgendwo zwischen „Superbowl“ und einem sterilen, virtuell aufbereiteten Golfkrieg. Der ewige Traum von der emanzipatorischen Kraft, von der Auflösung des Sender-Empfänger-Paradigmas, scheint erst heute durch den Computer in Erfüllung zu gehen. Dienten bislang Medien nicht zur Kommunikation, sondern zu ihrer Verhinderung, wie Enzensberger[8] bemerkt, so steht dem heute selbstredend der Slogan eines Internetproviders gegenüber: „Kommunikation ist alles“.

Diese Kommunikation trägt bisweilen merkwürdige Früchte, die niemand hätte erahnen können – schließlich haben wir es hier mit einem historischen Novum zu tun. Das einst wissenschaftliche Distributionsnetz hat die Sphären  des von Brecht geforderten Kommunikationsapparates längst wieder verlassen. Da die Sendeapparate, die Computer, so selbstverständlich zwischen Käsetheke  und Wurstregal des Gemischtwarenladens verkauft werden und man sich fragt „bin ich schon drin?“ (AOL Werbekampagne)  ohne auch nur minimal zu hinterfragen, warum ich denn rein soll, gibt es eine wahre Flut an emanzipatorischen Publikationen. Die totale Kommunikation wandelt sich zu heillosem Gebrüll. Kein Mikrokosmos, kein noch so abstruses  Hobby, welches nicht über den großen „Publizieren“-Button den Weg ins Netz findet. Ganz davon abgesehen, dass sich nun auch jeder als Chefdesigner oder Künstler sehen kann, resultiert die Mehrzahl der Veröffentlichungen im Netz auch rein textuell in eine bizarre Form von Eigenbrötlerei, die zum Zwecke der Werbung mit Superlativen bespickt wird. Die Homepage des dörflichen Schützenvereins X koexistiert so neben dem Online Pendant eines klassischen Medienkonzerns Y. Wege aus diesem Rauschen fand das System trotz der kurzen Lebenszeit selbst.

Der Tatsache, dass im Sekundentakt neue Websites das Licht der Onlinewelt erblicken, steht die Erkenntnis gegenüber, dass das  Netz subjektiv kleiner wird. Der Weg, den der User im Web zurücklegt  wird  kürzer – er erforscht weniger und bewegt sich in zunehmenden Maße auf den ihm bekannten Pfaden und Sites.

Der Fakt, dass nun jeder nach Belieben senden kann und demzufolge natürlich auch empfangen werden will, führt zu einem interessanten Phänomen, das ich als Portalboom bezeichnen möchte. Da das Netz dezentral ist, kann sich zwar jeder einbilden, er wäre im Zentrum des Geschehens - versierte Benutzer kennen allerdings die auch im Netz bestehende Hierarchiekette. Das Netz operiert inzwischen in Sphären von „Multi“ und „Meta“. Wer seine Homepage nicht bei Suchservices anmeldet oder anderweitig bewirbt, ist de facto nicht präsent. Er sendet also gewissermaßen auf einer unbekannten Frequenz und wird nicht empfangen. Suchmaschinen und zentrale Einstiegsseiten, die sich einer speziellen Thematik widmen und kleinere Homepages subsumieren, versprechen hier Linderung. Jedoch decken Suchmaschinen auch nur etwa 20% des Datenbestandes, daher werden inzwischen mehrere Suchmaschinen in einer Metasuchmaschine zusammengeschaltet (z.B. www.google.com) und „special interes“ Portalsites zu größeren „general interes“ Portalsites zusammengefasst. Die logische Konsequenz ist, dass es Websites gibt, die punktuell genaues Spezialinteresse ansprechen, wie etwa die Homepage unseres Schützenvereins X, die ja sehr wohl das Interesse der Mitglieder des Vereines bedient. Aber andererseits findet der Neueinsteiger immer mehr einen kommerziellen Interessensquerschnitt Y, ein „general interess“ Geplänkel. Man könnte genauso gut von einer Zweiteilung des Netzes, in ein ober- und ein unterweltliches, sprechen. Das „unterweltliche“, indem auch die Perlen versteckt sind, ist nur über geheime Insidertipps zugänglich.



2.3. Omnipräsenz


Ein weiteres Novum, welches der Computer, respektive das Internet, als Medium mit sich bringt, ist die „Auflösung“ von Zeit und Raum. Auch wenn inzwischen der Sendeschluss beim TV durch permanente Telefonsexwerbung und Wiederholungen des Tages überbrückt wird, kann man am Fernsehprogramm noch sehr deutlich die Eigenheiten des Empfängers „Mensch“ ablesen. Das Sendeschema ist in allen Ländern der Erde vergleichbar ähnlich, wodurch sich Informationsstoßzeiten wie die Abendnachrichten und Informationslöcher wie das Nachtprogramm wellenförmig gemäss den Zeitzonen von West nach Ost über den Globus ausbreiten.

Der Computer nimmt keinerlei Rücksicht auf die biologische Uhr des Menschen. Verkauft, informiert und gesendet wird rund um die Uhr in gleicher Konzentration und Menge. Zur Folge hat das Senden für ein imaginäres, zeitunabhängiges Publikum, dass die tägliche Distributionswelle nicht mehr am Sender, sondern am Empfänger ablesbar ist. Relativ zum Standort bzw. der Zeitzone des Senders lässt Abb.1 erkennen, dass sich die Empfänger überwiegend nah am Senderstandpunkt  befinden. Der Server steht in Deutschland, nachts (zwischen 1.00 Uhr und 9.00 Uhr GMT) wird deutlich weniger empfangen, obgleich sich das nächtliche vom täglichen Angebot nicht unterscheidet. Die Unruhe, wie Geißler die Hektik der Zeit beschreibt, ist aus der Uhr ins Leben geflüchtet. [9]

 
Abb.1
verybusy.org





3. Die Informationsgesellschaft.
Der Satz „Wissen ist Macht.“ war noch nie so wahr wie in unserer Zeit.

Die Rede von der Informationsgesellschaft ist enorm populär und ebenso frontal kritisiert wie frenetisch bejubelt worden. Man sollte deshalb beiden Seiten nachgehen: der Kritik, vor allem aber der Faszination, die von diesem Begriff ausgeht. Warum ist dieser Begriff so evident, so naturwüchsig plausibel?

Die Parole der „Informationsgesellschaft“ sagt implizit erst einmal, dass eine andere Gesellschaft, die Industriegesellschaft, untergeht oder bereits untergegangen ist. Aufgestellt wurde die These bereits in den sechziger Jahren, beispielsweise durch Alvin Tofflers Buch „Future Shock“[10].  Die materielle Produktion, dies ist der Kern der These, verliert an Bedeutung und die Kopf- oder Angestelltenarbeit nimmt ihren Platz ein. Und aller Augenschein belegt dies: Werften und Stahlwerke versinken im Schutt; Banken und Büropaläste schießen wie Pilze aus dem Boden. Als man sich scheinbar von der schmutzigen Kohle lösen konnte und das Fernsehen salonfähig wurde, proklamierte man die Informationsgesellschaft.  Nun da wir das Multimediahaus, den „intelligenten“ Kühlschrank und unsere eigene „weltweite Verfügbarkeit“ erreicht haben, werden Futuristen nicht müde, bereits die Wissensgesellschaft auszurufen. Begrifflichkeiten wie „Informationsgesellschaft“, „Virtualität“ oder „Cyberspace“ werden aber nur von einem Bruchteil der Erdbevölkerung gebraucht, schon insofern ist die Informationsgesellschaft ein Konstrukt einer elitären Minorität, die, nach Baudrillards Hypothesen, längst nicht mehr in der Realität sondern in der Hyperrealität lebt.[11]

Gesamtgesellschaftlich gesehen ist das natürlich großer Quatsch, „wer hungert, wird von Simulationen nicht satt“ , wie Enzensberger die Informationsgesellschaft entzaubert. Primär dient das Manifest der Informationsgesellschaft also der Verabsolutierung der Perspektiven der Propheten dieser Parallelwelt. Die materielle Produktion verschwindet nicht, sondern wird eher unsichtbar. Was sich tatsächlich ändert, ist die Arbeitsteilung. Die Fabrikhallen sind um den Globus herum auf die Süd- und die Osthalbkugel gerutscht, das Herrenhaus mit der Verwaltung ist in der ersten Welt stehen geblieben. Dass die Propheten der Informationsgesellschaft, wenn man sie mit Tatsachen konfrontiert offensichtliche Immunität genießen wollen, lässt sich an der Ambivalenz von realem und virtuellem Raum ablesen. Realität und Virtualität, so die Propheten, wachsen immer mehr zusammen. Dem ist aber mitnichten so, eher das Gegenteil ist der Fall (vgl. 2.1).

Waren in der industriellen Gesellschaft die Güter keineswegs gerecht verteilt, so führt die kritische Betrachtung unserer heutigen Informationsgesellschaft zu der Frage: Ist unsere Informationsgesellschaft immer auch zugleich eine informierte Gesellschaft ?

Der freie Informationsfluss führt zu einem Paradoxon: Wir verfügen über eine unvergleichliche Masse an Information oder Daten, was die Illusion von einem Wissensparadies schürt, von dem jeder potentiell zehren könne. Damit sind wir bei einem weiteren essentiellen Problem der Informationsgesellschaft, nämlich dem des Begriffsdilemmas.

Die Entropie, so verrät das Lexikon, bezeichnet in der Informationswissenschaft die Größe des Nachrichtengehalts einer Zeichenmenge. Nun versucht man, da Bandbreite und Zugangsgeschwindigkeit elementare Grundpfeiler einer funktionierenden Informations-gesellschaft darstellen, immer mehr Nachrichtengehalt in immer weniger Zeichenmenge zu quetschen. Augenscheinlich ist zwar, dass Computerprogramme und die damit gespeicherten Daten immer größer werden, doch dies beruht nicht auf technischer Notwendigkeit, sondern findet seinen Ursprung in der Ökonomie. Keine andere Branche diktiert uns einen derart rasanten Kaufrausch. Das Gespann aus Software- und Hardwarehersteller floriert eigentlich nur, weil nichts so richtig funktioniert. Stellen Sie sich vor Sie müssten ihr Auto jedes Jahr aufrüsten um noch am Straßenverkehr teilnehmen zu dürfen. Unvorstellbar – aber praktiziert in der Computerbranche.

Die Datenreduktion möchte ich in zwei Phasen einteilen:

In Phase 1 kommt es dadurch zu einer Kastration des Sinnlichen, nämlich dessen, was als überflüssig bewertet wird. Als Beispiel kann das beliebte Musikformat MP3 (MPEG Layer3) dienen. Bei dieser digitalen Musik werden zum Zweck der Kompression Frequenzen, die der Mensch nicht bewusst hört, die jedoch immer mitschwingen, abgeschnitten. Technikfetischisten begeistert, dass sie nun 20 CDs auf der Kapazität von einer unterbringen können, Musikgenießern ist das MP3 Format ein Graus.


In Phase 2 wird dann auch der Nachrichtengehalt selbst zerstückelt und kastriert, beispielsweise  CD-ROM Lexika die jährlich bunter und uninformativer werden. Aufgebläht mit multimedialem nonsense bleibt immer weniger Platz für den eigentlichen Informationsgehalt. Die Industrie entwickelt komplementär dazu immer größere Datenträgerkapazitäten, etwa die DVD, auf der nun etliche CD-ROMs Platz finden. So sind diese Daten dann wenigstens sicherer als auf vergänglichem Papier untergebracht, aber eben auch nur in der blanken Theorie. Verantwortlich dafür ist ebenfalls die Kompression, die die Industrie immer neue Datenträger und Standards einführen lässt. Wir können heute schon kaum mehr digitale Aufzeichnungen der 1960er und 1970er Jahre lesen, aus dem einfachen Grund, weil dafür keine Lesegeräte mehr existieren. Wer sich mit seinem angestaubten „Commodore 64“-Computer aus den 1980er Jahren erneut in die Pionierzeit der Unterhaltungselektronik zurück versetzen möchte, dann aber feststellt, dass seine Datasette die auf Audiokassetten gespeicherten Informationen nicht mehr liest, der darf alles wegschmeißen und muss die Daten als verloren gelten lassen. Schon heute werden genauso viele Computer verschrottet, wie neue hergestellt werden. Und auch das DVD-Laufwerk wird irgendwann nur noch im Museum zu bewundern sein.

Flankiert wird der Kompressionswahn und die geringe Halbwertszeit durchschnittlicher Technik von einer Flüchtigkeit, die die Informationsgesellschaft abverlangt.  So ist es kein technisches sondern eher ein psychologisches Phänomen, dass beispielsweise Emails immer mehr einem Telegramm gleichen und immer weniger vermeintlich Überflüssiges, wie dies noch beim Brief der Fall war, beinhalten. Diesen Zeitsog, dem die Menschen erlegen sind, beschreibt wohl kaum ein Satz besser, wie jener den ich im Rahmen meiner Recherche im Netz fand:

„Kürzlich sagte mir ein Bekannter, er übertrage jetzt seine Daten mit 200KB/sec, ich wunderte mich – welch’ ein schneller Leser...“

Neben der Zeit ist der zentrale Wert der Informationsgesellschaft nicht Information, sondern Wissen. Wer informiert ist, wer etwas weiß,  ist noch nicht wissend oder wie der Philosoph Jürgen Mittelstraß bemerkt: „Wissen setzt den Wissenden voraus.“

Auf den Infobahnen wandelt sich, wenn überhaupt,  Wissen zur digitalen Information. Es braucht einen Wissenden, der aus Daten oder Information wieder Wissen macht. Die Schwierigkeit liegt dabei, dass wir gewissermaßen an einer Überdüngung von Daten leiden und inzwischen immer neue Informationen und neue Werkzeuge brauchen, um alte Informationen zu kanalisieren. Im Gegensatz zum Printmedium gibt es im Internet weder ein zentrales Archiv im Sinne der „Deutschen Bücherei“, noch ein eindeutiges Archivsystem im Sinne der ISBN. Die „Deutsche Bücherei“ existiert seit 1912 mit der Maßgabe der Ablieferungspflicht der Verleger. Im Netz besteht keine Anmeldepflicht bei Suchmaschinen. Ebenso wenig sind Inhalte im Netz explizit und unikat auffindbar, wie dies durch die ISBN Nummer bei Büchern garantiert ist. Ein Serverinhalt kann mehrere Male dupliziert worden (mirror) oder auch nicht mehr existent sein.  

Die Suchmaschinen und Portalsites (vgl.2.2) werden dadurch zu (meist kommerziellen) Machtinstrumenten, die uns den Blick auf die Dinge gewähren oder versperren. Hierbei kann zwischen zwei Variationen unterschieden werden: dem Roboter und der Redaktion. Redaktionell betreute Suchmaschinen und Kataloge (z.B. „Yahoo“) entscheiden dabei subjektiv was gezeigt wird und was nicht. Suchmaschinen die rein technologisch über Roboterprogramme das Netz durchforsten, können wiederum nicht kontextsensitiv arbeiten, denn „Altavista“ wüsste beispielsweise „Kohl“ weder bei Gemüse noch unter Politiker einzuordnen. Zu diesem Zweck entstand auch die Suchmaschine für Netzkunst „verybusy.org“, die jeden Benutzer auch gleichzeitig zum Redakteur erhebt. Nach Immanuel Kant definiert sich Objektivität durch Intersubjektivität.

Das anscheinend mit Bravour gelöste Problem des 19. Jahrhunderts, wie möglichst schnell Informationen von A nach B zu transportieren seien, invertiert sich, und wir stehen nunmehr vor dem Problem, wie wir die Informationen wieder los werden. Information ist gleichsam zu einem globalen Müllproblem geworden, wie in ähnlich skurriler Weise etwa Bargeld lästig ist, weil es das Portemonnaie unnötig aufbläht. Die intelligente Kombination von Informationen resultiert in Wissen. Die Informationsflut kann schnell zur Wissensdürre werden, was wiederum im System selbst seine Ursachen findet. Anstelle des Kontextes tritt der Link, die vielbeschworene Hypertextualität resultiert in einer unerträglichen Verstrickung, die die Psychologie „Option Paralysis“ nennt. Dem Menschen werden zu viele, zu undurchsichtige Parameter gegeben, so dass dessen lineare Auffassungsgabe kapitulieren muss. 

 

3.1. Die Wahrheit zwischen TRUE & FALSE

Gelingt die Konsolidierung zu Wissen in Folge der Isolierung von Information,  soll im folgenden eine erhöhte Aufmerksamkeit der Authentizität der Information zuteil werden.

Das Informations-Einzugsgebiet des einzelnen Menschen ist seit der Steinzeit bis heute sehr klein – nämlich genauso weit, wie die ihm gegebenen Sinnesorgane ihm dies gestatten. Später erst wurde ihm dieses Einzugsgebiet in dem Maße vergrößert, wie dies der  technische Stand mediengestützter Kommunikation erlaubte.

Von den ersten Rauchzeichen, Keilschriften, Papyrus, über die Seefahrer des 15. Jahrhunderts, bis zur Telegraphie, Radio, TV und Internet – beruht unser Weltbild auf Überlieferungen, Niederschriften, Erzählungen – kurzum, auf Medien.

Analogen Aufzeichnungen auf physischen Medien haftet dabei der Nimbus des Objektiven, des „Wahren“ an. Filmmaterial half bei der Aufarbeitung der unseligen deutschen Geschichte, Tonbandaufnahmen brachten Mörder ins Gefängnis, die Graphologen brachten politische Größen in Bedrängnis. Erste offenkundige Fälschungen dieser analogen Medien fand die Wissenschaft zur Zeit Karl des Großen (747-814), in der Zeit, in der eben dieser Karl der Große eine Schriftenreform und eine damit einhergehende Vereinheitlichung durchsetzte.

Dennoch grenzt der gefälschte Nachdruck und die Verteilung einer Tageszeitung auch heute noch ans Unmögliche, nicht aber der Austausch eines Artikels auf einem Internet-Server. Ein Telefongespräch ist authentischer als eine Email, ein Celluloidstreifen „echter“ als ein MAZ-Zusammenschnitt, der Blick aus dem Fenster oftmals glaubwürdiger als der Blick in den Fernsehapparat.
Mit dem anhaltenden technologischen Zeitraffer und dem schwindenden Aufwand,  die Produkte der Informationsgesellschaft zu manipulieren, verringert sich zunehmend die Wahrscheinlichkeit für deren Authentizität.

“Was wir von der Gesellschaft und ihrer Welt wissen, wissen wir fast ausschließlich durch die Medien. Gleichzeitig haben wir jedoch den Verdacht, dass dieses Wissen permanent manipuliert wird.“  [13] (Luhmann)

Geht es um die Wahrung finanzieller und urheberrechtlicher Interessen, so ist man schnell mit Passwortschutz und anderen Lösungen zur Hand. Bei einer wirksamen Methodik der Verifizierbarkeit digitaler Informationen, wie die eines digitalen Wasserzeichens, tut man sich dagegen vergleichsweise schwer. Obgleich Fälschungen (z.B. diverse Urkunden, die Bibel usw.) seit jeher existieren, so haben wir gerade heute z.B. durch die sogenannte Checksumme die Möglichkeit, Fälschungen und Manipulationen vergleichsweise einfach zu filtern.

Wir kennen heute bereits Werbespots, die längst verstorbene Schauspieler mittels „Motion Capturing“ [14] wieder in neuem Ambiente aufleben lassen. In etwa fünf Jahren wird Mensch und Mimik in Echtzeit simuliert werden können. Die Möglichkeit Sein und Schein zu unterscheiden sei durch die Medien bereits abgeschafft, behauptet Baudrillard auf der einen, „Auf die Trägheit des Körpers ist Verlass. Das Zahnweh ist nicht virtuell.“ [15] Enzensberger konträr dazu auf der anderen Seite. Ich persönlich halte beide Aussagen für zu absolut. Information schließt immer auch Desinformation ein. Die Welt ist keine Simulation, allenfalls die Welt hinter der Mattscheibe. Diese jedoch wird zunehmend perfekter. Es dürfte nur eine Frage der Zeit sein, wann holographische Systeme eine neue Qualität der Irritierung etablieren. Dass Desinformation oder die Etablierung einer Unwahrheit nicht zwingend ausgereifter technischer Lösungen bedarf, ist bereits geschichtliche Erfahrung. Das eigentlich Gefährliche (was Enzensberger großzügig übersieht) ist heute die nahezu uneingeschränkte Manipulations- und Verbreitungsmöglichkeit digitaler Daten. Das tilgt letzte Skrupel, dergleiche Machenschaften für den eigenen, geldwerten oder politischen Vorteil zu gebrauchen.
Zu dem Verdacht der beständigen Manipulation durch die Medien, gesellt sich der Verdacht der beständigen Observation durch die Medien.



4.
Der gläserne Hund.
Orwells elektronische Praxis


Geschrieben 1948, in einer  Zeit zunehmenden Technikeinzugs in private Haushalte, erfahren wir in George Orwells Antiutopie „1984“ [16] vom allgegenwärtigen Big Brother, der über das Teleauge die Geschicke seiner Ministerien und des unterjochten Volkes lenkt. Der Widerspruch in den Namen und Funktionen der Ministerien (Ministry of Peace leitet die Kriegsführung, Ministry of Truth kontrolliert nicht nur das kulturelle Leben, sondern produziert vielmehr auch die gesamte (gefälschte) geistige Nahrung, das Ministry of Love entspricht der Gedankenpolizei usf.)  findet seine Parallelen in den Schlagworten der Partei: War is Peace, Freedom is Slavery, Ignorance is Strength.

Kritisch reflektiert wurde Orwells Werk gerade wegen der Methodik des Big Brother in den 1970er Jahren mit dem Aufkommen des Kabelfernsehens, wodurch terrestrische Antennen mehr und mehr verschwanden und die Vernetzung erstmals auch augenscheinlich wurde.  In Hinblick auf die veränderte politische Lage bei Orwell argumentierte Enzensberger zu einer Zeit da von Internet noch keine Rede war:

„George Orwells Schreckbild einer monolithischen Bewusstseins-Industrie zeugt von einem Verständnis der Medien, das undialektisch und obsolet ist. Die Möglichkeit einer totalen Kontrolle solcher Systeme durch eine zentrale Instanz gehört nicht der Zukunft, sondern der Vergangenheit an.    ... Informations-Quarantänen sind heute nur noch um den Preis industrieller Regression möglich.“  [17]

1970 gehörte die Informationsquarantäne und die einhergehende industrielle Regression jedoch noch längst nicht der Vergangenheit an. Analog zu Orwells Sinnumkehrung des „Ministry of Truth“, welches für die Verbreitung von Lügen verantwortlich war, war das Ministerium für Staatssicherheit  der ehemaligen DDR keineswegs für die Sicherheit des Staates oder seiner Bürger zuständig. Selbst nachdem das System vor über einem Jahrzehnt zusammenbrach, sind die Parallelen zu Orwells Schreckbild frappierend und erschreckend zugleich. Der DDR-Staatssicherheitsdienst bespitzelte und ängstigte nicht nur die eigenen Bürger, er hatte seine Abhörgeräte auch auf die Schaltzentralen der westdeutschen Eliten gerichtet. Kennern der Materie war schon länger klar: Wenn die Aufzeichnungen der Stasi-Telefonaufklärung auch nur in Teilen bekannt werden, müssen einige Kapitel der offiziellen Nachkriegsgeschichte Westdeutschlands neu geschrieben werden. Ein in über vierzig Jahren gezüchtetes Netzwerk aus Informanten, Decknamen, Wanzen mit direkter Anbindung zum Kreml, an deren Spitze Erich Mielke in der Rolle des Orwellschen O’Brien stand, schreibt auch nach der massenhaften Vernichtung von Daten immer wieder Schlagzeilen.

Das emanzipatorische Potential des von Brecht geforderten und nun endlich etablierten Rückkanals, ist gegenteilig genau das, was der Staat fürchtet wie die Pest. Nicht umsonst wurde in den Diktaturen des Ostblocks penibel genau darauf geachtet, dem Volk möglichst wenig Medien, in konsumierender als auch produzierender Weise, an die Hand zugeben; bezüglich auf den konsumierenden Bürger durch Minimierung staatlicher Medien, wie Presse oder TV-Kanäle, zur Wahrung einer einhergehenden kontrollierenden Übersicht. Die produzierende Seite bedarf kaum mehr einer Erklärung, jedoch hier ein erinnerndes Beispiel: In der DDR war ein Telefonanschluß ein Privileg, das Ärzten, Mitarbeitern der Feuerwehr und Spitzeln vorbehalten war; Ausnahmen galten innerhalb des Volkes schon als verdächtig. Ferner waren die Telefone damals verplombt. Die Kommunikationstechnologie war strengstes Staatsgeheimnis.
In Russland stellt das staatliche Fernsehen in weiten Teilen noch heute die einzige Informationsquelle dar – wie die blitzartige Wahl eines bis dahin weitestgehend unbekannten Putin eindrucksvoll bewiesen hat.


In einem Essay dieses Jahres greift Enzensberger nun, gerade auch im Bewusstsein eines existierenden Internet-Netzwerkes, wieder seine Kontrollthesen korrigierend auf und ergänzt:
„Was die Kontrolle letzten Endes unmöglich macht, sind weniger die immer ausgefeilteren Chiffriertechniken, es ist das schiere Volumen des Verkehrs. Jeder denkbare Lauscher wird an einer prinzipiellen Eigenschaft der Datenströme ersticken, nämlich an ihrer Banalität. Sie erfahren nicht zu wenig, sondern zuviel.“ [18]

 Dem steht gegenüber, dass es nach wie vor Kontrollinstanzen gibt, die nachstehend erläutert werden sollen, die weniger durch technische oder politische Parameter bestimmt sind und somit darüber hinaus Bestand haben. Die offenbare Leichtfertigkeit Enzensbergers zeugt entweder von Resignation  oder schlichtweg von der Unkenntnis heutiger Überwachungsmethoden. Noch vor „1984“ bemerkt Orwell in „No, Not One“ was aus soziologischer Sicht im Internet auch heute Bestand hat, wenn man nur „Polizei“ durch „Softwareunternehmen“ ersetzt:

„Zivilisation beruht letztlich auf Zwang. Was die Gesellschaft zusammenhält ist nicht die Polizei, sondern der gute Wille der kleinen Leute, und doch ist dieser gute Wille machtlos, wenn die Polizei nicht da ist, um ihn zu unterstützen.“

Ich halte „1984“ für aktueller denn je, nicht des politischen Gehaltes sondern der Methodik wegen. Freilich ist eine Situation wie Orwell sie in „1984“ beschreibt nur noch in wenigen diktatorisch verfassten Staaten möglich, aber darum geht es auch gar nicht. Die Staaten und damit deren politische Interessen werden im digitalen Raum zunehmend obsolet.

Heute wo Diktaturen aber auch demokratische Staaten durch eine digitale Parallelwelt ersetzt werden, nützt es nichts, die Zwinge nachzuziehen – sondern man muss sie komplett neu ansetzen. Versuche, wie beispielsweise in China, das Surfverhalten staatlich zu kontrollieren, scheitern an einem umspannenden Netzwerk aus Satelliten auf der einen, an der Möglichkeit der anonymen Datenreise auf der anderen Seite.

Die Dompteure der digitalen Manege sind nicht die Staaten, sondern die Software-Giganten, die überpolitische kommerzielle Interessen haben. Hier manifestieren sich die Grenzen neu entlang der technischen Parameter. Es gelten keine Gesetze, sondern die Standards der globalen Marktführer. Als rudimentärer Rest staatlicher Regulierung kann die Domainvergabe gelten. So ist es beispielweise in Spanien nicht möglich, ohne Gewerbeschein eine dem Staat zugeordnete Domain .es anzumelden, woraus resultiert, dass Spanier für gewöhnlich auf .com oder .net Adressen ausweichen. Noch grotesker wird die Staats- und Gesetzesangehörigkeit dadurch, dass es jedem frei steht, sich anonym unter .to (Tonga), .sc (Seychellen), .gu  (Guam) usw. sein virtuelles Lager aufzuschlagen; Inselparadiese, die selbst mit dem Finger auf der Landkarte einigen Personen Probleme der Ortung bereiten dürften. Wenn diese Inseln nun tatsächlich ans Netz angebunden sind, so gibt es dort sehr wohl eine staatliche Ordnung, könnte man einwerfen. Doch auch hier fand ich eine verblüffende Ernüchterung in einer Liste möglicher Domain-Endungen einer Analysesoftware; wer auf Nummer sicher gehen will bedient sich einfach der Adresse .nt (neutral zone).

„Sex sales“ sagt man und beschreibt damit eines der finanziellen Zugpferde des Internets. Das anonyme Netz hat den Voyeurismus salonfähig gemacht, der nun auch im TV seine Parallelen findet. Der gefürchtete Big Brother wird in die Sphären des Entertainment katapultiert, ähnlich wie der einst wildlebende Bär nun im Zirkus tanzt. Von diesem Bären geht keinerlei Gefahr mehr aus, nachdem man ihm die Pranken beschnitt und die Zähne heraus brach. Aus ähnlich sicherer Distanz darf man sich nun dem entzauberten Big Brother nähern bzw. selbst dessen Rolle einnehmen, so etwa in der Fernsehshow „Big Brother“  auf dem Kanal RTL2, die sich selbst als „Life Soap“ versteht. Das Sendekonzept fußt auf einem scheinbaren Machtzuwachs des Zuschauers, der  über Wochen hinweg das Leben junger Leute beobachten kann, die ohne Rückbindung zur „Außenwelt“ in einem Wohncontainer hausen. Man darf kleiner „großer Bruder“ sein und ist doch nur Quotenmarionette des Produzenten „ENDEMOL Productions“.  Die Medienindustrie gibt sich dabei alle erdenkliche Mühe, von einer tatsächlichen Gefahr abzulenken und unsere Überwachung vergessen zu lassen.

Dass der Staat in Zeiten eines globalen Netzes eine Kontrollmacht aufbauen kann, darin irrte Orwell freilich, wohl aber anderen Instanzen ist dies möglich. Wer seine Software nicht selber schreibt, seine Hardware nicht selber lötet und sich somit einem Industrie-Standard hingibt, ist immer auch potentielle Zielscheibe speziell in der Netzwelt, wie ich im folgenden zu belegen versuche. Die Kontrollstruktur der Observatoren ist hierarchisch aufgebaut. Diese Hierarchie soll ihre Analogie in der Anordnung der nächsten Kapitel finden.

 


4.1. Die Microsoft Methode

Das neuste Werk der Berliner Künstlerin Andrea Zapp „Little Sister“ (www.azapp.de/littlesister/) ist ein non-stop „CCTV Drama“, eine Daily Soap aus Webcams und Überwachungskameras, die den Benutzer in eine voyeuristisch privilegierte Position bringt. Man wähnt sich als Superbeobachter. Das Beobachten solcher exhibitionistischer Internetvideos erfolgt zumeist – wie auch hier - über das populäre Streamingverfahren Realvideo der US-amerikanischen Firma Real Networks.

Das Unternehmen Real Networks wiederum sah sich Ende 1999 mit einem Gerichtsverfahren konfrontiert, weil der Realplayer sowie der Multimedia-Player von Microsoft gezielt Userdaten an die Server von Real Networks  übermittelten, aus denen sich das Unternehmen eine Analyse der Hör- und Sehgewohnheiten der Benutzer erhoffte (vgl.[19]). Jede Rolle, die man selber als kleiner „großer Bruder“ ausfüllen kann, scheint wiederum durch eine höhere Instanz kontrollierbar.

Die Ambivalenz von Privatsphäre und dem, was die Computerbranche mit Begriffen wie „datamining“ oder „user-profiling“ umschreibt, wird seitens dieser oft mit dem Argument der Kundenbetreuung entschärft und grobe Fahrlässigkeit mit angeblicher Unkenntnis argumentiert.

So kümmerte sich auch Chip Hersteller Intel zuletzt hingebungsvoll um seine Kundschaft  und gab bekannt, dass man in den Pentium III Prozessoren Seriennummern eingearbeitet habe. In bekannt doppelter Formation verkündete dann auch Microsoft dem unerfahrenen Benutzer, dass  dank des Pentium III das Internet nun noch schneller und bunter auf den heimischen Monitor kommen würde. Die Seriennummer des besagten Prozessors, so Intel, diene als elektronischer Ausweis für den sicheren Online-Einkauf. Die drohende Nebenwirkung allerdings; wie von selbst entsteht ein detailliertes Einkaufsprofil des Kunden. Anhand dieses, bare Münze werten Profils, lässt sich der Kunde dann gezielt mit auf ihn abgestimmten Werbekampagnen überschütten. Viele Online-Shops bieten dem treuen Stammkunden heute aufgrund seiner Vorlieben spezielle Angebote an oder lassen ihn selbst die virtuellen Regale konfigurieren. Im Falle Intel ist der Big Brother aber direkt in der Hardware implantiert, ein Austauschen der Software bzw. des Betriebsystems bringt rein gar nichts.

Datenschützer zeigten sich dann auch alarmiert und riefen auf zahllosen Kongressen zum Boykott des verräterischen Schaltkreises auf. Andere Experten wiederum winkten ab und stellten nüchtern fest, dass digitale Gravuren, sogenannte „Globally Unique Identifiers“, seit langem Bestandteil von Festplatten, Steckkarten oder Modems sind. Microsofts Politik ist allerdings alles andere als undurchsichtig. Seit dem ersten 32-BIT Betriebsystem Windows 95 dürfte auch Gelegenheitsnutzern klar sein, wohin die Reise geht. Das Betriebsystem verschmilzt zunehmend mit dem Internet-Browser und mutierte bis zur letzten Veröffentlichung (Windows 2000) zu einem Riesenbrowser mit peripherem Betriebsystem.

Interessant sind hinsichtlich Microsofts aggressiver Verkaufspolitik frappierende Parallelen zu Orwell. So heißt es in Königs Erläuterungen und Materialien: „Orwells letzter Roman zeigt die Welt aufgespalten in drei Supermächte, Ozeanien, Eurasien und Ostasien, die einander in Herrschaftskultur und Ideologie gleichen. Der Scheinkrieg, den sie gegeneinander führen, dient ihnen als Alibi für Gewaltmaßnahmen im eigenen Machtbereich.“  [20]

Und im weiteren: „... die sich im Dauerkrieg um den Rest der Erde befinden, aber niemals stark genug sind, sich gegenseitig völlig zu besiegen und dies auch gar nicht beabsichtigen“. [21]

So werden die Gewaltmaßnahmen im eigenen Machtbereich Microsofts, das Diktat ständiger Updates etwa, mit der Konkurrenzsituation argumentiert. Um diese wiederum zu erhalten, subventionierte Gates beispielsweise die Apple Macintosh Computer, als diese im Jahre 1998 kurz vor dem finanziellen Ruin standen.

Das Betriebsystem und die Office Anwendungen aus dem Hause Microsoft, deren Markt-Dominanz bei etwa 90% liegt, aktualisieren und reparieren sich selbstständig aus dem Netz und optisch wie faktisch besteht bei der Navigation kein Unterschied mehr darin, ob ich mich auf meiner Festplatte oder über das Internet auf einem fremden Rechner bewege. Übertroffen wird das durch die Vision von Bill Gates, wonach künftig der Rechner über keine eigene Festplatte verfügen soll und Betriebsystem, Anwendungen sowie persönliche Daten „on demand“ über das Internet bezogen werden. Die Grenzen von öffentlichem und privatem Raum werden damit vollends obsolet.

Mit digitalen Signaturen und Zahlenkolonnen kann ja niemand wirklich etwas anfangen, möchte man meinen, denn es existiert ja keine Datenbank, die diese Information mit einer Person in Verbindung setzt. Doch auch hier waren es die Mannen um Bill Gates, die ganze Arbeit geleistet haben, dies zu widerlegen. Der „Registration Wizard“, der Sie freundlich und hilfsbereit durch jede Installation einer Software unter Windows 98 dirigiert, erwies sich als Plaudertasche im System. Für gewöhnlich fragt  dieser fadenscheinig  über ein Formular Namen, Telefonnummer und dergleichen ab, was auch das modernste Programm nicht zu eruieren im Stande ist. Andere Informationen, wie Email Adresse, Netzwerknummer des Rechners, benutzte Hard- und Software und so fort werden automatisch im Hintergrund gesammelt und gebündelt zur Zentrale des Software-Giganten nach Redmond versandt. Dieser Dateneingriff implantiert sich dann auch in verschlüsselter Form in jeden Brief und jede Tabelle, die mit Microsoft Office Produkten entstanden ist. Ob anonyme Schreiben an die Presse oder Firmeninterna, Redmond hat den Schlüssel zu den Klarnamen.

Zwar werden ständig neue Bugfixes [22] auf den Markt geworfen um die aufgebrachte Meute zu besänftigen, doch wer installiert diese ? Zwar kann man auf ein gemeinschaftlich entwickeltes Betriebsystem wie Linux wechseln und hoffen, dass durch die dezentrale Programmierung und beständige Kontrolle der Entwicklergemeinde ein zentraler Informationsgau zerstreut wird oder gar nicht erst manifestierbar ist. Doch welches Großraumbüro, welche öffentliche Institution oder welches Unternehmen stellt sich aufwendig um ?

Abhilfe schafft hier lediglich eine selbst suggerierte Überzeugung von der Banalität seiner eigenen Daten oder die Meidung des Computernetzwerks. Sind von den Methoden der Software-Giganten ausschließlich deren Produktbenutzer betroffen, so existiert auch hier ein übergeordneter Big Brother, dem sich auch die Software- und Hardwareproduzenten nicht entziehen können. Der große amerikanische Lauschangriff „Echelon“, eine gesamt-gesellschaftliche Spionage auf gänzlich anderer Ebene..




4.2. Echelon

”Manipulation, zu deutsch Hand– oder Kunstgriff, heißt soviel wie zielbewusstes, technisches Eingreifen in ein gegebenes Material. Wenn es sich um ein gesellschaftlich unmittelbar relevantes Eingreifen handelt, ist Manipulation ein politischer Akt.“ [23]

Zwischen Washington und Baltimore liegt das 3500 Seelen Dorf Ford George Meade. Ein ganz normales amerikanisches Dorf könnte man denken - fast. Jeden Morgen lassen Pendler das Dorf auf das 15-fache anschwellen. Bevor man sich dort überhaupt aufhalten darf, wird Monate lang die Lebensgeschichte geprüft und man muss eine Vereinbarung unterzeichnen, niemals ein Wort über die Siedlung, ihre Bewohner und deren Arbeit zu verlieren.

“You don’t have to go to extremes ... just don’t talk”
[24]

Das Dorf ist von einem Zaun aus Stacheldraht umgeben, alle hundert Meter mit Schildern „Fotografieren verboten!“ bespickt. Hinter einem zweiten Hochspannungszaun, patrouilliert von Militär und bewacht von versteckten Kameras die jede Bewegung aufzeichnen, strecken sich Bovisten ähnliche Gebäude in den Himmel – welcome to Ford Meade, National Security Agency (NSA) Headquarters.

Die NSA wurde 1952 mit dem Auftrag gegründet, die hochspezialisierten technischen Aufgaben der geheimdienstlichen Tätigkeiten der USA zu betreuen. Entgegen anderen Geheimdiensten des „Kalten Krieges“ richtete sich die Aktivität der NSA nicht primär gegen militärische Ziele. Ein wesentlicher Aspekt der Arbeit ist ein weltweites Abhörsystem mit dem Namen „Echelon“, das von der NSA konzipiert wurde, koordiniert wird und in Zusammenarbeit mit Großbritannien, Kanada, Neuseeland und Australien umgesetzt wurde. Das Echelon-System ist vornehmlich dazu konzipiert, jede Form moderner Kommunikation (Telefon, Fax, Pager, Email, Telex, Handy ...) zu überwachen und nach „interessanten“ Inhalten zu durchforsten. Zur Massenüberwachung, die, so schätzen Experten, jährlich 1 Billion US-Dollar verschlingt, wurde ein ganzes Netzwerk geheimer Abhöreinrichtungen aufgebaut. Waihopai (Neuseeland) oder die in der einsamen Moorlandschaft Nordenglands gelegene Station in Menwith Hill überwachen beispielsweise die 20 Satelliten der Intelsat Gruppe, über die der Großteil der weltweiten satellitengestützten Kommunikation abgewickelt wird. Andere überwachen landgestützte Kommunikationskanäle, Radio und Funkwellen, deren Abhören ohne weiteres aus dem Weltall per Satellit möglich ist – folglich wird dies auch praktiziert.

Eine der ersten Serien von Spionagesatelliten dieser Art trug den Codenamen „Rhyolite“ und wurde 1973 erstmals ins All geschossen. Einfacher ist natürlich, die Kommunikationsanbieter zu überzeugen, notfalls per Gesetz zu zwingen, eine Abhörschnittstelle zur Verfügung zu stellen. 1945 stimmten in den Vereinigten Staaten ITT World Communications, Western Union und RCA Communications einem solchen Vorhaben zu, und auch in Deutschland ist im Telekommunikationsgesetz verankert, dem Bundesnachrichtendienst (BND) ein Ohr am Draht einzuräumen.

Innerhalb der NSA gab es zu Zeiten des „Kalten Krieges“ Abteilungen wie ADVA (Advanced Soviet), GENS (General Soviet), ACOM (Asian Communists), die auf das Abhören dieser Länder und das Entschlüsseln diplomatischer und militärischer Kommunikation spezialisiert waren. Von Beginn an gab es jedoch auch immer eine Abteilung ALLO (all others), die den Rest der Welt ausspionierte und der nach dem Zerfall des Ostblocks besondere Aufmerksamkeit zu teil wurde.

Zwei der geheimsten Operationen der NSA trugen die Namen „Shamrock“ und „Minaret“. Geheim hielt man diese Operationen schlicht und einfach deshalb, weil sie illegal waren: Die NSA ist ein Auslandsgeheimdienst, die Überwachung von US-Bürgern ist ihr verboten. Erste Risse in dieser Trennung entstanden aber schon 1953 mit dem Beginn der Operation „Shamrock“. Zum präventiven „Schutz der nationalen Sicherheit“ sollten ausländische Regierungen, Individuen und Organisationen, die

a.)    als Agenten  Einfluss auf US-Friedensgruppen zu nehmen versuchen, oder

b.)     US-Organisationen beeinflussen oder kontrollieren oder

c.)    in Kontakt mit ausländischen Regierungen stehen oder

d.)    als Agenten in den USA tätig sind

identifiziert werden.

 

Einmal mehr zeigte sich, dass solche „Watch-Listen“ die Tendenz zum Wachstum haben. Schnell wurden die Aktivitäten radikaler Studenten, jugendlicher Aktivisten, militanter und bewaffneter Gruppen observiert, ebenso wie Antikriegsaktivisten, Deserteure und deren Komplizen, Wahlboykotteure und Proteste gegen die Regierung sowie Medienauftritte mit verwandten Inhalten.


Die Existenz des Echelon-Systems  wurde erstmals öffentlich in dem vom Neuseeländer Nicky Hager  erschienen Buch "Secret Power: New Zealands Role in the International Spy Network" (1996)  beschrieben. Wirklich heiß wurde das Eisen, als 1999 im Internet eine Patentanmeldung der NSA durchsickerte, das die automatische Spracherkennung des Echelon-Systems und damit dessen unglaubliche Perfektion aufzeigte[25]. Die Zielgruppe des Echelon sei längst die europäische Wirtschaft, vermutete die EU, während die Amerikaner sich damit plagten, die Vorwürfe aus Brüssel geschickt abzufedern. R. James Woolsey, früherer Direktor der Central Intelligence Agency (CIA) und Mitarbeiter am Echelon, beschwichtigte den Vorwurf der Wirtschaftsspionage lapidar und mit deutlich sarkastischem Unterton damit, dass „sich rückblickend die Spionage bei den meisten europäischen Unternehmen als nutzlose Sammlerei erwiesen habe.“
[26]

Ob nun der Globalplayer USA tatsächlich in einer solchen privilegierten wirtschaftlichen Lage ist, ist letztlich irrelevant – in einer derart eigenmächtigen ethischen Lage sollten sie nicht sein.

Diejenigen, deren Ethos es schon immer war, alte Tugenden wie Moral im sterilen digitalen Raum aufrechtzuerhalten, sind die Hacker. Für die einen verantwortungslose Pubertäre, für die anderen die „Robin Hoods“ des Cyberspace, haben Hacker eine konkrete Macht des digital-politischen Infiltrierens gleichsam einer Guerilla. Die Antwort auf Echelon kam postwendend am 21. Oktober 1999 unter dem Namen „Jam Echelon Day“ daher. Dabei wurden Millionen Internetnutzer aufgefordert, ihre Emails in der Signatur (am Ende der Botschaft) mit Schlagwörtern zu versehen, die dann das Echelon-System aufmerksam werden lassen. Das rapide Anwachsen offenbar höchst brisanter Nachrichten würde Echelon nicht verkraften und unter der Last der Informationsflut zusammenbrechen. Unter www.Xechelon.com richtete man zudem einen Phrasengenerator ein, der in einem Zufallsverfahren Sätze bildet, die man in fingierte Emails einbauen sollte.

Beispielsweise:
„Saddam Hussein plant zusammen mit Nelson Mandela eine sozialistische Revolution gegen den Präsidenten der Vereinigten Staaten und benutzt dabei C4-Sprengstoff und finanziert das Ganze mit Gewinnen aus internationalen Drogenverkäufen."

Die amüsante Idee der Überflutung, die bei der Chance 2000 „Aktion Wörther See“, dem ehemaligen Kanzler eher ein müdes Lächeln abgerungen haben dürfte, verebbte dann auch mit demselben Effekt in den Gesichtern der NSA-Wissenschaftler. Dem liegen mehrere Fakten zugrunde.

Die reine Textrecherche und die Auswertung ist seit Jahrzehnten ein typisches Aufgabenfeld der Computerlinguistik. Dass die NSA dabei über Analytiker verfügt, die weit komplexere Aufgaben als das Programmieren einer Rechtschreibprüfung in einer Textverarbeitung  bewältigen können, versteht sich von selbst.

Explizite Schlagwörter zu filtern, die zudem kaum in terroristischen Nachrichten in dieser Reinform auftauchen werden, dürfte die Profianalytiker wenig beeindrucken. Wesentlich mehr Kopfzerbrechen würde da schon ein erhöhter Gebrauch von „PGP – Pretty Good Privacy“ verschlüsselten Emails auslösen. Je intensiver der Grad der kryptographischen Maßnahmen, desto höher der Rechenaufwand, diese wieder in lesbare Informationen umzukehren. Bezeichnenderweise fällt 128-BIT-Kryptographie, eine derart starke Form der Verschlüsselung (an der eine Batterie von Hochleistungsrechnern gemeinsam Jahrzehnte rechnen würde um den Schlüssel zu knacken), unter das amerikanische Waffengesetz und darf offiziell nicht exportiert werden. Die Serverüberlastung, oder wie es in Fachkreisen heißt „Denial of Service“[27]Attacken, konnten Echelon nicht aus der Reserve locken. Echelon arbeitet heute noch und das vor allem deshalb, weil der größte Schutz des Systems die Unwissenheit der meisten Menschen ist.


4.3 CCTV.

Aber auch andere Instrumentarien eignen sich hervorragend als potentielle Big Brother-Systeme, so zum Beispiel Fernsehüberwachungsnetze – CCTV (Camera Control Television) genannt.

Die Technik der Fernsehüberwachung hat sich in den letzten Jahren rasch weiterentwickelt. Natürlich photographieren Polizei und Agenten immer noch Demonstrationen und Personen von Interesse, aber solche Bilder können zunehmend zentral gespeichert und abgerufen werden. Aufgrund der gegenwärtigen Entwicklung zur Ultraminiaturisierung sind solche Geräte jetzt tatsächlich unauffindbar und können sowohl von Einzelpersonen als auch Unternehmen und offiziellen Behörden missbräuchlich eingesetzt werden.

Die Mitgliedstaaten der Europäischen Union vertreten ganz unterschiedliche Positionen im Zusammenhang mit CCTV-Kameranetzen, wobei in Dänemark derartige Kameras gesetzlich verboten sind, während es in Großbritannien bereits Hunderte von CCTV-Netzen gibt. Gerade beim Schreiben dieser Arbeit erfuhr ich kürzlich im Radio, dass demnächst auch in meiner unmittelbaren Nähe – in den Straßenbahnen der Leipziger Verkehrsbetriebe - Videokameras zur Überwachung eingesetzt werden sollen. Zum Schutz der Bürger, heißt es.  Doch wie sieht es mit der Zuverlässigkeit von digitalem Material aus, wo einerseits Bilder und Videos rechtlich als Beweismittel gelten können, andererseits das von solchen Systemen gelieferte Material unbemerkt,  und das heißt auch aus technischer Sicht ohne Qualitätsverlust und ohne existierende Authentizitätprüfung, editiert werden kann ? „Nobody’s perfect – nobody’s software too.“ – weiß der Programmierervolksmund zu berichten. Kein Datenbanksystem, auch nicht CCTV Archive, sind gegen Angriffe vollends immun und das Editieren der Daten sollte schon heute, allenfalls morgen auf jedem beliebigen Heimcomputer möglich sein.

Wie einfach ein Abhören und Mitschneiden diverser Kommunikationskanäle ist, hat Marko Peljhan mit seinem Projekt „Makrolab“ auf der „documenta X“ eindrucksvoll bewiesen. Vierzig Tage lebte der Slowene in seinem selbstgebauten Labor Makrolab auf dem Lutterberg in der Nähe von Kassel. Von dort klinkte er sich in die Telefonate ein, die in dieser Zeit über internationale Telekommunikationssatelliten liefen und führte im Mai 1998 eine Telefonkonferenz mit der Raumstation MIR. Wohlgemerkt mit, wie der Künstler sagt, handelsüblichen Geräten, die man nur in der richtigen Reihenfolge zusammenschalten und ein paar Signale synchronisieren müsste. Die Resultate dieser Streifzüge durch den Äther wurden auf einer Website dokumentiert.[28] Auf die Frage, wie denn die Rechtslage bei derlei Machenschaften sei, antwortet Peljhan:

„Es ist natürlich empfehlenswert, sich mit der rechtlichen Situation vertraut zu machen, weil die in jedem Land anders ist. In Deutschland ist das, was wir gemacht haben, legal, aber man darf das, was man gehört hat, nicht an Dritte weitergeben. In Australien ist es ähnlich, aber in USA oder in Österreich ist die Situation ganz anders. Dort sind die Rechte des Einzelnen zwar vor anderen geschützt, aber nicht vor dem Staat, der als einziger mithören darf.“

Neben weiteren Künstlern wie Michael Klier („Der Riese“), Julia Sher oder Dieter Fraese, die sich der „surveillance“ Thematik in aktiver Weise verschrieben haben, wurden nun auch passive „Nicht-Künstler“ im Kunstkontext diskutiert. Prominentes Beispiel hierfür ist die 1997 durch ihre „Jenny Cam“ (www.jennicam.org) bekannt gewordene Wirtschaftswissenschaftlerin Jenny Marketou, die inzwischen auf zahlreichen Ausstellungen und Konferenzen geladen ist.


Wie wir erfahren haben, gibt es eine hierarchische Big Brother Kette – es scheint so zu sein, dass  immer ein übergeordneter User-User existiert, der Benutzer immer auch benutzt wird. Die letzte Instanz dieser Kette spielt weder auf wirtschaftlicher noch politischer Ebene, sondern auf einer theoretischen Abstraktion, die nachfolgend erläutert werden soll.

 

4.4. Die Welt von innen und außen – theoretisches Konstrukt des Superbeobachters

Was die Realisten heute an einer zentralen Medienmachtinstanz zweifeln lässt, ist das Anerkennen des eigenen Standpunktes, der einem kleinen Zahnrad im Getriebe gleicht. Angesichts der vielen uns umgebenden Zahnräder fällt es uns schwer, den Prozess der gesamten Maschinerie zu sehen oder bildlich an einen großen Hebel zu glauben. Andererseits kann man  Baudrillards Thesen, dass uns das Wirkliche bereits abhanden gekommen sei und die Welt nur noch eine Simulation ist weder bestätigen noch widerlegen, weil die „Beweismittel“ unmittelbar aus der Simulation selber kämen und damit nichtig sind.

Galouyes Science-Fiction-Roman „Simulacron-3“ [29] aus dem Jahr 1964, der 1973 von Rainer Werner Fassbinder unter dem Titel „Die Welt am Draht“ verfilmt wurde, ist von besonderer Bedeutung für das Verständnis von Simulationen. Ergänzt wurde „Simulacron-3“ von einer Reihe utopischer Werke, die eine virtuelle Scheinwelt thematisieren, z.B. William Gibsons „Neuromancer“ [30], in dem erstmals der Begriff des Cyberspace auftaucht, Steve Lisbergers „Tron“ (1982) oder  „The Matrix“ (1999).

Die Akteure sind nicht physisch, sondern nur als Projektionen in der Simulationswelt des Computers vorhanden. Das Universum dieser Projektion besteht aus Menschen und Gegenständen, deren Kenntnis nur virtuell und nie physisch möglich ist. Galouyes Simulationswesen sind Puppen, die das ausführen, was sich der Spieler einer höheren Wirklichkeitsebene ausgedacht hat. Im Bezugssystem des Simulators ist jede Bewegung illusorisch; zwar glauben die subjektiven Einheiten (im Roman ID’s genannt)  in einer körperlichen Umwelt zu agieren, in Wirklichkeit kommen sie jedoch nicht vom Fleck.

In der klassischen Physik meinte man, es wäre so, dass jeder Beobachter von vornherein außerhalb ist. Das ist nicht wahr. Wenn man annimmt, dass die klassische Physik auf unsere Welt zutrifft und das auch wir Teil der klassischen Physik wären, dann könnte man nicht so privilegiert wie ein Superbeobachter sein, sondern man wäre in der Welt. Wenn man sich bildlich eine Schnittstelle in Form eines Bildschirms  vorstellt, in den alles hineinprojiziert wird, dann hat der Beobachter dort eine Objektivität zur Verfügung. Diese Objektivität ist aber eine beobachter-objektive Realität, die nicht identisch mit der ist, die ein Superbeobachter zur Verfügung hätte.

So ist es denn auch, dass uns ein Buch oder ein Film nicht etwa die Rolle eines Superbeobachters gibt, sondern uns lediglich diese simuliert. Es handelt sich gewissermaßen um eine Simulation in der Simulation, denn wir sitzen ja nach wie vor im Kino oder über dem Buch in dieser anzunehmenden, simulierten Welt, die wir Realität nennen. Dadurch erweitern wir nicht unser Interface, sondern verengen es – wir sind nicht in einer „Außen-Welt“, sondern eher in einem Mikromolekül der Innenwelt. Was übrigbleibt, ist immer nur eine Endo- oder Interface-Objektivität  -  auch den Medien gegenüber, denn wir sind ja in dieser Medienwelt – nicht über ihr.

Gehen wir einmal davon aus, dass jeder Mensch sich in dieser (Medien)welt befindet und ein bestimmtes Interface zu dieser hat, welches er nicht überschreiten kann. Dieses Interface umgibt uns also wie das Wasser den Fisch, der nach Laotse[31] das Wasser nicht erkennen kann, weil es für ihn eine unbekannte Größe ist. Dann fragt man sich einerseits, wie man denn überhaupt zur Konstruktion einer höherstufigen Parallelwelt kommen kann. Wenn das Interface nicht überschreitbar ist, dann ist der potentielle Blick „von außen“ auf sich gar nicht denkmöglich.  Und im weiteren, wie könnte man diesen einen Exostandpunkt einnehmen ?

Wenn man das Interface nicht überschreiten kann, so kann man es sich jedoch vorstellen. Man kann sich als Fisch im Wasser sehen und sich vorstellen man könnte hinaus. Oder man kann sich als Zahnrad im Getriebe sehen - das ist denkbar. Durch diesen Abstraktionsvorgang kann man zumindest auf einer Metaebene das Interface verlassen, ohne allerdings in dieser Ebene agieren zu können. Ebenso kann man sich ja auch in einen anderen Menschen hineinversetzen, doch selbst die Psychologie ist hier auf Mutmaßungen angewiesen – der andere Mensch ist man schließlich nie selbst.

Naturwissenschaftlich oder empirisch lässt sich eine „Außenwelt“, zumindest auf klassischem Wege, auch nicht nachweisen, weil Experimente in unserer „Innenwelt“ ja – einfach formuliert – nur die Vorstellung über die Welt, die im Inneren der Welt gemacht wurden, zu verifizieren versuchen. Wie im Windkanal können wir uns im Computer eine Kunstwelt bauen – etwa in Computerspielen [32] -  für die wir Zugriff von außen haben; das Experiment liefe aber nach wie vor in unserer Welt ab...

Für wichtiger als Experimente sind jedoch die möglichen Konsequenzen für Moral und Ethik zu halten. Wenn ich einmal zum Beispiel des Hollywood Films „Matrix“ zurückkehre, in dem die „wahre“ Welt bereits durch Kriege zerstört wurde und den Überlebenden, nach kurzer Retusche ihrer Erinnerung, eine intakte Welt simuliert wird; wenn wir dies nun einmal auf unsere „Realität“ übertragen – wer hätte dann wohl Lust über den Tellerrand zu blicken ? Wer möchte dann die Last des Exo-Standpunktes tragen ? Insofern sind Baudrillards Simulationsthesen auch hinfällig, denn ob die Wirklichkeit nun simulativ oder real ist, ist schlussendlich irrelevant. Es ist unsere Wirklichkeit, in der wir tagtäglich leben und sterben.


5. Ein Dorf namens Babylon? 

Ist das von McLuhan proklamierte globale Dorf nun ein Segen, oder ein weiterer Tribut humaner Eigenschaften an die Maschinenwelt ?

Vajapur, eine Retortenstadt, die vor den Toren Bombays als Freihandelszone in die Wüste gestampft wurde,  um  westliche Computer- und Softwareindustrie anzuziehen, ist der Arbeitsplatz derjenigen, die zu der einen Promille der vernetzten Einwohner des 900- Millionen-Staates Indien zählen.

Westliche Banken und Versicherungen lassen hier über das Kabel ihre Kundendateien billig bearbeiten – ein Grundwiderspruch des Medienzeitalters. Mag man dem Netz auch noch so demokratische Eigenschaften bescheinigen wollen, die Machtzentren bleiben dieselben. Digitaler subtiler Kolonialismus scheint ein Grundpfeiler der Globalisierung zu sein.

Wo jeder dritte Inder Analphabet ist und Schreibstuben einträchtig neben einem „Ghandi- Cybercafé“ das Straßenbild prägen, ist es müßig, über unser ethisches Weltbild  einer Informationsgesellschaft zu sinnieren. Tim Berners-Lee’s Aussage:


"Das Web ist eher eine soziale denn eine technische Schöpfung. Ich habe es erfunden, damit es soziale Auswirkungen hat, nicht als irgendein technisches Spielzeug." [33]

erfährt hier eine unbeabsichtigte Ironie. So ist denn die Informationsgesellschaft in ihrer Globalisierung keineswegs eine globale, sondern eher digitale kapitalistische Koketterie. Der demokratische Idealzustand einer marxistischen Gleichberechtigung  findet auch im Netz nicht ihre Erfüllung. Hier scheitert auch die E-Commerce-Definition eines Bill Gates, „dass jeder Mensch das beste Produkt zum besten Preis von jedem Ort kaufen kann – egal, ob Kochrezept, Buch oder Elektronik ....“.

Innerhalb der wenigen Regionen, die heute die Synonyme „weltweit“ und „global“ gern und oft benutzen und schon früh den Medien das Tribut des „free speech“ abverlangten, gastiert seit dem Netz umso mehr die Opposition der Theoretiker. Die pessimistischen Thesen und Kritiken derer lassen sich dabei an  den aktiven und passiven Positionen des Users dingfest machen.

Einerseits richtet sich die Kritik an eine Überwachungsmethodik, die Orwell beschreibt und die den passiven Konsumenten gerade heute kaum mehr unbeobachtet lässt. Zum anderen richtet sich die Kritik an den Konsumenten selbst, der, wie von Huxley[34] oder Postman[35]  beschrieben, aktiv dem Big Brother huldigt und eine Verblendung oder „Verblödung“ durch diesen erfährt.

Die Frage danach, was die Medien mit dem Menschen machen oder warum wir uns im Postmanschen Sinn durch sie beeinflussen lassen, ist falsch gestellt. Wir wissen, entgegen dem Huhn und dem Ei - erst war der Mensch und dann das Medium. Folglich müssen wir uns fragen, was die Menschen mit den Medien machen. Genaugenommen wird der „Infowar“, die Manipulation und die Kontrolle zwischen den Menschen ausgetragen.

Das Medium selbst ist neutral, seine Kanäle jedoch nicht. Computer wissen nichts von der psychologischen Signalwirkung der Farbe Rot, wenn ihnen dies nicht von Menschenhand eingegeben wird. Das Medium manipuliert nicht. Computer protokollieren und kontrollieren nichts, ohne dem Interesse eines Menschen an der Auswertung. Das Medium kontrolliert nicht.

Das Medium an sich war zu keiner Zeit „message“ aus eigenen Dingen (vgl. [36]), sondern stets  Spiegel des Menschen, der mit dem Medium (auch missgebräuchlich) umgeht. Parallel zur Manipulation lässt sich selbiges für die Orwellsche Kontrollkritik anbringen:

„A sucht erstens zu wissen, was B weiß, ohne dass B von As Wissen weiß. A sucht zweitens sein Wissen an A’ (Untergebene oder Vorgesetzte oder Verbündete) zu übermitteln, ohne das B von der Übermittlung, geschweige denn vom übermittelten Wissen weiß.“ [37] (Kittler)

A und B waren immer Menschen – nie das Medium.



5.1. Fazit – Der Mensch und sein Medium.

Die Enttäuschung ist angesichts der großen Erwartungen, die an ein emanzipatorisches Medium gestellt wurden, groß. Die Begründung dafür ist darin zu finden, dass man den Kanälen des neuen Mediums, respektive des Internets,  Neutralität zubilligte.

Res publica bedeutet die "öffentliche Sache". Niemand hat je den ergänzenden Begriff "res privata" geprägt, obgleich der erste die Rechtfertigung für den zweiten abgibt. Das Recht auf Privatismus beruht grundsätzlich auf der Anerkennung eines öffentlichen Bereichs. Nur innerhalb der Grenzen des öffentlichen Bereichs kann Privatismus beansprucht werden. Demokratie basiert auf der Akzeptanz dieser Trennlinie. Selbstverständlich entspringt die Idee der Demokratie der Illusion, Raum sei neutral, frei von jeglichem gewichtigem sozialen, psychologischen oder physiologischen Widerstand. Der Raum Internet freilich ist genauso wenig leer, wie der Luftraum oder ein psychologischer Raum, den eine Gemeinschaft einnimmt.

Das Medium Netz befreit nun jeden zum Sender. Diese einzigartige Chance, das „global village“ des McLuhan, welches inzwischen eine Großstadt ist, zum positiven Nutzen zu wandeln, ist nicht eine Frage des Mediums, sondern unserer Vernunft. Eine Demokratie ist im soziologischen Sinn stets eine Utopie geblieben. Die Medien, die verlängerte Organe des Menschen sind, können daher genauso wenig demokratisch sein, allenfalls liberal.

Kritik kann, wenn überhaupt,  gegenüber dem Medium erst geltend gemacht werden, wenn wir eine künstliche Intelligenz zur Verfügung hätten. Doch auch dann würde diese primär den Autor „Mensch“ beschreiben.

Die Manipulation und die Observation sind keine Nova der Medien, sondern erfahren durch sie allenfalls eine neue Qualität.



Literaturverzeichnis und Glossar:


 

 [1] Bob Taylor, J.C.R. Licklider, „The Computer as Communication Device“, http://gatekeeper.dec.com/pub/DEC/SRC/research-reports/abstracts/src-rr-061.html

[2] Tim Berners-Lee (mit Mark Fishetti): „Der  Web-Report“, econ Verlag, München

[3] Helen Chaney, Pacific Research Institute, “digital divide”
veröffentlicht über “POLITECH - mailing list of politics and technology”
http://www.politechbot.com/p-01014.html

 [4] Joseph Weizenbaum, auf dem „Unexpected Outcomes of Technology“ Kongress, 1998

 [5] Alan Turing, „MIND - Computing Machinery and Intelligence”, 1950 http://www.abelard.org/turpap/turpar.htm

 [6] Dr. Jürgen Rüttgers, Internationale Konferenz über die Werte der Informationsgesellschaft, 9.Sep. 1996 (Petersberg bei Bonn)

 [7] Bertolt Brecht, „Radio - Eine vorsintflutliche Erfindung?“ (1927/28), S. 217-218, in Werke Berliner und Frankfurter Ausgabe 

[8] Hans Magnus Enzensberger, „Baukasten zu einer Theorie der Medien“, 3. S. 100 ff

 [9] Karlheinz A. Geißler, „Zeit leben“, 1997; Weinheim; Beltz Verlag

 [10] Alvin Toffler, „Future Shock“ , 1965, Bantam Books  Taschenbuch (1984)
 (vgl. auch Alvin Toffler “Third Wave” 1980)

 [11] Jean Baudrillard, „Das System der Dinge – von unserem Verhältnis zu den alltäglichen Gegenständen“, 1991, CAMPUS Verlag

 [12] Immanuel Kant, „Kritik der Urteilskraft“, 1790

 [13] Niklas Luhmann, „Die Realität der Massenmedien“, 2. Auflage, Westdeutscher Verlag

 [14] „Motion Capturing“, bezeichnet ein Verfahren der Datenerfassung über einen Datenhandschuh, Datenhelm oder kompletten Datenanzug. Die Bewegungsdaten können in Echtzeit auf ein Computermodell übertragen werden, welches mit realistischen Texturen (Foto) dargestellt werden kann.

 [15] Hans Magnus Enzensberger, Essay „Das digitale Evangelium“, SPIEGEL 2/00 S.92 ff

 [16] George Orwell, „1984“ , 1947

[17] Hans Magnus Enzensberger, „Baukasten zu einer Theorie der Medien“, Kapitel 5. S. 106
Reinhard Fischer Verlag

 [18] Hans Magnus Enzensberger, Essay „Das digitale Evangelium“, SPIEGEL 2/00 S.96

 [19] CT Magazin 24/99 S.42

 [20] Königs Erläuterungen und Materialien zu „1984“, S.23, C.Bange Verlag

 [21] Königs Erläuterungen und Materialien zu „1984“, S.47, C.Bange Verlag

[22] BugFix; Computerergänzungsprogramm das die Fehler des Originalprogramms beseitigen soll

 [23] Hans Magnus Enzensberger, „Baukasten zu einer Theorie der Medien“, Kapitel 2. S. 99
Reinhard Fischer Verlag
 

[24] Wahlspruch für Mitarbeiter der National Security Agency

 [26] R. James Woolsey, ex-CIA CHIEF on ECHELON
"Most European technology just isn't worth our stealing... Get serious, Europeans. Stop blaming us and reform your own statist economic policies....“
http://interactive.wsj.com/articles/SB95326824311657269.htm
Stellungnahme in : http://www.politechbot.com/p-01018.html

 [27] „Denial of Service“, Form eines Hackerangriffes bei dem nicht in die Software des Servers eingedrungen wird sondern dieser blockiert wird. Bildliches Beispiel, blockiert man den Parkplatz eines Kaufhauses kann keiner mehr einkaufen, ohne das man dazu das Kaufhaus selber manipulieren müsste.

 [28] Marko Peljhan, Makrolab, http://www.ljudmila.org/makrolab/

 [29] Daniel F. Galouye , „Simulacron 3“ , 1964

 [30] William Gibson,  „Neuromancer“, 1984, Rogner &Bernard Verlag, Hamburg

 [31] Laotse  (Laozi), chin. Philosoph, der wohl Ende des 4./Anfang des 3.)Jh. v.)Chr. gelebt hat

 [32] Beispiele für soziologisch-simulative Computerspiele:
   „Populous“, Electronic Arts, 1992 – Der Spieler schlüpft in die Rolle von Gott und lenkt die Geschicke seiner virtuellen Völker.
„The Sims“,  1999 – Der Spieler steuert virtuelle WG Bewohner

[33] Tim Berners-Lee (mit Mark Fishetti): „Der  Web-Report“, econ Verlag, München

 [34] Aldous Huxley, „Brave New World“

 [35] vgl. Neil Postman, „Wir amüsieren uns zu Tode – Urteilsbildung im Zeitalter der Unterhaltungsindustrie“, Fischer Verlag, S.189 ff

[36] Marshall McLuhan, „Die magischen Kanäle. Understanding Media“, Dresden 1994
 “the medium is the message”

[37] Friedrich Kittler, „Infowar – Notizen zur Theoriegeschichte“, in Ars Electronica Katalog „INFOMATION.MACHT.KRIEG“, S.39, Verlag Springer Wien 1998