Schriftliches Referat zum Leistungsnachweis im Fach Philosophie

Interaktivität - digital Doomsday ?

eingereicht bei

Prof. Christoph Türcke

von

FB Medienkunst

Stephan Schröder

Str. des 18. Oktober 33/601

04103 LEIPZIG

spiv@hgb-leipzig.de

4.Semester / Matrikel-Nr.15281

(überarbeitete webversion 15.05.99)

 



INHALTSVERZEICHNIS:

1 Einleitung    
1.1 Einführung in die Thematik / Zur Geschichte
1.2 Durchführung der Untersuchung

2 Multimedium Natur
2.1 Begriffsabgrenzungen und Definitionen
2.1.1 Begriffsdefinition Interaktivität
2.1.2 Die Neuen Medien
2.1.3 Begriffsdefinition Multimedia
2.1.4 Virtuelle Realität / Cyberspace
2.1.5 KI - künstliche Intelligenz
2.1.6 Das Interface

3 Das Internet
3.1 Zur Geschichte des größten Datennetzes
3.2 Internetapplikationen und deren Interaktionsmöglichkeiten
3.2.1 Das W-orld W-ide W-eb
3.2.2 Usenet, Online-Kauf & Homebanking, CUSeeMe, Toolsharing
3.2.3 Internet Relay Chats (IRC)

3.2.4 MUDS und MOOS - interaktiv mittels der Maschine
3.3 Die Gefahr der Vernetzung

4 Das neue Fernsehen
4.1 Interaktiv-TV, video-on-demand, HUGO interaktiv ?

5 Speicherendliche Medien und deren Interaktionsmöglichkeiten

5.1 Interaktive CD-ROM
5.2 Lokale Computerspiele vs. Netz
5.3 Interaktives Lernen

6 Fazit

7 Literaturregister, Referenz und Internetadressen

8 Technikglossar

 

 

 

 

1 Einleitung

1.1 Einführung in die Thematik / Zur Geschichte

Bereits 1672 erdachte Leibnitz eine Rechenmaschine, die in der Lage war, alle 4 Grundrechenarten zu bewältigen und etwa hundert Jahre später (1833) entwarf Sir Charles Babbage eine Rechenmaschine, namens "Difference Engine". Sie war ein erstes Konzept einer programmgesteuerten und mit Speicher ausgerüsteten Maschine, die mangels technologischer Erfahrung aber erst 200 Jahre später in die Tat umgesetzt werden konnte.

Erst durch die Entwicklung der Röhrentechnologie wurde der Weg für die Neuen Medien geebnet. Alan Turing ersann 1937 das Modell der Turing-Maschine, eines Universalrechners, der die in programmierbare Logik umsetzbaren Aufgaben aller anderen Maschinen ersetzen konnte [1]. Im Zweiten Weltkrieg wurde dieses Modell im "Colossus-Computer" umgesetzt, welcher mit der Entschlüsselung der mit dem "ENIGMA-Apparat" codierten deutschen Wehrmachts-Funksprüche beschäftigt war. Auch der von John v. Neumann, John Eckart und John Mauchly entwickelte erste Röhrencomputer der Welt namens "ENIAC", ein Gerät so groß wie ein Wohnzimmerschrank, diente vor allem (wie übrigens der überwiegende Teil der später daraus resultierenden Neuen Medien) militärischen Zwecken der USA (Schockwellen-Berechnung für die Zündung von Wasserstoffbomben).

"ENIAC" und "COLOSSUS" waren keinesfalls als universelle Rechner konzipiert, erst als man die Röhren durch miniaturisierte Schaltkreise ersetzen konnte, wurde die Idee der "Difference-Engine" erneut aufgegriffen und die neue Technologie schrumpfte auf Heimanwendergröße. Bezogen auf das, was wir heute Neue Medien nennen, waren dies je Medium zwar unterschiedliche, aber stets mit der wissenschaftlichen Entwicklung verknüpfte und sich stetig nähernde Wege. Bereits heute wird von einem Multimedium gesprochen. Verfolgt man die rasende Entwicklung im Multimediabereich und die optimistischen Prognosen einiger Wissenschaftler, werden wir in Kürze nur noch ein universelles Gerät benutzen, um alle neuen Medien in einer Technologie und einem (Multi)-Medium miteinander zu vereinen [2]. Ob Trendsetter wie Teleputer, Videophon und Telefax diesen Traum wahr werden lassen oder eben doch nur Medienmixgeräte sind, bleibt abzuwarten. Auch abzuwarten bleibt, wie wir mit diesen Werkzeugen umgehen werden oder sie mit uns, und ob die schöne neue Welt nicht tausende Gefahren birgt.

1.2 Durchführung der Untersuchung

Interaktivität sollte immer von verschiedenen Standpunkten aus definiert werden. Deshalb ist der Interaktivitätsbegriff im allgemeinen nicht zu klären.

In dieser Studie setze ich mich ausschließlich mit den Interaktivitätsmodellen Mensch-Maschine und Mensch-Maschine-Mensch auseinander. Desweiteren habe ich mich auf die Neuen Medien in der Maschine-Position beschränkt, um nicht in eine realitätsferne Terminologiedebatte zu verfallen. Alle Interaktionsformen und jedes Medium gleichermaßen auf Interaktivitätsindizien zu untersuchen, würde den Rahmen dieser Arbeit sprengen.

Jedes untersuchte Medium erfährt zunächst eine kurze Erläuterung zu seiner Geschichte und seinem Interface, also den Navigations- und Eingriffmöglichkeiten des Benutzers. Um diese etwas zu katalogisieren, habe ich ein Level-Schema verwandt, welches Aufschluß über die Interaktionstiefe geben soll.

Nicht beleuchtet, wenn auch nicht vergessen, der Interaktivitätslevel Null, welchen ich Handlungen wie Ein/Aus-Schalten, Zapping (= zufälliges Herumstöbern im Medium) oder unbewußtes Nutzen eines Mediums, zugeordnet habe. Sicherlich läßt man sich bereits damit auf das Medium ein, jedoch möchte ich das Einschalten eines Gerätes und das damit verbundene Laufen des Gerätes nicht als Wechselbeziehung oder gar Interaktivität sehen.

 

 

 

 

2 Multimedium Natur

2.1 Begriffsabgrenzungen und Definitionen

2.1.1 Begriffsdefinition Interaktivität

Wie sich Interaktivität definiert, darüber ist man sich relativ einig. Der Begriff Interaktion, vor wenigen Jahren nur von Soziologen und Psychologen verwandt, bezeichnet ursprünglich die Wechselbeziehung zwischen Personen. Daß der Begriff von den Neuen Medien quasi mißbraucht oder verschleppt worden ist, macht eine Definition von heutiger Interaktivität kompliziert. Wie sich im Rahmen meiner Recherche herausstellte, gibt es starke Differenzen darüber, wer miteinander interagiert.

Hermann Rothermund beschreibt Interaktivität als Dialogform des technischen Mediums und generell als die Aktivität der technischen Medien.

"Die heutige kritische Diskussion der technischen Medien gründet häufig auf einer naiven und unfruchtbaren Gegenüberstellung von Mensch und Werkzeug. So wenig, wie das Freudsche Unbewußte ein Werkzeug des Ichs ist, so wenig können wir die Medien als verlängerte Organe der Menschen betrachten (wie McLuhan [3] ). Die externen Speicher haben seit jeher ein Eigenleben, die digitale Kommunikation benötigt keine Menschen an dem einen oder anderen Ende. Das von manchen Medienavantgardisten gezeichnete Bild einer Mensch-Maschine-Kommunikation ist ein Euphemismus, handelt es sich doch eher um eine Maschine-Maschine-Kommunikation mit optionaler Schnittstelle für Menschen." [4]

Andere versuchten, Interaktivität als die Aktivität mit technischen Medien zu erklären. [5]

Der dritte Ansatz von Peter Glaser [6], Kultautor der deutschen Cybergesellschaft, kommt zwar wie Rothermund zu der Erkenntnis, daß es keine Interaktivität mit Maschinen gibt, jedoch nähert er sich dem Problem auf eine ganz andere Weise. Er ist der Ansicht, daß es Interaktivität mittels technischer Medien, jedoch nur zwischen Menschen geben kann und Maschinen keinen Dialog führen.

Die drei verschiedenen unterschiedlichen Erklärungsversuche (A: Maschine-Maschine, B: Mensch-Maschine, C: Mensch-(Maschine als Mittler)-Mensch) werden sich nicht zu einer universellen Definition des Begriffs Interaktivität bewegen lassen. Es gibt meiner Ansicht nach aber unterschiedliche Interaktivitätstiefen , die ich einleitend schon mit einem Level-Raster zu erklären versuchte (Abb.1) und welche sich von primitiver Interaktion zu wahrer Interaktivität aufschichten.

Keine Interaktion
Level 0 Zapping, An/Aus-Schalten, unbewußtes Nutzen des Mediums
Level 1 implizite Interaktion, Anbieter orientiert, passives Lesen, zuhören und/oder anschauen der angebotenen Daten durch den Verbraucher
Level 2 Anbieter orientiert, jedoch bewußtes Auswählen und Zugreifen auf bestimmte Informationen durch den Verbraucher
Level 3 Multiple-Choices, passive Benutzerorientierung durch Eingreifen in den anbieterorientierten Informationsfluß
Level 4 direkte Beeinflussung der passiven Anbieterinformationen, Eingreifen in die Inhalte dies angebotenen Informationsflusses
Level 5 Direkte Kommunikation und gemeinsames Feedback bei Anbieter und Konsument, z.B. direktes und flexibles Beantworten komplexer Fragestellungen des Konsumenten, freie programm-ungebundene Dialogform

Interaktivität mit beiderseitiger Wechselwirkung.


Abb1.

 

2.1.2 Die Neuen Medien

Die Frage nach dem Neuen am Neuen muß sich jeder gefallen lassen, der dieses Attribut für sich beansprucht. Demnach auch die "Neuen" Medien.

Die Verfahren der (alten) Medien besitzen eine Materialität, sie basieren auf Technik. Aufzeichnung, Speicherung und Übermittlung von Daten sind wesentliche Prozesse der Neuen Medien, die jedoch ihre Vorgeschichte alle in anderen Medien haben. Das Neue bedient sich also des Alten, mit dem Unterschied der Immaterialität der Neuen Medien. Die Neuen Medien geben dem Menschen die Vision der Telepräsenz. Unabhängig von Ort und Zeit, ohne den Zwang zur Synchronisation, verschafft die Technik auch dort einen Hauch zwischenmenschlicher Kommunikation, wo sie naturgegeben nicht stattfinden kann. Dennoch handelt es sich um eine hybride Kommunikationslösung mittels neuer Medien (Menschà MaschineàMensch).

Kommunikation ist eines der wichtigsten Güter der Menschen. Nicht ohne Grund band sich die menschliche Kommunikation früh an die Medien, auch an die Neuen. Inzwischen ist überhaupt Entwicklung ohne Medien oder ohne Kommunikation nicht mehr denkbar. Was wir wissen, wissen wir letztendlich aus den Medien. Der Durchbruch eines neuen Mediums setzt voraus, daß die neuen Kommunikations- und Informationsformen zu anerkanntem Kulturgut geworden sind. Für die Neuen Medien bedeutet das, daß ausreichend viele Personen lernen müssen, ihre Gedanken mit Bildern, Animationen, Tönen, Videos, etc. auszudrücken oder den Ausdruck anderer zu verstehen. Resultiert die Menschheit in Datensammlungen ?

Neue Medien erheben den Anspruch, als Ganzheit - im Sinne menschlicher Kommunikation (hören,sehen,sprechen) - akzeptiert zu werden. Nur das Zusammenspiel von Form und Inhalt macht das Medium, bzw. in mehrkanaliger Form, das Multimedium.

 

2.1.3 Begriffsdefinition Multimedia

"Was not tut, ist eine Technologie, die so mannigfaltig, so vielseitig, so flexibel ist und auf menschliche Bedürfnisse so schnell reagiert, daß sie jedem legitimen menschlichen Zweck dienen kann. Das wahre Multimedium ist der menschliche Organismus selbst." [7]

Diesen zu kopieren, die Realität zu simulieren, hat sich die Multimedia-Branche zum Ziel gesetzt. Was heutzutage als Multimedia bezeichnet wird, entpuppt sich oft schon beim zweiten Hinschauen allenfalls als 'Medienmix'. Die technische Unmöglichkeit (zumindest bis zum heutigen Tag) punktueller Integration aller heute gebräuchlichen (Neuen) Medien folgt zudem auch noch die allgemeine Distanz zu Medien-Overdose Installationen, die die menschliche Wahrnehmung überfordern.

Das war beispielsweise bei der "Piazza Virtuale", Bestandteil der documenta IX (1993), der Fall. Ein hundert Tage dauernder Medienmix aus Live-TV via Satellit, Telefon als Steuergerät der TV-Aktionen, Btx, Videofon und Fax, war eher eine Attacke auf die Geduld der Zuschauer, die sich nach zwei Stunden "Piazza Virtuale" wohl wieder mit der monologartigen Struktur des TV angefreundet haben, denn erlebtes Multimedia.

Hinter der verkaufsstrategischen Multimedia-Fassade verbirgt sich nichts anderes als eine simple Hybridbildung aus allen digitalisierbaren Daten, die aber nur in den seltensten Fällen konsequent als Ganzheit umgesetzt wird.

 

2.1.4 Virtuelle Realität / Cyberspace

Der Begriff "Cyberspace" wurde 1984 von William Gibson [8] in seinem Roman "Neuromancer" geprägt. Ebenso wie der Begriff "Virtual Reality" ist er im wissenschaftlichen Bereich zunächst zur Bezeichnung audiovisueller Simulationstechnologien verwendet worden, die den Benutzer mit Hilfe von Datenanzügen und Datenhelmen in künstliche dreidimensionale Computerwelten versetzen.

Virtual Reality (VR) ist heute weit mehr. Nach künstlicher Intelligenz den Geist, schickt sich nun VR an, den menschlichen Körper und alles Reale in Hardware und Irreales zu teleportieren. Den umgekehrten Weg, also die systematische Integration von Hardware in die vergänglichen Organe des Menschen, hat sich im übrigen der australische Künstler Stelarc zum Ziel gesetzt, dessen zum Teil erschreckende Performances ich hier nicht näher beschreiben möchte.

Virtuelle Realität, die möglichst perfekte Illusion des Realen, ein Nachahmen der Natur, war immer der Motor technologischer Entwicklung, speziell im Computerbereich. Alle 18 Monate werden Chips mit doppelter Leistungsfähigkeit der Vorgänger entwickelt, so INTEL-Manager Jens Bodenkamp[9]. Leistung die benötigt wird, um Realität zu simulieren. Computer digitalisieren die Wirklichkeit, Bilder in 24-BIT [10] mit Auflösungen in Fotoqualität, spielen synthetische Töne, die nicht mehr vom Original der Natur zu unterscheiden sind und berechnen unsere Visionen schneller als wir sie uns selbst vorstellen können. Diese Möglichkeiten, die heute existieren, verdanken wir dem Drang nach virtueller Realität.

Der nächste Schritt wird nicht nur die Abbildung der Realität sein, sondern die Gegenwart visualierter Menschen im Cyberspace. Diese Gegenwart geht weit über die Präsenz hinaus. Jeder beliebige virtuelle Körper kann vom Geist angenommen werden und kann mit anderen ans Netz angeschlossenen Körpern und deren Geistern interagieren, bis hin zum Cyber-Sex. Damit lassen sich die Ketten von körperlicher und personaler Identität aufbrechen und die virtuelle wäre der realen Realität um einiges voraus. Diese Technologie, wenn auch nicht mehr Fiktion, steckt noch in den Kinderschuhen und VR hat heute noch viel mit Phantasie und Abstraktion, zu tun. Jeder wird dort VR so real empfinden, wie er sich in seiner Phantasie adäquat Reales vorstellen kann.

Angesichts der Tatsache, daß Computer gestern lediglich Grundrechenarten beherrschten, uns heute aber bei minutenlangen Filmsequenzen, die virtuell sind, nicht mehr auffallen, bin ich überzeugt, daß dieses Manko bald behoben sein wird. Ob diese digitalen Erlebnisebenen, Cyberspace oder welchen Ausdruck man auch verwenden möchte, welche auf programmierter Logik beruhen, je die Launen der Natur simulieren können, ist nicht nur eine Frage der technologischen Entwicklung, sondern auch der unseren und unserer Sichtweise der Natur. Die relativ weit fortgeschrittene Entwicklung Virtueller Realität gegenüber künstlicher Intelligenz beruht auf der Tatsache, daß wir wesentlich mehr über die Realität wissen (oder zu wissen glauben) als über unsere Intelligenz.

Um nicht an ihre eigenen Grenzen oder besser die virtueller Realität zu stoßen, benutzen Cyberspacespielwiesen wie MUDS (siehe 3.2.4 Muds und Moos) bewußt Phantasieumgebungen, was aber nicht minder reizvoll ist, denn schließlich ist ja auch nicht jedes Buch eine Dokumentation oder Fachliteratur.

 

2.1.5 KI - künstliche Intelligenz

Entgegen dem Konzept der Turing-Maschine formulierte Alan Turing in einem späteren (1950) Aufsatz "Computing Machinery and Intelligence" ein zweites wesentliches Konzept digitaler Medien, den Turing-Test [11]:

"Kann eine Maschine Äußerungen hervorbringen, die, stammten sie von einem Menschen, als Zeichen von Intelligenz angesehen werden? "

Diesen Test bestanden im Rahmen der maschinenverständlichen Formulierungsmöglichkeiten intelligenter Fragen und Antworten seither die Maschinen problemlos. 1958 prophezeite der KI-Forscher Herbert Simon [12], in zehn Jahren werde ein Computer Schachweltmeister. Das Jahr 1968 verstrich und Computer spielten immer noch jämmerlich Schach, 20 Jahre später, so Simon, sollten Computer in der Lage sein, alles, was auch Menschen leisten können, zu leisten. Marvin Minsky, Direktor am Massachusetts Institute of Technology, sekundierte: "Innerhalb einer Generation wird das Problem der Schöpfung einer Künstlichen Intelligenz im wesentlichen gelöst sein."

Inzwischen sind 30 Jahre vergangen und vieles ist gelöst, aber nur das Einfachste. Das liegt nicht so sehr daran, daß man die Computer überschätzte, sondern mehr daran, daß man die Leistung des Gehirns unterschätzte. Dabei stellt sich natürlich die Frage nach dem Intelligenz-Begriff oder dem Intellekt von Maschinen. Intelligenz ist die Fähigkeit, Kenntnisse und Erkenntnisse zu erwerben, und diese zur Urteilsfähigkeit zu gebrauchen. Computer sind nicht "doof", wie oft beschrieben, aber auch nicht schlau in unserem Sinne.

Computer können sich nicht auf das Wesentliche konzentrieren, sondern erfassen alles. Würde das menschliche Gehirn alles aufnehmen, was unsere Sinnesorgane weiterleiten, wäre es überfordert. Da wir aber nicht wissen wie das Gehirn Wesentliches und Unwesentliches selektiert oder gar kombiniert, können wir diese Erfahrung auch nicht in Computerprogramme speisen. Ein Computer würde sozusagen "den Wald vor Bäumen nicht sehen". Minsky vertritt dabei eine interessante These und meint das Problem schon gelöst zu haben:

"Geist ist nichts weiter als ein Produkt aus geistlosen, aber intelligent ineinander verschachtelten Ober- und Unterprogrammen. Kein Neuron unseres Gehirns verfügt über Intelligenz, aber im Zusammenwirken mit anderen Neuronen produziert es Intelligenz. Also müsse es auch möglich sein, geistlose Mini-Programme so miteinander zu verweben, daß aus ihrem Interagieren so etwas wie Intelligenz entsteht." [13]

Gerade das Verweben, welches unsere Intelligenz ausmacht, ist noch ein Buch mit sieben Siegeln und läßt Wissenschaftler nach über 50 Jahren KI-Forschung bekennen, daß ihr Erkenntnisstand nicht gerade Quantensprünge macht.

Ich möchte mich hiermit nicht der künstlichen Intelligenz entsagen, nein. Wer das heute tut, steht eventuell eines Tages so blamiert da, wie manche Wissenschaftler heute. Roboter, die im Privathaushalt putzen, einkaufen, bügeln und kochen; Autos selbständig durch jedes noch so dichte Verkehrschaos manövrieren; Computer die dichten, malen oder komponieren - es gibt sie nicht. Andererseits können Computer heute auch Dinge, die sonst nur Menschen konnten. Sie stellen Weichen in den Bahnhöfen, überführen Verbrecher, diagnostizieren Krankheiten - und das ohne einen Funken Intelligenz.

Wir haben viele Programme, die alles Mögliche können, aber keines mit gesundem Menschenverstand, dachte sich wohl auch Douglas Lenat, der das Problem mit seinem "Cyc"-Programm lösen will. "Cyc" soll Computern Alltagswissen vermitteln. Ein Computer weiß nicht von allein, daß es z.B. im Winter kalt, in der Nacht dunkel ist, daß Feuer heiß oder Geld wertvoll ist. Millionen Trivialitäten und Binsenweisheiten werden seit 1984 von Lenat gesammelt, katalogisiert und mit Regeln versehen, damit später ein Computer daraus Schlüsse ziehen können soll. Wann Lenat meint, es sei genug Wissen oder er zu einem Schluß kommt, weiß ich nicht. Ob diese Herangehensweise bei der millionenfachen Anzahl von Informationen und Erfahrungen die wir täglich (oft sogar unbewußt) machen, überhaupt sinnvoll ist, wage ich zu bezweifeln.

An Kapazität, Informationen abzulegen, wird die künstliche Intelligenz nicht scheitern, bereits heute ist es in den USA gelungen, Daten von mehreren Terrabyte in Kristalle zu speichern. In relativ wenig Jahren wird es möglich sein, eine Datenbank zu erstellen, die faktisch alles menschliche Wissen speichert. Intelligenz haben wir dann noch lange nicht. Die Lösung des Problems steckt meiner Ansicht nach auch nicht im Sammeln von Daten, sondern im Verstehen des Hypermediums Gehirn. Ist das Geheimnis der Neuronen und Synapsen erst einmal erforscht, wird man binnen kürzester Zeit in der Lage sein, ein adäquates Programm zu entwickeln, welches sich in gleicher Weise wie der Geist selbständig erweitert und Erweitertes sinnvoll verknüpft.

Ob wir diesen Tag herbeisehnen oder verdammen sollten, weiß ich nicht. Bedenklich ist aber die Möglichkeit, dieses Programm X würde Bewußtsein entwickeln und seine Schöpfer mit mathematischer Präzision als unvollkommen, uneffizent und unnötig entlarven. Ich glaube fest an die Programmierbarkeit von Intelligenz und Logik. Leider oder vielleicht zum Glück sind die Menschen aber in höchstem Maße unlogisch und der (Alp-)Traum vom Android ist noch visionäre Science-fiction.

 

2.1.6 Das Interface

Maschinen sollen schneller, effizienter und korrekter arbeiten als Menschen. Aufgrund des Fehlens künstlicher Intelligenz muß man den Maschinen natürlich erst einmal sagen, was sie tun sollen. Schon erste Rechenmaschinen wurden konstruiert, logisch zu arbeiten, was auch heute dazu geführt hat, daß Maschinen wirklich schneller sind als Menschen.

Die Sprache der Menschen ist unlogisch, mit Sonder- und Ausnahmefällen bespikt und teilweise sogar unnötig kompliziert. Keine Frage, daß die menschliche Sprache für schnell arbeitende Maschinen uneffektiv wäre. Die von uns ständig auf Logik und Effizienz weiterentwickelte Computersprache erscheint uns heute unlogisch, weil wir nicht in der Lage sind, schnell wie Maschinen, Unlogik in Logik 'umzurechnen'. Die Aufzeichnungen technischer Medien können nicht mehr unmittelbar von Menschen gelesen werden. Ein Programmierer, der das von ihm geschriebene Programm so vorgelegt bekäme, wie die Maschine es verarbeitet, würde es nicht mehr erkennen. Schon früh wurde also damit begonnen nach einer Schnittstelle, einer Syntax zu suchen, die uns diese Logik-Unlogik (Maschine-Mensch) Umrechnung abnimmt und einen Dialog zuläßt. Das Bedürfnis nach dieser Schnittstelle wurde stärker mit dem Entdecken der elektrischen Energie, mit der alle Neuen Medien heute funktionieren.

Die Logik technischer Medien beruht, im Gegensatz zu mechanischen, auf den Zuständen: elektrische Energie fließt oder fließt nicht. Aufgrund dieser Tatsache entwickelte man ein binäres Zahlensystem, in dem 0 für Energie AN und 1 für Energie AUS steht und so der Maschine verständlich gemacht werden kann. Das menschliche Hirn oder die menschliche Sprache kann sich natürlich nicht auf AN/AUS beschränken und man fand bald eine Software die zumeist englische Worte oder Befehle, in 0 und 1 codierte und der Maschine übersetzte. Der Programmierer spricht bei solchen Übersetzern von Compilern (engl. compile = zusammenfügen), einer Schnittstelle, die den vom Menschen verständlichen Programmablauf in Sekundenschnelle für die Maschine übersetzt.

Der Begriff "Mensch-Maschine Dialog" wurde etwa Anfang der 80'er Jahre geprägt, als Steve Jobs [14], einer der Firmengründer von APPLE-Macintosh, eine von der Firma XEROXParc entwickelte Bedieneroberfläche für seinen APPEL-II Rechner übernahm und erstmals im Heimcomputerbereich etablierte. Dieses OS [15] war das erste der Art, welches man heute unter "Windowtechnik" oder "Windowing" versteht. Der Bildschirm wurde nicht mehr wie eine Rolle Endlospapier beschrieben, sondern bildete die Realität in Form eines Schreibtisches oder Arbeitsplatzes nach. Kombiniert mit verständlicher Ikonographie, erlaubte es dem Benutzer mit dem adäquaten Nachvollziehen der Realität (z.B. Dokument in den Papierkorb werfen = löschen) mit der Maschine noch einfacher in Dialog zu treten. Ich persönlich finde, daß dadurch Computer den Charme verloren haben, welcher mir früher mehr die Nähe zur Technik suggerierte. Eine Maschine wird jedoch nicht mehr dabei denken, wenn ich Worte wie Delete eingebe oder einen Haufen Pixel über einen Zweiten ziehe (Dokument-Papierkorb), sondern löscht magnetische Informationen auf dem Datenträger und 'gehorcht' meinen Befehlen.

Ikonographie birgt die Gefahr, daß Inhalte verkümmern. Bedenkt man, daß ein großer Teil der Menschen dieser Welt nicht lesen können und man auch heute noch keine einheitliche Weltsprache gefunden hat die jeder beherrscht, dann birgt das eingegebene Wort aber die Gefahr der internationalen und sozialen Unkompatibilität. Will man auch weiterhin mit Maschinen und, zu Zeiten des globalen Dorfes, miteinander arbeiten, muß man sich auf eine neue Dialogform (Mensch-Mensch) besinnen, welche die positiven Aspekte der einen abdeckt und die negativen der anderen ausmerzt. Früher oder später wird es zu einer kulturellen Umwälzung kommen müssen. Die Folgen können wir nur aus der Vergangenheit nachvollziehen, wie beispielsweise der Übergang der Mnemonik, der Gedächtniskunst also bzw. "oral-kuturellen" Epochen zu einer von Schriftlichkeit bestimmten Kultur, der jedenfalls nicht ohne Kämpfe stattfand. Plato beispielsweise wollte die schreibenden Poeten und Politiker aus seinem (von ihm ersonnenen, idealen) Staat weisen.

"(Die Schrift) wird Vergessenheit in den Seelen derer schaffen, die sie lernen, durch Vernachlässigung des Gedächtnisses, aus Vertrauen auf die Schrift werden sie von außen durch fremde Gebilde, nicht von innen aus Eigenem sich erinnern lassen. Also nicht für das Gedächtnis, sondern für das Erinnern hast du ein Elixier erfunden. Von der Weisheit aber verabreichst du den Zöglingen nur den Schein, nicht die Wahrheit; denn vielkundig geworden ohne Belehrung werden sie einsichtsreich zu sein scheinen, während sie großenteils einsichtlos sind und schwierig im Umgang, zu Scheinweisen geworden statt zu Weisen."[16]

(Übrigens wurde die zitierte Klage Platos über den Einbruch der Schriftlichkeit in eine von mündlicher Kommunikation bestimmte Kultur paradoxerweise schriftlich verfaßt.)

 

 

 

3 Das Internet

3.1 Zur Geschichte des größten Datennetzes

Das Internet ist ein Produkt des Kalten Krieges, also der atomaren Drohung und Gegendrohung. 1967 startete das ARPANET [17], eine zunächst experimentelle Zusammenschaltung von Computern mehrerer Universitätsinstitute. Es sollten Lösungen gefunden werden, mit denen ein Netzwerk im Falle eines atomaren Angriffs, auch bei Ausfall eines oder mehrerer Komponenten, stabil weiter arbeiten kann und eine strategische Gegenoffensive gewährleisten konnte. Gebraucht wurde ein Netz, welches nicht sternförmig (ein Zentrum und Peripherie), sondern flächendeckend und vor allem dezentral (mit Knotenpunkten, in welchen Informationen zusammenlaufen) war. Das war im streng hierarchischen Aufbau des Militärs zwar paradox, aber das Netz funktionierte.

Aus Geldmangel übergab das Militär diese Pläne später an Universitäten. Damit bekamen amerikanische Universitäten ein nichtkommerzielles, die USA umspannendes Netzwerk in den Schoß gelegt, welches in den letzten Jahren ausgebaut wurde und zudem mehrere Metamorphosen durchlebte. Was vor ca. 30 Jahren rein textuellem Austausch wissenschaftlicher Ergebnisse und der Entfernungen überschreitenden Kooperation zugedacht war, findet heute zum Teil ein bitteres Ende im Kommerz und dem 'Stau auf der Datenautobahn'.

Optimistische Internet-Väter prognostizieren, daß etwa zur Jahrtausendwende sämtliches Gedankengut der Menschen, eingescannt in digitaler Form, über das Internet abrufbar sein wird. Pessimistische dagegen, daß alle 4 Sekunden eine neue Website an den Start geht, deren Inhalt zu 80% nur noch als Datenmüll zu bezeichnen ist. Was sich mit relativ großer Sicherheit sagen läßt ist, daß Informationen wesentlich mehr an Wert gewinnen und unser materielles Denken und Handeln ins immaterielle wandeln werden.

 

3.2 Internetapplikationen und deren Interaktionsmöglichkeiten

Oft wird der Modebegriff Internet mit dem WWW gleichgesetzt, was allerdings falsch ist. Das Internet stellt eine spezielle Art der Vernetzung von Computern dar, die viele Dienste und Applikationen zum Kommunizieren, Konsumieren, Informieren und Interagieren bereit hält. Neben dem Internet gab und gibt es andere Formen von Computernetzen, die jedoch im Schatten der schönen neuen Internetwelt teilweise unpopulär erscheinen (z.B.Bulletin Board Systems, FidoNET). Der wohl am häufigsten benutze Service des Internets stellt neben der Email, das World Wide Web (engl. = Weltweites Geflecht) dar.

 

3.2.1 Das W-orld W-ide W-eb

Als die eigentliche Vernetzung der Rechnersysteme zwischen Universitäten bereits weit fortgeschritten war, diese jedoch lediglich dem Austausch von Informationen auf textueller Basis diente, versuchte man im Forschungsinstitut CERN [18], das Netz mit einem Interface zu versehen. Das sollte in ähnlicher Weise geschehen, wie es bei grafischen Interfaces lokaler Rechner geschah (siehe 2.1.6). Es mußte für den einfachen User intuitiv zu bedienen, illustrativ und übersichtlich sein. Man fand einen Standard, mit dem jede Datei auf jedem vernetzten Rechner ohne Verwechslungmöglichkeit definiert werden konnte (ähnlich dem hierarchischen Dateisystem lokaler Computersystemen), den URL (Abk. Uniform Ressource Locator = engl. einheitlicher Quellenfinder). Somit gleicht das WWW einem riesigen Computersystem, auf dessen Dateien, welche hier als Homepages oder Websites bezeichnet werden, der User zugreifen kann.

Eine zweite Hürde der bunten WWW-Welt war, daß zum Zeitpunkt der Einführung des WWW bereits viele verschiedene Computersysteme vernetzt waren, die aufgrund ihrer unterschiedlichen Architektur alle "ihr eigenes Süppchen kochten" [15] und niemand Einschränkungen bei seinem OS machen wollte, 'nur' um mit dem anderen zu kommunizieren. Es mußte also auch ein universeller Programmcode entwickelt werden, der sich mit unterschiedlichen Computerfabrikaten verträgt. Die primäre Errungenschaft dieses Standardcodes HTML (Hypertext Markup Language) liegt nicht im Ansehen digitaler Videos, Bilder oder Musik ist, sondern in der Hypertextualität [19]. Im Hypertext ist es möglich, nicht-linear zu lesen, also durch ständige Verzweigungen direkt auf Themen bezogene Dinge zu verweisen, und dort weiterzulesen (im Gegensatz zum Buch). Gerade diese Verweise, kombiniert mit der inzwischen riesigen Informationsmenge (Wissenschaftler haben errechnet, daß es heutzutage über ein Menschenleben dauern würde, sämtliche Seiten im Netz zu lesen), lassen einen unerfahrenen WWW-Benutzer oft im Netz versacken. Wenn man nichts Bestimmtes im Netz sucht, wird man nichts im Netz finden (es sei denn durch Zufall, wie beim Zapping vor dem Fernseher). Zum Glück gibt es im WWW eine Reihe brauchbarer und präziser Navigations-, Such- und Auswahlwerkzeuge, ohne die eine sinnvolle Nutzung des WWW nicht mehr denkbar wäre. Das hat aber auch zur Folge, daß man um im Netz auffindbar zu sein, seine eigene Homepage diesen Suchwerkzeugen bekannt geben muß.

Ursprünglich war das WWW, ähnlich dem Fernsehfunk, als Einwege-Medium oder auch Einbahnstraßenmedium gedacht. Also zum Informieren und Konsumieren, dem Sender-Empfänger Modell folgend, jedoch nicht zum Interagieren. Viele meinen, das WWW sei interaktiv, nur weil man hier einmal selbst in die begehrte Sender-Position schlüpfen kann. Mehr Interaktionsmöglichkeiten als die der Hypertextualität kann HTML kaum bieten und greift daher häufig auf Hilfsmittel zurück, die vom HTML referenziert werden. Selbst das Ablegen von Empfängerdaten, wie beispielsweise im Falle eines Gästebuchs einer Homepage, sind in der als Präsentationssprache ausgelegten HTML-Struktur nicht möglich. Hilfsmittel, z.B.VRML (Virtual Reality Markup Language), JAVA, PERL, CGI-Scripts oder sog. PlugIns (meistens Medienwiedergabeerweiterungen zum Abspielen von Videos, Musik etc.), bieten dem Benutzer zwar tiefere Interaktivitätslevel, vermindern jedoch meistens den HTML-Grundgedanken der OS-Unabhängigkeit.

Kompatible Vernetzung bei tiefer Interaktion können nicht viele Projekte im WWW bieten. Einige sehr interessante Ansätze, auf einfache Art und Weise Interaktivität zu erreichen oder einem zumindest das Gefühl zu suggerieren, finden sich bei Medienkünstlern, die sich dem WWW angenommen haben.

"Denken Sie immer daran, mich zu vergessen", so lautet die Inschrift auf einem Grabstein. Der Grabstein ist kein Grabstein, sondern eine künstlerische Installation von Timm Ulrichs (1969) dessen Konzept und offensichtliche Metapher zur Mnemonik (siehe auch 3.3 Gefahr der Vernetzung) sich eine Regensburger Gruppe in ihrem "Memopolis"-Projekt bediente. Das Projekt bietet die Mitgliedschaft in einer "Erinnerungsgemeinschaft" (Cyberfriedhof), in der man sich mit einer Homepage verewigt, an [20]. Somit ist "Memopolis" nicht nur ein Beispiel für interaktive und moderne Konzeptkunst, sondern auch dafür, daß sich Neue Medien der alten bedienen, und dabei Materielles durch Immaterielles ersetzen.

Ein zweites Beispiel sind virtuelle Galerien (siehe auch 2.1.4 Virtuelle Realität) in denen man zu spazieren scheint. Eine der 'ältesten' kulturellen Einrichtungen im World Wide Web ist der Web Louvre, der inzwischen seinen Namen in Web Museum Paris geändert hat oder das Metropolitan Museum New York [21]. Ob das geschmacklos ist oder mit Kunst zu tun hat, muß jeder für sich entscheiden. Die Qualität zumindest ist dieselbe wie die in adäquaten Medien repräsentierter Originale. Interaktivität im WWW kann viele Gesichter haben und manche nutzen gerade die Hypertextualität und den direkt aktivierbaren Querverweis. Hier möchte ich beispielsweise kollektive poetische Texte nennen, die untereinander Beziehungen aufnehmen und anders als über den Querverweis nicht aufschlüsselbar sind [22].

Interessant, wenn auch keine neue Idee, ist die künstlerische Kettenbrief-Aktion [23]. Beliebig viele an der Aktion teilnehmende Künstler laden sich eines der dort gesammelten Bilder, verändern es auf dem eigenen Computer und senden es wieder an die Sammelstelle zurück. Jedes Bild ist zugleich Resultat und Ausgangspunkt der elektronischen Bearbeitung und ist durch seine eigene Bearbeitungs- und Transfergeschichte ein Symbol für die Vernetzung.

Abschließend bleibt zu sagen, daß das WWW wenig Interaktives bieten kann, was eindeutig in dessen Geschichte begründet ist. Den Namen als schnellstes Konsumsystem und vor allem reichhaltigstes Informationssystem hat es sich allemal verdient.

 

 

 

3.2.2 Usenet, Online-Kauf & Homebanking, CUSeeMe, Toolsharing

Auch diese nicht so populären Dienste des Netzes bieten eher menschliche Konversation mittels der Maschine als wahre Interaktivität. Der Online-Markt und Homebanking bieten den Monopolen dieser Welt einen neuen Markt, der aber in Wahrheit nur eine Verlagerung des Alten darstellt und lediglich die Bequemlichkeit der Menschen auszunutzen versucht. Der Plausch an der Kasse entfällt, dafür wird rund um die Uhr mittels weniger Mausclicks gekauft.

Etwas nützlicher, wenn auch gleichermaßen nichtinteraktiv ist das Usenet. Das Usenet ist ein riesiger Konversationsraum, in dem Themen von "Auto-waschen" bis "Zwiebeln-stecken" aber auch höchst wissenschaftliche Dinge, diskutiert werden. Diese Diskussionen sind zumeist wenig von Erfolg gekrönt, da simultane Debatten, wie es das IRC (3.2.3) bieten kann, fehlen. Es bilden sich Diskussionsforen, zu deren Thema jeder seine Meinung einbringen und hoffen kann, daß seine Ansichten abermals diskutiert werden. Zu einer Erkenntnis oder gar einem Schlußstrich kommt es selten, bisweilen gar nicht.

Höchst kommunikativ zeigt sich dagegen CUSEEME, ein Videokonferenzsystem. Interaktiv jedoch wird man auch hier nur mit dem Gegenüber aus Fleisch und Blut, nicht mit der Maschine. Der Medienguru Barlow [24] prophezeit schon heute eine Umwälzung des Schulsystems, wie sie beispielsweise im "Comenius"-Projekt derzeit erprobt wird. Benannt nach dem Pädagogen des 17. Jahrhunderts, der den Unterricht mit Bildern propagierte, wurden mehrere Schulen über Glasfaserleitungen verbunden, um so gemeinsames virtuelles Lernen mit einem 'Teleteacher' zu ermöglichen. Daß diese im Grunde gute Idee aber nur mit einem menschlichen Teleteacher und nicht mit einem Roboter fruchten kann, werde ich später noch erklären (siehe 5.3 interaktives Lernen). Im Gegensatz zu diesem Millionen teuren Projekt, kann man sich in der 3. Welt aber noch nicht einmal klassische Schulbildung leisten.

Toolsharing bietet ein Höchstmaß an Interaktion zwischen Menschen und Mensch-Maschine. Lokal kreiert man ein Dokument (beispielsweise ein Bild) auf seinem Computer, an dem simultan Freunde oder andere Netzbenutzer mitmalen können. Allein das Potential künstlerischer Zusammenarbeit, welches darin schlummert, finde ich faszinierend. Stelle man sich beispielsweise vor, Dichter des 16. Jahrhundert hätten, egal ob England, Deutschland oder Frankreich, ihre Werke simultan zusammen schreiben können, was könnte interaktiver sein ?

 

3.2.3 Internet Relay Chats (IRC)

Eine der interessantesten Interaktionsmöglichkeiten im Netz stellt für mich der Chat dar.

Die Geschichte des IRC (Internet Relay Chat = engl. wechselseitiges Schwatzen) begann nicht in den USA, sondern 1988 in Finnland. Jarkko Oikarinen, System Administrator (zuständige Person für die technische Pflege eines Computernetzwerkes) an der University of Oulu, wollte ein Programm schaffen, in dem sich mehrere Benutzer simultan miteinander unterhalten können. Diese kommunikative Programmform bildet heute das Fundament, auf dem das "Cyberspace-Weltbild" erbaut wurde. Ursprünglich gekoppelt mit anderen Netzprogrammen (BBS [25]), stellte sich bald heraus, daß dieses "Multi-User Schwatz-Programm" als eigenständiges Programm viel nützlicher war und immer mehr finnische Universitäten richteten IRC-Server [26]ein. Der große Durchbruch des IRC kam jedoch erst mit der Internet Anbindung Finnlands an die USA im Jahre 1989. Im Oktober 1989 kam das IRC dann auch nach Deutschland und 1994 waren bereits 27 Länder ans IRC angebunden. Die Sprache der Chats ist zumeist englisch (nur etwa 7% der IRC-Benutzer kommen aus Deutschland).

Entgegen Videokonferenzen (CUSEEME) beschränkt sich die Kommunikation im IRC auf textuelles Sehen, was einige interessante Phänomene hervor brachte, die weit über die Grenzen des "ich-freue-mich-gerade" :-) Smiley hinausgehen. So ist es möglich, mit bestimmten Benutzern zu flüstern (/whisper) oder mit großen Buchstaben LAUT zu sprechen, die Identität des Anderen zu erforschen (/whois) oder Mitteilungen, die einem zuwider sind, zu ignorieren (/ignore). Ist erstmal ein IRC-Server angewählt und man hat sich ein Nickname (Pseudonym), unter dem man im Cyberspace angesprochen werden möchte ausgesucht - kann's losgehen.

Vorstellen kann man sich das IRC wie ein Land und den IRC-Server wie eine digitale Stadt. Um nun zu kommunizieren, begibt man sich in dieser Stadt am besten in eine der verschiedenen Kneipen, in denen das Leben pulsiert. Diese 'Kneipen', im IRC Kanäle oder auch Channels genannt, bieten bestimmte Themen an, stellen eine Interessengemeinschaft oder beruhen auf realen Lokalitäten (bsp. #medizin, #computergames, #leipzig; das # bezeichnet die Channels im IRC). Wie in realen Kneipen ist auch in den Kanälen hier mal viel, da mal weniger viel los, es gibt Geheimtips (hidden channels = versteckte Kanäle), Privatfeiern (private channels) und Werbung (channels topic = Motto des Tages), die man sich vor Betreten der Kanäle durchlesen kann.

Soviel zu den Gemeinsamkeiten zur Realität. Die virtuellen Kneipen bieten Vorzüge, die sich wohl im Realen nicht umsetzen lassen werden. So kann ich mich vorher erkundigen wieviele Leute im Kanal sind, beliebig viele virtuelle Kneipen gleichzeitig betreten oder die Stadt (den IRC-Server) gezielt befragen, in welcher(n) Kneipe(n) sich mein Freund von gestern befindet, sofern ich mich denn an dessen Nickname erinnern kann. Jeder kann zudem seine eigene Kneipe eröffnen, wozu er nur einen Kanal zu betreten braucht, den es namentlich noch nicht gibt und seine Freunde einladen (/invite). Die Realität wird einen wieder einholen, wenn man dem Wirt, der sich hier Operator nennt, frech kommt und dich mit dem Befehl (/kick) vor die virtuelle Tür setzt. Im übrigen sind nicht immer alle Besucher eines Kanals aus Fleisch und Blut. Wenn man sich also eine halbe Stunde lang mit jemanden unterhält, der ständig fragt "Hello! How are you?" kann man davon ausgehen, mit einem sog. Robot zu sprechen, der zweifelsohne den Turing-Test bestanden hätte.

Das es im IRC auch intellektueller zugehen kann als in der nächsten Dorfschenke, beweist ein besonderen Kanal, der von jedem IRC-Server zugänglich ist. Immer wieder, wenn es irgendwo in der Welt kriselt, bildet sich ein Kanal namens #report. Auf diesem Kanal werden Informationen live aus dem Krisengebiet gebracht. Als sich Anfang 1991 der Golfkrieg verschärfte, trafen sich Hunderte von IRC-Usern auf diesem Kanal und lauschten den Berichten. Schneller als CNN, aus erster Hand und zum Teil sehr dramatisch: z.B. berichtete damals ein IRCer aus Israel, wie 100 Meter neben ihm eine Scud-Rakete eingeschlagen ist und ihm durch die Erschütterung die Teetasse vom Tisch gefallen ist. Die Logfiles (Textmitschnitte) von damals sind heute noch auf FTP-Servern archiviert. Weitere Anlässe für einen #report-Kanal waren z. B. der Putschversuch in Moskau (1992) und das Erdbeben 1994 in Kalifornien.[27]

3.2.4 MUDS und MOOS - interaktiv mittels der Maschine

MUDS (MultiUser Dungeons = engl. mehrere Benutzer Kerker) sind dem IRC auf den ersten Blick sehr ähnlich. Der reinen Kommunikation, die dort auch möglich ist, kommt jedoch zusätzlich eine textuelle Umgebung hinzu.

Um der Einfachheit halber beim Kneipenbeispiel des IRC zu bleiben, steht hier dem Benutzer offen, durch einzelne Räume mittels North, South, West oder East zu navigieren. Diese Räume werden nach jedem Betreten einleitend kurz beschrieben. Das können je MUD reale, aber auch völlig irreale Beschreibungen sein. Räume, in denen eine Kuh den Eiffelturm auf dem Kopf hat und zum Tanz bittet, sind nicht unmöglich, zumal jeder Benutzer die Möglichkeit hat, diese Räume zu ändern. Das Aufnehmen von Gegenständen beispielsweise bewirkt, daß dieser Gegenstand in der Raumbeschreibung des nächsten Gastes nicht mehr auftaucht. Das Alter eines jeden Benutzers wird an der Online-Zeit im Spiel gemessen, somit ist man virtuell unsterblich, solange man die Telefonkosten bezahlen kann oder bis zum nächsten Stromausfall.

Der Name Multiuser-Dungeon kommt aus der Welt der Computerspiele. Im Mittelalter handelnde Abenteuerspiele auf dem Computer waren ähnlich aufgebaut. Trotz der ebenfalls vorhandenen textuellen Raumbeschreibung war der gravierendste Unterschied, daß die Mitspieler hier vom Computer generiert waren und somit nur über vorgestanzte Programmintelligenz verfügten. Was bei Computerspielen, die einen vorprogrammierten Lösungsweg haben, ja auch Sinn macht. Den Lösungsweg gibt es in MUDS natürlich nicht.

MOOs sind im Prinzip genau dasselbe wie MUDs, jedoch wie der Name (MOO = MUD Object Oriented) schon vermuten läßt, mit grafischem, anstelle textuellem Interface. MOOs bieten dem Benutzer Avatare an, die dessen Erscheinungsbild bestimmen. Im Hinduismus bezeichnet der Begriff "Avatar" vom Himmel herabsteigende Götter, die sich auf der Erde in verschiedene tierische oder menschliche Körper materialisieren [28]. Das eigene Avatar kann aussehen wie man möchte. Man kann schön oder häßlich sein, putzmunter obwohl man gerade zu Bett gehen möchte, als Kugel, Fliege oder auch Würfel durch das virtuelle Leben schreiten.[29]

MUDs und MOOs stellen dem Benutzer, entgegen dem rein kommunikativen IRC, eine mächtige Palette an Interaktionsbefehlen (nehmen, wegschmeißen, anbieten, kaufen, klauen oder auch töten) zur Verfügung. Die fesselnde Interaktivität dieser Internetdienste kommt aber nur dadurch zustande, daß Menschen mittels Maschinen interagieren.

 

3.3 Die Gefahr der Vernetzung

Wir haben bei der Betrachtung der früheren Umwälzungen auf dem Gebiet der Informations-technologien jeweils zwei Haltungen zu den neuen Entwicklungen feststellen können:

Die eine kennzeichnet das neue Medium als göttliches Geschenk (die Schrift, den Buchdruck), als Freisetzung menschlicher Möglichkeiten, als Machtzuwachs des Subjekts, die andere beklagt den Verlust humaner Eigenschaften und eine zunehmende Abhängigkeit und Fremdsteuerung des Subjekts. Johannes Kepler faßte die neuen Errungenschaften des Gutenbergzeitalters im Jahre 1604, gerade 150 Jahre nach Gutenbergs Anstoß, so zusammen:

" Nach der Geburt der Typographie wurden Bücher zum Gemeingut, von nun an warf sich überall in Europa alles auf das Studium der Literatur, nun wurden so viele Universitäten gegründet, erstanden plötzlich so viele Gelehrte, daß bald diejenigen, die die Barbarei beibehalten wollten, alles Ansehen verloren ... Befreien wir nicht alle alten Schriftsteller, soweit sie erhalten sind, durch die Buchdruckerkunst zum Tageslicht? ... "

Kontra bot die Unverdaulichkeit großer Lektürmengen, zudem waren viele Gelehrte besorgt, weil nun jeder Tölpel aus den Wörterbüchern und Lexika sein Wissen sich zusammenklauben, kompilieren und für sein eigenes ausgeben könnte.

Die einst zum Automatisieren und Effizentieren entwickelten Rechenmaschinen sind zu dicht vernetzten Medienmaschinen geworden, bei denen der Mensch nicht mehr zwingend notwendig ist. Das von McLuhans prognostizierte "Globale Dorf" (the global village) ist heute Glasfaserrealität, trotzdem hat nichtmal ein Viertel der Erdbevölkerung ein Telefon. Sämtliches Wissen der Menschen soll digital eingescannt und publiziert werden, dabei kommen viele Homepages über das Niveau "Hallo wir sind Familie Meier" und "diesmal fahren wir in den Urlaub nach ..." nicht hinaus. Teleteaching in Zeiten millionenfachen Analphabetismus; Virtualität und Realität nähern sich nicht nur, sie entfernen einander auch. Wer nicht online, ist der ist nicht oder ist Nichts ? Oder doch alles nur ein Spuk von 30 Jahren, aus dem wir noch nicht zurückgefunden haben ...

Die Vernetzung hat medienhistorisch die Auflösung der Schranken von Zeit und Raum einen entscheidenen Schritt voran gebracht, von dem ich selbst fasziniert bin. Andererseits sind viele der Meinung, daß die Uhren zum "BigBang" im Netz bereits "5 vor 12" stehen. Was nützt aller Enthusiasmus, wenn bei weltweiter Vernetzung Humanität und Intentität verloren gehen? Die Zivilisation im globalen Dorf läßt völlig neue Kriminalitätsformen, Cyberpunks, Piraten und Hacker entstehen und nichts im Netz scheint privat genug oder unantastbar. Die Auflösung von Zeit und Raum bringt im selben Atemzug die der Auflösung von Staaten und deren sämtlicher Gesetze mit sich. Rechtsextremistische- und pornographische Publikationen neben Ottoversand und Harald-Schmidt-Show, wir haben längst die Kontrolle über das Netz verloren, wollen es nur noch nicht wissen.

 

4 Das neue Fernsehen

4.1 Interaktiv-TV, video-on-demand, HUGO interaktiv ?

DF1 - kein neuer Sender, nein, das Neue Fernsehen soll es sein. Interaktives Fernsehen soll Schluß mit dem ewigen Laster der Fernseh-Einbahnstraße machen. Aktives Mitwirken oder Wechselwirkungen im Geschehen kann es nicht bieten.

Die interaktive Television ist und bleibt nur eine Vision und kann dem 'alten' Fernsehen gegenüber kaum Neues bieten. Was Videorecorder konservieren konnten, was man sonst durch Zapping zufällig oder bewußt durch Videotext/Zeitschriften sah, kann nun unmittelbar abgerufen werden. Die versprochene Rolle der Regie stellt sich als Lüge heraus, kann man doch lediglich den Schnitt übernehmen. Der Programmfluß (Anbieter à Konsument) ändert sich lediglich im gezielten Auswählen des Flusses.

Auch das Einleiten 'neuer' Wege, wie beispielsweise dem Sega-Channel in den USA oder der angeblich interaktiven HUGO-Sendung, in der man mit dem Telefon Computerspiele über das Fernsehen spielt, sind wohl eher trauriger Beweis dafür, daß sich das gute alte Fernsehen anderer Medien bedienen muß und hier lediglich etwas transportiert, was man schon seit Jahren zu Hause hat. Echt interaktive Spielfilme, die sich via Telefon oder Computer beeinflussen lassen können, sind noch ferne Zukunftsmusik und technisch nicht zu realisieren.

Das Fernsehen ist (und bleibt) vorerst nur Abrufstation gespeicherter Medieninhalte, dessen Fluß wir nicht lenken können. Es muß also eine andere Herangehensweise gesucht werden, die Inhalte vermitteln kann, die zudem vom Benutzer zu variieren sind. Einen bemerkenswerten Ansatz boten vor Jahren ARD und ZDF, die simultan einen Krimi mit derselben Handlung ausstrahlten, aber je Sender eine unterschiedliche Betrachtungsweise (Mörder,Opfer) gewährten.

Solange noch von Zuschauern gesprochen wird, kann sich das Fernsehen nicht mit Begriffen wie dem der Interaktivität schmücken, das wäre paradox.

 

5 Speicherendliche Medien und deren Interaktionsmöglichkeiten

Zugegeben, was ist schon unendlich ? Unter den von mir sogenannten speicherendlichen Medien verstehe ich Medien, die keinem Übertragungsfluß (wie TV, Radio, Internet etc.) mit scheinbar nie enden wollender Quelle unterliegen. Medien, die nicht aus irgendwelchen Leitungen oder Dosen kommen, also auch nicht dem Sender-Empfänger Prinzip folgen. Speicherendliche Medien sind immer lokale Medien.

 

 

5.1 Interaktive CD-ROM

Interaktive Multimedia CD-ROM steht in großen Buchstaben auf der Verpackung. Wegen mangelnder Erfahrung blendet dieser verkaufsstrategische Werbetrick viele Kunden. Etwas versierteren Freaks entlockt dieser Widerspruch nur ein müdes Lächeln.

ROM steht für Read only memory (engl. = nur lesbarer Speicher), also für ein nicht beschreibbares und somit nicht lern- oder erweiterungsfähiges Medium. Die angebliche Interaktivität kann sich nur auf die vordefinierte Datenkapazität einer CD (650 Megabyte) beschränken und versteckt sich oftmals hinter sensationsheischenden Animationen und Sprachausgabe, die dem Benutzer einen Dialog vorgaukeln.

Ein Interaktionspartner läßt sich eben nicht auf ein unflexibles Medium wie das einer CD beschränken, zumal eine Interaktion ja gezielte Wechselwirkung zwischen A und B und deren gegenseitige Beeinflussung darstellt. Eine vor 10 Jahren erworbene CD-ROM wird jedoch auch nach täglichem Gebrauch kein bißchen weiser sein als vorher oder auch nur ihre Datenmenge ändern. Die relativ große Datenkapazität einer CD, kombiniert mit gut verschachtelten Multiple-Choices, wird einem höchstwahrscheinlich lange Zeit Spaß bereiten, sobald man jedoch alles gesehen hat, wird auch der Letzte eingestehen müssen, daß es mit der Interaktivität vorbei ist.

 

5.2 Lokale Computerspiele vs. Netz

Nicht viel flexibler stellen sich Computerspiele dar, deren Entwicklung ich bereits seit meinem Computereinstieg 1989 verfolge.

Das Erscheinungsbild heutiger Spiele, die häufig auf CD-ROM publiziert werden, ist zwar ein anderes als es die klobigen Spielerfiguren im Jahre 1989 waren, am Prinzip der Spiele hat sich jedoch nichts Revolutionäres getan. Immer aufwendigere Techniken wie z.B. die des Motion Capture, bei dem reale Bewegungen auf die Spielerfigur übertragen werden um so eine möglichst realistische Kinematik zu erreichen, werden auch zu Zeiten in denen Spiel und Realität scheinbar verschmelzen, nichts daran ändern, daß der Spielverlauf im wesentlichen durch den Programmierer bestimmt wird. Diese 'Schein'-Interaktivität ist es auch, die uns denken läßt mit Computern interaktiv werden zu können, nur weil wir entgegen dem TV, Fenster verschieben und direkt in die Tiefe der Mattscheibe eingreifen können, was natürlich ein Trugschluß ist. Allenfalls der Programmierer kann von sich behaupten, der Interaktivität einen Schritt näher gerückt zu sein. Spätestens bei Schwächen des Compilers, die ihn eventuell dazu zwingen bei seinen Ideen Kompromisse einzugehen, wird auch er diesen Schritt wieder zurückgehen müssen.

Mir warf sich immer die Frage auf, warum Computerspiele im Netz oder lokal zu zweit wesentlich länger an den Bildschirm fesseln, als alleine mit einem Raumschiff auf programmierte Helden zu schießen. Es ist eben die Gewißheit des Ungewissen. Nicht zu wissen wie das Gegenüber im nächsten Moment handelt, ist wesentlich interaktiver als gegen einen programmierten Gegner zu spielen, dessen nächste Handlung natürlich wieder mathematisch exakt sein wird. Interessant dagegen sind wieder mathematisch exakt definierte Spiele, wie Schach beispielsweise, in denen viele einen ständigen (fairen) Leistungsvergleich zwischen Mensch und Maschine suchen.

 

5.3 Interaktives Lernen

Im Zeitalter des "lebenslangen Lernens" gewinnt das individuelle Lernen immer mehr an Bedeutung. Sowohl im Weiterbildungsbereich als auch im Schul- und Hochschulbereich findet das Lernen zunehmend nicht mehr in Form der klassischen Unterrichtsmethode statt, sondern mittels Teleteaching (siehe auch 3.2.2) oder dem selbständigen Lernen mittels Software auf CD-ROM.

Das Grundkonzept, welches Lernprogramme verfolgen, ist mehr der didaktisch kluge und motivationserhaltende Aspekt, denn der interaktive. Im Idealfall sollte eigentlich ein ungebundener Dialog mit dem Tutor (in diesem Fall dem Computer) möglich sein, was natürlich nicht möglich ist. Komplexe Fragen können je nach Umfang der Software beantwortet werden, jedoch nie so komplex wie man es sich wünscht oder gar intelligentem tutoriellen Feedback. Lektionen werden in Hypertextualität gehüllt und bieten im besten Fall Multiple-Choice-Spielchen mit richtig/falsch Frage/Antwortaktion. Das Hinterfragen genauer Sachverhalte endet im Regelfall damit, daß gerade dafür auf der CD-ROM kein Platz mehr war.

Natürlich ist es auch möglich, Lerninhalte im Netz und das bei unbegrenzt anmutender Kapazität zu publizieren. Die Desorientierung oder Verwirrung steigt dann dramatisch mit der Anzahl der Wahlmöglichkeiten und führt nicht selten zum "Lost in Hyperspace"-Phänomen. Deshalb ist schon bei geringen Datenmengen eine gute Navigation über ein Interface zu ermöglichen, um den Frust nicht noch zu schüren wenn man abermals feststellen muß, daß eine CD-ROM oder das Netz eben nicht intelligent sind.

 

6 Fazit

Jede Überlegung zu interaktiven Medien muß genau genommen mit dem Satz enden: Es gibt keine Interaktion mit Maschinen.

Interaktivität zwischen Maschinen ? Wer weiß, Maschinen haben ihre eigene Dialogform, von uns nicht mehr unmittelbar zu verstehen. Interaktion zwischen Menschen (mittels Maschinen)? Auf jeden Fall muß diese Frage mit "ja" beantwortet werden. Diese Mutter aller Interaktivität ist es, die uns Interaktion mit Maschinen vermuten läßt, auf den zweiten Blick stellt sich jedoch heraus, daß es sich um eine neue menschliche Kommunikationsweise handelt.

Interaktivität soll ungenutzte, offene Zugangsmöglichkeiten zu den für viele immer noch mysteriösen Maschinenfunktionen schaffen. Interaktive Medien versprechen, komplexe Inhalte anschaulich und intuitiv zu vermitteln und den Nutzer von der passiven "Couchpotato" [30] zum regen Teilnehmer zu emanzipieren. Alle 'alten' Medien, selbst das gute alte Fernsehen, soll vom magischen Hauch der Interaktivität angeweht, neuen Zauber verbreiten. Im Gegensatz zur Kommunikation und ihrem Sender-Empfänger Prinzip geht es bei Interaktion immer um einen wechselseitigen Austausch, bei dem alle heutigen Medien, die sich interaktiv nennen, bereits scheitern.

Maschinen allein können nur im Rahmen einer vordefinierten Syntax auf den Nutzer reagieren. Man kann dies Multioptional oder Multiple-Choice nennen - ein beiderseitiger Erfahrungsaustausch und dadurch bedingte beiderseitige Veränderung oder wahre Entscheidungsfreiheit sind derzeit nicht möglich.

Dabei stellt sich natürlich unausweichlich die Frage: Woran scheitert die Interaktivität mit Medien ? Meines Erachtens nicht am Interface, welches uns eine Schnittstelle zur Kommunikation mit Medien bietet. Auch nicht am Manko, daß die Realität virtuell noch nicht vollkommen real ist (was sicherlich, davon bin ich überzeugt, in Kürze möglich sein wird). Nein, die Interaktivität scheitert am Fehlen künstlicher Intelligenz. Solange kein dem menschlichen Hirn ähnlicher, hyperneuraler, lern-, entscheidungs- und kombinierfähiger Datenträger gefunden ist, ist die Vorstellung mit etwas Statischem, Unflexiblen und durch Kapazitäten Begrenztem, welches sich nicht selbständig ändern kann, interaktiv sein zu wollen, unsinnig.

Virtual Reality Guru Jaron Lanier beschrieb das Problem der Interaktivität in etwa so:

"Es gibt diesen Traum von einer sehr hohen Interaktivität, und wenn man diesen Traum tatsächlich erreichen würde, hätte man etwas kulturell sehr Wertvolles, etwas sehr Aufregendes. Aber wenn man nur sehr wenig Interaktivität (wie es heute der Fall ist) hat, ist es als trainiere man eine Ratte durch den Irrgarten in einem Labor zu laufen., da die Zahl der der Auswahlmöglichkeiten zu gering ist."

Interessant im Zusammenhang mit der Entscheidungsfreiheit ist natürlich auch der Demokratieaspekt. Die von vielen Netzbenutzern beschwörte virtuelle Demokratie ist eine Nicht-Demokratie. Demokratie wurde immer als Form des Dialogs gedacht, in der Entscheidungen miteinander getroffen werden und diese beiderseitig diskutiert werden. Wenn diese Vorgehensweise zum Mausclick oder Druck auf die Fernbedingung verkümmert, erreicht man wohl kaum mehr als eine Willensbekundung, was ich für die Zukunft sehr bedenklich finde.

Victor Hugo sagte einmal "Nichts auf der Welt ist so mächtig wie eine Idee, deren Zeit gekommen ist." Die Idee der Interaktivität mit Medien ist noch ferne Vision.

 

 

7 Literaturregister, Referenzen und Internetadressen:

[1] Alan Turing in On Coputable Numbers (1937) Alan Turing hat die beiden wesentlichen Konzepte der digitalen Medien formuliert: Erstens die Universalmaschine. Danach kann jedes Phänomen und jeder Prozeß, der vollständig und unzweideutig beschrieben werden kann (was die Definition sowohl des Algorithmus/Automaten, wie die des intersubjektiv Überprüfbaren Wissens der Wissenschaften ist), in der einen einzigen Maschine implementiert werden, die allen Maschinen ein Ende setzt.

[2] Nobert Bolz "Am Ende der Gutenberg Galaxis", Verlag unbekannt

[3] Marshall McLuhan, Die magischen Kanäle. Understanding Media. Dresden 1994, S. 349. "Der Inhalt der Presse ist eine literarische Aussage, so wie der Inhalt des Buches die Sprache ist, und der Inhalt des Films ist der Roman....."

[4] Herman Rotermund, "Verschwinden die Subjekte im Speicher"

Der Text basiert auf einem Vortrag, der am 26. März 1996 im Kulturzentrum Schlachthof in Bremen gehalten und in Internet Newsgroups publiziert wurde.

[5] z.B. Gerhard Johann Lischka und Peter Weibel, Polylog. "Für eine interaktive Kunst", In: Kunstforum Bd. 103, 1989, S. 65-86.

[6] P. Glaser, "Magischer Hauch", SPIEGEL special, S.27

Spiegel-Verlag, Rudolf Augstein GmbH & Co. KG, Hamburg

[7] Multimedia, beschrieben von Lewis Mumford 1966 (SPIEGEL special "Der digitale Mensch")

[8] William Gibson, Cyberpunkautor, "Neuromancer" (1984), "Mona Lisa Overdrive" (1989), Rogner &Bernard Verlag, Hamburg

[9] J.Bodenkamp in einem Interview auf der CeBIT 96 in Hannover

[11] Der Turing-Test, ein Intelligenz-Test für Maschinen funktionierte folgendermaßen:

Ein Proband, saß in einem Raum und unterhielt sich per Tastatur mit jemand anderem von dem er nicht wußte ob es ein Computer oder ein Mensch ist. Wenn der Proband nach angemessener Zeit nicht entscheiden konnte, und im anderen Raum stand eine Maschine, welche die Unterhaltung führte, mußte man dieser Maschine Intelligenz zubilligen.

[12] Herbert Alexander Simon, "Models of Man" (1958), "The Shape of Automation" (1965)

[13] Christian Nürnberger (Online Autor in München) im Gespräch mit Marvin Minsky, publiziert in Newsgroups des Internet

[14] Steve Paul Jobs, (*1955) , hatte entscheidenen Anteil am Mikrocomputerboom der späten 70ziger und frühen 80ziger Jahre, baute zusammen mit Steve Wozinak den ersten Personal Computer

[16] Frank Hartmann "Sozialwissenschaftliche Aspekte der virtuellen Gesellschaft", Forum Sozialforschung, Wien, Österreich, forum@fsf.adis.at

[19] Ted Nelson, Mitte der sechziger Jahre der Begründer des Hypertext-Konzepts

[20] Raoul Kaufer, MEMOPOLIS. Diesseits des Todes: computergestützte Verewigung und Erinnerung. Erreichbar unter:

http://rsls8.sprachlit.uni-regensburg.de/~c3055/MEMOPOLIS/vortrag1.html

[21] Metropolitan Museum erreichbar unter: http://www.metmuseum.org/htmlfile/opening/enter.html

[22] kollektive Texte erreichbar unter: http://www.eastgate.com/~malloy/

[23] http://ziris.syr.edu/ChainReaction/public_html/chainReaction.html

[24] John Perry Barlow im Streitgespräch mit dem Fortschrittskritiker Neil Postman publiziert in Internet Newsgroups

[27] Eine gut verständliche Beschreibung und Analyse des IRC findet sich im 6. Kapitel von Howard Rheingolds populärem Internet-Buch Virtuelle Gemeinschaft. Soziale Beziehungen im Zeitalter des Computers, Bonn 1994, S. 219-242.

Zum Thema vgl. auch die ausführliche Untersuchung von Elisabeth Reid Electropolis: Communication and Community on Internet Relay Chat,

Honours Thesis, Department of English, University of Melbourne, 1991

(Online-Version: http://www.ee.mu.oz.au/papers/emr/index.html).

Eine Kurzfassung der Studie von Reid findet sich in Intertek, Bd. 3.3, Winter 1992, S. 7-15.

[28] Als Metapher zum Hinduismus beschrieb Neal Stephenson in seinem Science-fiction Roman "Snow Crash" (1992) Menschen die sich im Internet virtualisieren

N. Stephenson, "Snow Crash", Goldmann-Verlag, München

[29] Einige interessante MOO-Projekte finden sich z.B. unter:

Worlds Away http://www.worldsaway.com

Comic Chat http://www.msn.com

ThePalace http://www.thepalace.com

[30] "Couchpotato" von Peter Glaser (SPIEGEL "Der digitale Mensch") verwendeter Begriff, der den passiven, konsumierenden "Stubenhocker" beschreibt.

 

8.Technikglossar:

[10] Computer mischen alle Farben aus einem (R)ot-(G)rün-(B)lau Spektrum

24-BIT, entsprechen einem Spektrum von ca. 16,7 Millionen Farben und damit alle vom menschlichen Auge unterscheidbaren Farbnuancen

[15] OS ist die Abkürzung für Operating System (engl.=Betriebsystem) welches prinzipiell immer noch einem Compiler, also Übersetzer MenschßàMaschine entspricht, heute jedoch ein grafisches Interface besitzt, weil dem Menschen wahrscheinlich seine eigene Sprache zu kompliziert wurde und man sich auf Eingabewerkzeuge (Maus) und Ikonographie beschränkte. Jeder großer Computerhersteller hat heute sein eigenes OS, die sich jedoch fast alle für die Windowing-Technik entschieden haben. Paradox, daß trotz immenser Ähnlichkeiten und dem Fehlen alternativer Lösungsansätze jeder Hersteller behauptet, die beste Schnittstelle Mensch-Maschine gefunden zu haben.

[17] Advanced Research Project Agency, Pentagon Projekt des amerikanischen Verteidigungsministerium

[18] Europäische Organization für Nuklearforschung (original: Conseil europeen pour la recherche nucleaire, kurz CERN), gegründet 1954 in der Schweiz,

[25] BBS: Abkürzung für Bullentin Board System, ein Mailbox-System, welches neben dem reinen Transfer von Daten, auch die Kommunikation zum Betreiber des BBS, dem sog. Systemoperator zuläßt. Heute im Schatten des Internets etwas verblaßt.

[26] Server: Im Internet unterscheidet man zwischen verschiedenen Dienstleistungen, wie Kommunikation (z.B. IRC), Konsum (z.B. Datentransfer mittels FTP) oder auch dem WWW mit dem URL-Protokoll. Für jede diese und anderer Dienstleistungen laufen speziell dafür konzipierte Programme auf den Rechnern, die Knotenpunkte im Netz darstellen. Diese Knotenpunkte oder auch Anbieter einer Dienstleistung werden Server genannt. (die Konsumenten Clients)