Retrotopia

Der Computer als Zukunftsmaschine*

Ein sicheres Indiz dafür, dass man gerade einen Science-Fiction-Film sieht, ist die Darstellung der Technik darin. Futuristische Technologien erleichtern in (der fiktionalen) Zukunft das Leben, ermöglichen Dinge, die heute unvorstellbar sind, aber führen auch zu Unfreiheit, Unterdrückung und nicht selten auch zum Untergang der Menschheit. Im Zentrum dieses Zukunftsmaschinenparks steht der Computer – mal sichtbar, mal unsichtbar als treibende Kraft hinter den Möglichkeiten der Apparate. Nichts sei so notorisch zukunftsverdächtig wie der Computer, schrieb der Medienwissenschaftler Claus Pias in seinem Buch „Die Zukünfte des Computers“. Der Computer steht für das Versprechen, dass es in Zukunft dank seiner Hilfe besser werde und er ist gleichzeitig dort, wo er auftaucht, immer schon ein Anzeichen dieser Zukunft.

Wenn in der Kultur, den Wissenschaften (vielleicht mit Ausnahme der Informatik) oder der Politik von Computern gesprochen wird, dann immer auch über die Zukunft. Die Frage, ob der Computer uns eine bessere oder schlechtere Zukunft beschert, beschäftigt seit den frühen 1970er-Jahren verstärkt die so genannte Technikfolgen-Antizipation, deren Aufgabe es ist, neue Technologien auf ihre potenziellen Möglichkeiten und Gefahren hin zu untersuchen. Der Fortschritt in der Computer-Technologie hat nicht wenige Faustregeln hervorgebracht, die zu prognostizieren versuchen, wohin die Reise gehen soll: ‚Moore’s Law‘ besagt, dass sich alle zwei Jahre die Anzahl der Transistoren auf einem Chip verdoppeln wird. ‚With’s Law‘ wiederum geht davon aus, dass immer dann, wenn die Software zu langsam wird, dies eine Beschleunigung der Hardware zur Folge hat. Und ‚Rock’s Law‘ schlussendlich behauptet, dass es alle vier Jahre doppelt so teuer wird, eine neue Chip-Fabrik zu gründen. Darüber hinaus gibt es Regeln, die besagen, dass ein angekündigter Computer immer doppelt so teuer wird wie geplant und für die Entwicklung doppelt so lange braucht wie ursprünglich veranschlagt. Die Zukunft hat den Computer also scheinbar fest im Griff.

In meinem folgenden Beitrag möchte ich mich aber weniger mit heutigen Entwürfen des Computers der noch ausstehenden Zukunft beschäftigen als vielmehr mit den vergangenen. Denn schon einige teilweise aus der Computer-Steinzeit stammende Überlegungen beschäftigen sich mit der Frage: Was soll der Computer der Zukunft können? Gestellt wurden diese Fragen aber nicht etwa von Science Fiction-Autoren (obwohl diese schon lange, bevor es überhaupt Computer gab, über solche Maschinen schrieben – man vergleiche die Kurzgeschichte „The Machine Stops“ aus dem Jahre 1909 von E. M. Forster), sondern von Wissenschaftlern, die dafür bezahlt wurden, sich die Zukunft des Computers zu denken und diese konkret zu planen. Ein Interesse an solchen Planungen hatte zumeist das Militär, aber auch die Wissenschaft und später auch die Wirtschaft. Die Vorschläge, die ich hier vorstellen möchte, schlagen eine Brücke von der direkten Nachkriegszeit bis in die 1990er-Jahre und zeigen, wie detailliert die Funktionen und sogar das Aussehen von heutigen Computern schon teilweise vor Jahrzehnten geplant wurde.

MEMory EXtender

Als Vannevar Bush 1945 seinen Aufsatz „As we may think“ veröffentlichte, war er bereits Mitte 50 und hatte schon mehr als zwei Jahrzehnte Erfahrung im Umgang mit Computern. Sein ‚Differential Analyzer‘ war einer der wichtigsten elektromechanischen Analogcomputer, der späten 20er- und frühen 30er-Jahre. Mit seiner Hilfe konnten – wie der Name bereits sagt – komplizierte mathematische Differentialgleichungen gelöst werden. Im Gegensatz zum Digital-Computer, der 1945 gerade erst erfunden worden war, hatte Bushs Differential Analyzer keinen Speicher, keine numerische Ein- oder Ausgabe und sah auch sonst eher wie ein überdimensionales Tischfußballspiel aus. Der Analogcomputer war aber immerhin so berühmt, dass er Kurzauftritte in Science Fiction-Filmen der 50er-Jahre („When Worlds Collide“ und „Earth vs. the Flying Saucers“) hatte. In seinem Text ging Bush die Sache noch mal ganz anders an. Im Wissen, dass der Krieg nun bald vorüber sein würde, wollte er die Computer-Technologie für friedliche Zwecke und am besten für jederman nutzbar machen. Was ein Computer für solche Zwecke leisten können sollte, stellte er sich schon sehr konkret vor: Er sollte Datenbestände verwalten und abrufbar machen.

Bush entwarf in seinem Artikel eine Maschine, die er Memex nannte – ein Kofferwort für ‚Memory Extender‘. Er sah den gewaltigen Informationszuwachs – vor allem in den Wissenschaften – und damit das Problem, dass bald mehr Zeit damit vergehen würde, Informationen zu suchen (und sie vielleicht nicht zu finden und Zeit mit dem Neudenken eines schon durchdachten Problems zu verschwenden) als mit der Arbeit am Problem selber. Mit Hilfe der Memex sollte diese Hürde überwunden werden. Sie sollte Fotos, Dokumente und sogar Ton- und Filmaufnahmen auf Mikrofilmen speichern können. Jede Memex sollte mit einem Bestand an Lexika und Fachbüchern ausgestattet sein, die das Arbeitsfeld ihres Nutzers repräsentieren.

Dieser Nutzer sollte nun die Möglichkeit bekommen, Querverbindungen zwischen den einzelnen Inhalten herzustellen und diese fest zu speichern, sodass er die Gedankengänge, die ihn von einem Inhalt zum anderen geführt haben, später rekapitulieren konnte. Außerdem sollten in der Memex auch eigene Notizen und neue Dokumente (auf Mikrofilmen) abgespeichert werden können – eine Technologie, die Bush im Zuge der Entwicklung der Trockenfotografie als interessante Anwendungsmöglichkeit erwog. Texte sollten zudem erkannt und verschlagwortet werden, sodass eine Stichwortsuche im Datenbestand möglich wäre. Vannevar Bush versprach sich von der Memex zum einen die Entlastung von lästiger Denkarbeit. Dies ist ein Motiv, das sich durch die gesamte Geschichte des Computers zieht: Zeitraubende Rechentätigkeit muss automatisiert werden, damit die freiwerdenden Potenziale des Menschen für Kreativeres nutzbar werden. Die Memex war daher als eine Art externes Gedächtnis für Faktenwissen angelegt. Ihre Möglichkeiten dachte Bush jedoch noch weiter. So sollte man die aufgezeichneten Informationsquerverbindungen an andere Memex-Nutzer weitergeben können, damit die das jeweilige Projekt nachvollziehen können und so gemeinsame Arbeit an einem Problem stattfindet.

Bush dachte dabei noch nicht an eine Vernetzung verschiedener Memex-Computer (obwohl die Science Fiction – siehe „The Machine Stops“ – das Internet schon längst erfunden hatte). Sein Computer war auch nicht universal programmierbar, sondern auf die Arbeit mit Datenbanken angelegt. Die Datenbestände lagen analog vor, eine Digitalisierung zur bestmöglichen Weiterverarbeitung durch elektronische Maschinen kam ihm nicht nicht in den Sinn. Obwohl die Memex – als popularisierter Analogcomputer – nur wenigen zugänglich war und diesen nicht all zu viel zu bieten hatte, sprach sich seine Idee herum. Sie soll zwei Jahrzehnte später einem anderen wichtigen Vordenker zum Entwurf einer eigenen Utopie gedient haben – doch dazu später mehr.

Computer im Krieg

Ein Jahr nach „As we may think“ im Jahre 1947 wurde dann tatsächlich der vernetzte Personal Computer erfunden. Sein Name war Joe und er war einer der Protagonisten in Murray Leinsters Kurzgeschichte „A Logic named Joe“. Leinster stellte sich eine Zukunft vor, in der in jedem Haushalt ein ‚Logic‘ stand, mit dem man alle möglichen Aufgaben würde erledigen können, vom Anlegen einer zentralisierten Datenbank sämtlicher verfügbaren Medieninhalte bis hin zur allgemeinen Problemlösung. Dem Logic ‚Joe‘ brennen in der Geschichte ein paar Schaltkreise durch, weshalb er von da ab auch Probleme löst, die ihm zu lösen eigentlich untersagt sind: perfekte Morde planen, perfekte Fälschungen von Banknoten anfertigen, Anleitungen zu funktionierenden Revolutionen verbreiten usw. Der Computer in der Kurzgeschichte tut genau das, was man in den folgenden Jahrzehnten immer wieder von seinesgleichen befürchtet: Er handelt präzise, logisch und schnell – aber absolut ohne Gewissen und frei von moralischen Wertvorstellungen. Eine Maschine, die, besonders, wenn sie als Waffe eingesetzt wird, der Menschheit schnell zum Fluch werden kann. Und die gar nicht fiktiven Grundlagen für diese Einsatzmöglichkeit wurden schon früh gelegt.

Beim Bau des Differential Analyzers, der ja selbst schon hauptsächlich zur Berechnung von militärisch-ballistischen Flugbahnen genutzt wurde, war Vannevar Bush nicht allein. Einer seiner damaligen wissenschaftlichen Mitarbeiter hieß John von Neumann. Von Neumann war Mathematiker (seine Doktorarbeit schrieb er über die Spieltheorie) und wurde später dadurch berühmt, dass er zu den Entwicklern der ersten Atombombe gehörte, wesentlich zur Konstruktion des ENIAC beitrug und für die Digitalcomputer-Architektur einen Aufbau vorschlug, der noch heute gültig ist: die Von Neumann-Architektur, nach der Programm und Daten im selben Speicher abgelegt werden. Neumanns spieltheoretische Überlegungen flossen nicht nur in die Planungen konkreter Panzerschlachten des Koreakrieges ein; sein Essay „First Draft of a Report on the EDVAC“ von 1945 enthielt auch jenen Entwurf der später nach ihm benannten Architektur, die für den „Electronic Discrete Variable Automatic Computer“ (so das obige Kürzel ausgeschrieben) Ende der 1940er-Jahre zur Grundlage wurde.

Die Rechner dieser Zeit waren noch allesamt für militärische und wissenschaftliche Zwecke konstruiert. Namhafte Stückzahlen wurden von keinem der frühen Digitalcomputer gebraucht. Thomas Watson, der damalige IBM-Chef, wagte 1943 daher die Prognose, dass es einen Weltmarkt für vielleicht fünf Computer gibt. Das ist vor dem Hintergrund der Kosten und der Anwendungen sicherlich keine absolute Fehlprognose. Doch derartige Aussagen (quasi als Kürzestform der Technik-Science-Fiction) sind vor allem von Managern bis heute zuhauf gemacht worden und lassen angesichts der Computer-Gegenwart schmunzeln: „In Zukunft wiegen Computer nicht mehr als 1,5 Tonnen“, unkte eine populärwissenschaftliche Zeitung 1949. 1957 prognostizierte der KI-Forscher Herbert Simon, dass in spätestens zehn Jahren ein Computer Schachweltmeister wäre. Noch 1977 war sich Ken Olson, einer der Gründer der Firma DEC, sicher, dass es keinen Grund dafür gäbe, warum irgend jemand einen Computer bei sich zuhause stehen haben will. Mehr als 640 KB RAM wird man niemals benötigen, wusste 1981 Bill Gates (wohl weil sein Betriebssystem Probleme mit der Verwaltung großer Speicherkapazitäten hatte). Und ebenso verlautbarte er 1989, dass es ein 32-Bit-Windows nicht geben wird.

Mensch-Maschinen

Das größte Problem der Computer-Wissenschaft der späten 1950er-Jahre war allerdings nicht das Gewicht oder der Preis der Geräte, sondern die damit sicherlich verbundene seltene Verfügbarkeit. Computer wurden noch in den 1950er-Jahren selten gekauft, viel häufiger wurden sie gemietet. Damit die Kosten einem optimalen Nutzen gegenüber standen, mussten sie rund um die Uhr laufen. Dies wurde durch das Operator-Prinzip ermöglicht: Ein Fachmann verwaltete die Anfragen an den Computer, welche ihm von vielen Programmierern in Form von Lochkarten übergeben wurden. Die Programmierer selbst bekamen den Rechner nie zu Gesicht; nach einiger Zeit (Stunden oder Tage) konnten sie sich vom Operator einen Ausdruck abholen, der das Ergebnis ihrer Programmierarbeit enthielt. Interaktivität und Echtzeit-Arbeit sehen anders aus.

Das dachte sich 1960 auch Joseph Carl Robnett Licklider, ein Psychologie-Professor, der seit Beginn der 1950er-Jahre ebenfalls an Informationstechnologie arbeitete. Sein Wissen von den Hürden, die Menschen bei der eigenen intellektuellen Arbeit zu überwinden hatten, und von den Problemen, die im Umgang mit Computern auftraten, veranlasste ihn, einen Essay über die Möglichkeiten der Mensch-Maschine-Symbiose zu schreiben. Er dachte dabei natürlich nicht an Cyborgs, sondern an die Frage, wie Mensch und Maschine miteinander arbeiten konnten, sodass diese Arbeit möglichst effizient ablief und fruchtbar ausfiel. Die sollte ermöglicht werden, indem die Defizite des einen durch die Stärken des anderen ausgeglichen werden: Menschen denken im Gegensatz zu Computer beispielsweise eher bildlich als symbolisch-schriftlich. Sie können immer nur eine Sache zur selben Zeit mit voller Aufmerksamkeit erledigen. Sie unterliegen den schon von Bush beschriebenen Speicher- und Vernetzungsproblemen und ihre Sprache ist vieldeutig, metaphorisch und selten formal algorithmisierbar. Diese Unterschiede müssten für eine optimale Zusammenarbeit zwischen Mensch und Computer nicht bloß überwunden, sondern im gegenseitigen Nutzen fruchtbar gemacht werden, schrieb Licklider in „Man Computer Symbiosis“.

Dazu müssten Vorbedingungen bei beiden erfüllt werden: Computer müssen vernetzt werden, damit der Informationsaustausch beschleunigt und die Wege zum Rechner verkürzt werden können. Sie müssen für jederman zugänglich sein, damit die unterschiedlichsten Arbeitstypen und -zeiten Berücksichtigung finden. Ersteres Problem ging Licklider ganz konkret an, indem er den Anstoß zur Entwicklung eines universitären Forschungsnetzwerkes gab, das als Vorläufer des Internets mit der Bezeichnung „ARPA-Net“ in die Geschichte einging. Das zweite Problem löste er in Zusammenarbeit mit dem Computer-Hersteller DEC, für dessen „PDP-1“-Minicomputer er das erste Time-Sharing-Betriebssystem ersann. Mit dessen Hilfe konnte ein Computer die Rechenzeit, die er zur Verfügung stellte, zentral verwalten und an einzelne, an ihn angeschlossene Terminals verteilen, sodass der Nutzer vor solch einem Terminal den Eindruck hatte, in Echtzeit mit dem Computer zu arbeiten.

Licklider forderte auch eine neue Programmiersprachen Verarbeitung, bei der Programme nicht mehr erst assembliert oder compiliert, sondern direkt nach der Eingabe interpretiert werden, damit der Programmierer das Ergebnis seiner Arbeit an seinem Terminal sofort überprüfen kann. (1962 realisierten übrigens John George Kemeny und Thomas Eugene Kurtz mit BASIC eine solche Interpreter-Programmiersprache, die das Time-Sharing-Prinzip nutzte. Zuvor gab es bereits die Programmiersprache LISP, die von John McCarthy, einem wichtigen Mitentwickler des Time-Sharing-Prinzips, 1958 veröffentlicht wurde.) Auf der anderen Seite sollten Computer aber auch lernen, menschliche Sprache zu verstehen, also sprachliche Eingaben in Schrift umzuwandeln. Für die Fülle an anlaufenden Daten reichten die damals verfügbaren Speicher nicht aus, also schlug Licklider vor, beschreibbare Festspeicher zu entwickeln, die so ähnlich funktionieren wie die CD-ROM. Am Ende sollte ein System stehen, das vom Nutzer nicht fordert, sich der Arbeitsweise des Computers anzugleichen, sondern dass sich vielmehr den Möglichkeiten des Menschen anpassen würde.

Nur so, wusste Licklider, seien komplexe Entscheidungsfindungen, die ohne den Computer ohnehin kaum noch stattfinden konnten, künftig möglich. Viele seiner Überlegungen von 1960 fokussierte Licklider acht Jahre später noch einmal in seinem Text „The Computer as a Communication Device“ – insbesondere die Möglichkeiten, mit dem Gerät interaktiv und kreativ umzugehen. Ganz konkret – hier zeigt sich die Mitarbeit am ARPA-Net – schlug er vor, dass Computer-Netzwerke Informationen nicht wie Telefonnetze, sondern als Informationspakete übertragen sollen, und dass sie dazu Standleitungen benötigen, was vielleicht nicht mit den hohen Kosten einer Telefonleitung zu realisieren wäre. Außerdem führte er an, dass sie eigene Hard- oder Software-Schnittstellen zur Verarbeitung der Sendungs- und Empfangsdaten enthalten (eine Vorüberlegung zum TCP/ IP-Protokoll) und auch ein eigenes Betriebssystem bieten müssten, das Rechte verwaltet und den Datenschutz ermöglicht (hier ist UNIX vorausgedacht). Wäre dies einmal realisiert, so sah Licklider die Möglichkeit, dass gänzlich neue „On-Line Interactive Communities“, wie er es nannte, entstehen könnten, in denen Kommunikationsprotokolle den Informationsaustausch beschleunigen, sich Interessengemeinschaften bilden und sogar die Möglichkeit bestand, online gemeinsam an Dokumenten zu arbeiten (Licklider benannte seine fiktive Doc-Software „OLIVER“ für „Online Interactive Vicarious Expediter and Responder“). Derartige Computer für jeden, angeschlossen an überall verfügbare Netzte, führten, so das Ende des Essays, zwangsläufig zum Verschwinden der Arbeitslosigkeit, weitreichender Bildung für alle sowie einer glücklichen Welt, in der jeder immer online ist …

Intelligenzverstärker

Gehen wir noch einmal ein paar Jahre zurück zum Ende des Zweiten Weltkrieges: Während eines Truppentransportes las der damals 20-jährige GI Douglas Engelbart Bushs „As we may think“ und war eigenen Angaben zufolge so sehr von den Visionen des Autors beeindruckt, dass er seine auf den Krieg folgende Karriere ganz diesem Thema widmete: den Computer der Zukunft zu erfinden. 1962 entwickelte er in dem eigens von ihm bei der ARPA (der militärischen Forschungsabteilung) beantragten Forschungsbereich ‚Augmentation Center‘ das Konzept zu eben jener Maschine. Im Zentrum seiner Überlegung stand wie bei Bush die Verstärkung der menschlichen Fähigkeiten durch den Computer – einerseits, indem dieser ihm Arbeit abnahm, andererseits, indem er Vorstellbares, das bislang technisch nicht realisierbar war, umzusetzen half. Das ideale Demonstrationsgebiet war für Engelbart die Fähigkeit des Computers, Symbole zu verarbeiten – also insbesondere Texte zu erstellen, bearbeiten und layouten; die hauptsächliche Arbeit in allen Büros.

Hierzu mussten jedoch erst Rahmenbedingungen geschaffen werden, die den Computer-Nutzer mit einer möglichst unkomplizierten Schnittstelle konfrontierten. Anstatt der Programmierung in den damals existierenden Hochsprachen (allen voran immer noch Fortran für wissenschaftliche und COBOL für wirtschaftliche Zwecke) sollte der Nutzer seine Probleme gar nicht mehr algorithmisch lösen, sondern durch bereits vorgefertigte Programme, die ihm weitgehende (aber eben auch auf das für die Textbearbeitung Notwendige eingeschränkte) Möglichkeiten der Gestaltung ließen. Neben der bis dahin etablierten Computer-Tastatur konstruierte Engelbarts Team ein Gerät, mit welchem man den Textcursor frei über den Bildschirm bewegen konnte, sodass man zu jeder Zeit an jedem Teil der Eingabe Manipulationen vornehmen konnte. Dieses Eingabegerät wurde auf dem Tisch in zwei Richtungen bewegt und mit einer Taste darauf konnten Kommandos an den Computer gegeben werden. Engelbart nannte das Gerät ‚Maus‘, und so heißt es noch heute.

Die Funktionsweise der Maus ist natürlich nicht vom Himmel gefallen: Bereits in den 1950er-Jahren wurde ein ähnliches Gerät dazu genutzt, Radar-Daten auf Karten für den Computer zu zeichnen: der Trackball, quasi eine auf dem Rücken liegende Maus, war sicherlich eines ihrer Vorbilder. Ein anderes war der Lichtgriffel, der schon zuvor die Auswahl und Manipulation von Daten auf dem Bildschirm ermöglichte. Engelbart ging seine Ideen kleinschrittig an. In seinem über hundertseitigen Papier „Augmenting Human Intellect“ analysierte er zunächst, welche Faktoren es eigentlich sind, die menschliche Arbeitseffektivität bremsen: seine Werkzeuge, seine Sprache, seine Arbeitsmethoden und seine Ausbildung. Indem er auf jeden dieser Problembereiche detailliert einging, fand Engelbart eine Lösung für alles: den Computer. Dieser musste allerdings bestimmte Bedingungen erfüllen, damit er die Probleme lösen und die Arbeitseffizienz des Menschen steigern konnte.

Sein Vorbild war dabei die Memex mit ihren Möglichkeiten der Verschlagwortung, Verlinkung und Übertragbarkeit von Informationsverknüpfungen. Damit der Computer darüber hinaus aber noch mehr kann als Bushs Offline-Datenbank, muss er neben mehr Speicher und besseren Programmiermöglichkeiten (hier hebt Engelbart die Möglichkeiten von LISP-ähnlichen Sprachen insbesondere wegen deren Logik-Fähigkeiten hervor) vor allem intuitivere Ein- und Ausgabemöglichkeiten besitzen, wovon die oben vorgestellte Maus nur eine ist. Auch Engelbart sieht Time Sharing, Stimmeingabe, Texterkennung sowie Ein- und Ausgabegeräte (Lightpen, Plotter, Drucker, Bildschirm) als unabdingbar für die sinnvolle Arbeit mit dem Computer. Er beließ es allerdings nicht beim Reden bzw. Schreiben, sondern entwarf jenen Computer bzw. die Software und die Peripherie, die all dies leistete und stellte sie 1962 der Öffentlichkeit vor. Von Engelbarts Vorführung (der so genannten „Mother of all Demos“) wurde wiederum 1963 Ivan Sutherland inspiriert, der in seiner Doktorarbeit mit dem Entwurf des „Sketchpad“-Programms noch einen Schritt weiterging und von der Text- zur Grafikverarbeitung schritt. Sutherland legte damit den Grundstein sowohl für CAD und DTP als auch für die grafische Benutzerführung von Computern und damit die heutigen GUI Betriebssysteme.

Weg mit dem Computer!

Das letzte hier aufzuschlagende Kapitel der Computer-SciFi wurde 1991 vom US-amerikanischen Computer-Wissenschaftler Mark Weiser geschrieben. Weiser war beschäftigt am Palo Alto Research Center (PARC) der Firma Xerox, wo von den objektorientierten Programmiersprachen bis hin zum grafischen Betriebssystem bereits etliche Neuerungen und Visionen des Computer-Zeitalters das Licht der Welt erblickt hatten. Weisers Idee war es, den Computer, der bis dahin vor allem in Form klobiger PCs mit immer noch nicht intuitiven Eingabe- und Vernetzungsmöglichkeiten arbeitete, zu einem Gerät zu machen, das immer und überall verfügbar und anwesend ist und das alles – das war für Weiser das wichtigste – ohne, dass der Nutzer dies zur Kenntnis nehmen muss. Hierbei ging es ihm natürlich keineswegs um verdeckte Überwachung, sondern schlicht um die Tatsache, dass ein Werkzeug, das sich einem als solches aufdrängt, immer noch zu viele Nutzer-Kapazitäten bindet, anstatt sie zu freizusetzen. Und da aus Sichtbarkeit auch immer Aufmerksamkeit(sbindung) folgt, kann folglich ein gutes Werkzeug nur eines sein, dass unsichtbar ist – bzw. funktioniert. Die Computer des Jahres 1991 forderten allerdings ständige Aufmerksamkeit – insbesondere für die Dateneingabe und -verwaltung. Das wurde besonders an den sich damals verbreitenden grafischen Benutzeroberflächen der Betriebssysteme sichtbar.

Weisers Vision in seinem Essay „The Computer for the 21st Century“ gingen in eine andere Richtung. Er sah drei Typen von Computern: Tabs, Pads und Boards. Allesamt verfügten sie über drahtlose Kommunikationsschnittstellen und wären zudem überall frei verfügbar. Das bedeutete aber auch, dass man keinen persönlichen Computer besitzen sollte, sondern (wie jetzt im Cloud-Computing) lediglich personalisierte und geschützte Daten, die mit den überall ausliegenden Geräten aufgerufen und verarbeitet werden könnten. Die Tabs sind dabei die kleinsten Einheiten: Sie stellen eine Art interaktive Knöpfe dar, die mittels Funk (RFID lässt grüßen) die von ihrer Umgebung und Nutzung erforderten Daten lesen und versenden. Die Pads entsprechen beinahe dem, was auch heute als Pads bzw. Tablets gehandelt wird: Größere Displays und intuitive Bedienelemente. Diese wären allerdings ebenso nicht zum Mitnehmen gedacht, sondern stellen vielmehr eine Art maschinelles Schmierpapier dar, in das man Informationen handschriftlich oder per Sprache eingibt bzw. einlädt und damit versendet. In jedem Raum sollen sich zudem Boards befinden, welche die Größe einer Tafel haben und Informationen so für alle Anwesenden darstellen können.

Da all diese Geräte immer miteinander interagieren und freigegebene Daten austauschen würden, könnte jederman zu jeder Zeit und an jedem Ort all das machen, wofür er bislang zu Hause an seinen Personal Computer gehen musste. „Ubiquitous Computing“ – also allgegenwärtige Datenverarbeitung – nannte Weiser dieses Konzept und stellte es Technologien wie der Künstlichen Intelligenz (die ihmzufolge nur Aufmerksamkeit binde) oder der Virtuellen Realität, die den Menschen sogar ganz für den Computer einnehmen würde, gegenüber. Natürlich verlangt auch das Ubiquitous Computing technische Entwicklungen: Langlebige Akkus, Gewichtsreduktion, billiger Speicher, anpassungsfähige Betriebssysteme und verschiedene drahtlose Vernetzungsprotokolle für unterschiedliche Reichweiten. Die größten Vorbehalte mag man dem Konzept heute vor allem von Seiten des Datenschutzes entgegen bringen.

Und in der Tat sah Weisers Zukunftsvision der ‚Verschwundenen Computer‘ auch die Computer-Kriminalität verschwinden: Ethische Konventionen könnten aus dem echten Lebven entnommen werden, wo auch jeder Einbrecher wisse, dass er Spuren hinterlässt, die zu ihm führen. In dem Moment, wo nicht mehr die Maschinen, sondern die Menschen im Vordergrund stehen, müssten Datendiebe wissen, dass sie keine virtuellen Verbrechen begehen, sondern reale. Im Gegensatz zeitige also das Verschwinden des Computers auch das Verschwinden der damit verbundenen Probleme: Computer-Sucht wäre ebenso auf die Allgegenwart und Dauerbeschäftigung mit der Maschine zurückzuführen, wie der Information Overflow. Dann, wenn die Technologie nur noch implizit genutzt würde, geriete sie zur Selbstverständlichkeit – und das ist das Ziel des Ubiquitous Computing.

Die Zukünfte des Computers

Wie sich an dieser Kurzgeschichte der Computer-Science-Fiction zeigt, ist der Rechner der Zukunft immer Bewohner von Paralleluniversen gewesen (um in der Diktion der SF zu bleiben). Jeder der Visionäre hat eine Maschine aufgrund ganz unterschiedlicher Problemlagen und Perspektiven auf die Vergangenheit, Gegenwart und die mögliche Zukunft der Menschheit erfunden. Konträre Konzepte wie das Ubiquitous Computing und die Virtuelle Realität koexistierten dabei nebeneinander und hatten ganz unterschiedliche Einflüsse auf die Entwicklung von Computer-Technologien. Allen Konzepten gemeinsam ist jedoch, dass eine Wechselwirkung stattgefunden hat, derentwegen die hier zitierten Visionäre erst als solche in die IT-Geschichte eingehen konnte.

Diese Wechselwirkungen waren allerdings nicht linear und selten monokausal. Oft wurden Ideen erst viel später noch einmal aufgegriffen und nicht direkt realisiert, sondern sind modifiziert in neue Überlegungen eingegangen. Und es ist auch nicht nur die Technikentwicklung allein, die von diesen Visionen beeinflusst wurde; die gesellschaftliche Diskussion über Computer ist neben den existierenden Geräten vor allem durch die Kultur bestimmt: all jene SciFi-Filme, -Romane und -Geschichten, in denen die Ideen der Visionäre vorweggenommen oder rezipiert wurden. Und diese Geschichten wiederum – das Beispiel der Entwicklung des ersten Industrieroboters, die auf eine Kurzgeschichte Isaac Asimovs zurückgeht, zeigt dies – hatten ebenfalls Einfluss auf die hier vorgestellten Visionen. In diesem Netzwerk aus Ideen, Fiktionen und Debatten ist allein der Computer als Konstante auszumachen. Er ist die wohl einzige Maschine, die ständig an ihrer eigenen Zukunft arbeitet. Und das sogar ganz konkret: Wann ist wohl der letzte Computer allein von einem Menschen entworfen worden?

* zuerst erschienen in Retro Nr. 25 (Herbst 2012), S. 38-43.

Über Stefan Höltgen

siehe: http://about.me/hoeltgen
Dieser Beitrag wurde unter Cold War, Computer, Programmiersprachen, SF/Utopie/CompUtopia, Technikgeschichte/RetroTopie abgelegt und mit , , , , , , verschlagwortet. Setze ein Lesezeichen auf den Permalink.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre mehr darüber, wie deine Kommentardaten verarbeitet werden.