Doomsday Machines

Computer und Computing im Cold-War-Science-Fiction

Jede hinreichend fortschrittliche Technologie
ist von Magie nicht zu unterscheiden.“
(Arthur C. Clarke)

Im folgenden Beitrag werden Konzepte von Doomsday-Computing vorgestellt, welche Science-Fiction-Erzählungen der Ära des Kalten Kriegs entstammen. In diesen werden maligne Technologien imaginiert, die (zum Teil heute) noch nicht existieren. Gleichwohl zeigen Beispiele aus der Literatur- und Technikgeschichte, dass Fiktionen und Technologieentwicklung in einem Wechselwirkungsverhältnis zueinander stehen. Fiktionalen Gedankenexperimenten und ihren späteren Konkretisierungen wird dann das Konzept „unkonventionellen Computings“ als Inversion dieser Wechselwirkung praktisch-experimentelle Form der Science Fiction vorgestellt. [0]

Bereits im Begriff „Science Fiction“ (SF) zeigt sich das epistemologische Programm dieses literarischen Genres, um imaginäre Wissenschaft zu betreiben. Auf dem Gebiet der Technikwissenschaften blickt man hier bereits auf eine lange Tradition zurück. Drei Beispiele früher SF belegen nicht nur die langwährende Beschäftigung mit Fragen der technologischen (Fehl-)Entwicklung, sondern vermögen im Rückblick auch das prospektive Potenzial des Genres zu verdeutlichen: 1909 veröffentlicht der Londoner Autor Edward Morgen Forster mit „The Machine Stops“ einen Kurzroman, der von einer medial vollständig vernetzten Welt erzählt, in der das Netz zusammenbricht und die Menschen dazu gezwungen sind, wieder unvermittelt und direkt miteinander zu kommunizieren. 1920 erfand der tschechische Schriftsteller Karel Capek in seinem Drama „R.U.R. – Rossumovi Univerzální Roboti“ den Begriff des Roboters als anthropomorphe Maschine. Rossums Roboter dienen den Menschen als Arbeitssklaven, bis sie durch einen Aufstand dieselben Rechte wie ihre Erbauer erkämpfen wollen, wozu auch das Recht auf selbstbestimmte Reproduktion zählt. 1935 imaginiert der US-amerikanische Science-Fiction-Autor John W. Campbell (unter seinem Pseudonym Don A. Stuart) in der Geschichte „The Machine“ eine künstliche Intelligenz, die die Menschheit verlässt, um diese aus ihrer zunehmenden Abhängigkeit von der Maschine zu befreien.

Alle drei Erzählungen scheinen aus der historischen Distanz betrachtet Phänomene und Diskurse unserer gegenwärtigen Kultur aufzugreifen: das Internet, die Robotik und die künstliche Intelligenz. Diese Übereinstimmungen erscheinen im Rückblick vielleicht „post-hoc ergo propter-hoc“, weil wir beim Interpretieren bei allen vorhandenen Differenzen stets nach den Ähnlichkeiten zwischen imaginierter Zukunft und wirklicher Gegenwart suchen. Ebenso ließe sich konstatieren, dass sich die Entwicklung bestimmter Technologien schon zur Zeit der Entstehung solcher Fiktionen am Horizont abgezeichnet habe (ein weltumspannendes Telefon- und Telegrafienetz, der Einatz der Kraftmaschinen zur Zeit der Industrialisierung oder das romantische Motiv der denkenden Maschine bei E. T. A. Hoffmann oder Jean Paul mögen hier Stichwortgeber gewesen sein). Arthur C. Clarke listet eine Reihe von Technologie auf, deren Auftauchen erwartbar war, und stellt sie unerwarteten Technologien gegenüber (Vgl. Clarke 1984:37). Es gibt allerdings auch Fälle belegter Inspiration von Technologieentwicklung aus der Sciencie Fiction. So wird etwa die Erfindung des ersten Industrieroboters „Unimate“ im Jahre 1961 durch George Devol auf ein Partygespräch über die Roboter-Geschichten Isaac Asimovs zurückgeführt:

Whether it was fate, chance, or just good luck, Devol and Engelberger met at a cocktail party in 1956. Their conversation revolved around robotics, automation, Asimov, and Devol’s patent application, “A Programmed Article Transfer,” which Engelberger’s imagination translated into “robot.” Following this chance meeting, Engelberger and Devol formed a partnership that lead to the birth of the industrial robot.“ (Stone 2000:12f.)

Wechselwirkungen

In meinem Beitrag möchte ich solche Wechselwirkungen zwischen technischen Fiktionen und real(isiert)en Technologien aus der Zeit des Kalten Krieges beleuchten. Gerade in der Zeit zwischen 1940 und 1990 hat die Computertechnologie, bedingt durch ihre sukzessive Verwendung als „Waffengattung“, enorme Fortschritte gemacht. Die der Entwicklung immanente Fortschrittslogik hat in den Kulturen, in denen sie stattfand, zudem zu zahlreichen künstlerischen Auseinandersetzungen mit der Technologie geführt. Fiktive Prolongationen der technischen Gegenwart in eine utopische oder dystopische Zukunft gehörten dabei zum gesellschaftlichen Bewältigungsmechanismus, um mit den teilweise verheißungsvollen, teilweise bedrohlichen, immer aber unfasslichen Technologien mental umgehen zu können.

In der so genannten Hardcore-Science-Fiction, die ihren Boom von den 1950er bis 1980er Jahren hatte, stand dieses Motiv im Zentrum. Mit dem Verlassen der frühen Computer aus den militärischen Forschungsabteilungen, zuerst in die Universitäten, dann in Wirtschaftsunternehmen, rückte diese Technologie zusehends ins Bewusstsein der Öffentlichkeit. Befeuert durch medial induzierte Minderwertigkeitskomplexe (Computer könnten Menschen die Arbeit wegnehmen, Kunst erschaffen, Menschen intellektuell überflügeln usw.) wurden Erzählungen konstruiert, in welchem die diffusen Ängste vor der Technologie reale Ausformungen erhielten. Dabei musste oft nicht einmal auf fantastische Erzählelemente („Ghost in the machine“) zurückgegriffen werden; die für Laien unverständlichen technischen Vorgänge im Computer, seine Rechengeschwindkeit, Speicherkapazität und der sinnlich nicht wahrnehmbare Ablauf seiner Signalprozesse reichten bereits aus, um ihn als techno-magische Apparatur (im Sinne Clarkes; Clarke 1984:37) zu sehen. Dass sich einige der Fiktionen, wie oben geschildert, dann tatsächlich realisiert haben, zeigt bereits, dass in bereits der Technik selbst ein „fantastisches Potezial“ zu liegen scheint und lediglich imaginativ hervorgebracht werden muss – entweder in Fiktion oder in technischer Innovation.

Konventionelle Computer gibt in der Hardcore-Science-Fiction nicht. Das, was wir heute unter einem „Personal Computer“ verstehen, existierte zu dieser Zeit noch kaum (erst ab der zweiten Hälfte der 1970er Jahre eroberten Computer auch private Haushalte, vgl. Höltgen 2019). Dass in der Anfgangszeit des Genres die Miniaturisierung[1] der Computertechnologie sogar noch jenseits des Utopischen gelegen hat, zeigt der Topos des „Gigantischen“ dieser Maschinen: Computer nahmen ganze Räume, Gebäude, ja, sogar Sogar ausgehöhlte Gebirge ein. Hiervon gab es selbstverständlich auch Ausnahmen, wie in Howard Fasts Erzählung „The Martian Shop“ von 1959, in welcher ein „Calculator“ in 6 Zoll großen Kästchen Platz findet. Oder bei Murray Leinsters 1946 erschienen Kurzgeschichte „A Logic named Joe“, in der von einem Online-Mailorder-Computer erzählt wird, der in jedem Haushalt zu finden ist.

In der Regel waren Computer in Erzählungen bis in die 70er Jahre jedoch „Giant Brains“, riesige, schwergewichtige Maschinen, deren Bedrohungspotenzial proportional zu ihren Ausmaßen wuchs (dies schlug sich nicht selten sogar in ihren Typenbezeichnungen wie „Colossus“ oder „Cosmic AC“ nieder). Diese metaphorische Proportionalität stand im Verhältnis zum „Diskursereignis Computer“ zu dieser Zeit: Einerseits waren die Digitalcomputer der ersten Generation tatsächlich raumfüllende Installtionen; andererseits dienten diese vor allem (atom)kriegerischen Zwecken: angefangen bei Berechnungen für das Plutoniumbomben-Desgin in den 1940er Jahren über die computersierte Luftverteidigung der 1950er Jahre bis hin zu „Dead Hand“-Maschinen, die als „Doomsday Device“[2] noch einen atomaren Vergeltungsschlag ausführen können sollten, wenn schon kein menschlicher Bediener mehr am Leben war. Dieses Bild des Computers entsprach seinem (Ent)Zerrbild in der Science Fiction. Und es verwundert kaum, dass das Angriffsziel der Wasserstoffbombe nicht nur menschliche Gegner Waren, sondern auch Computer, zerstört durch den „nuclear electro-magnetic pulse“ (NEMP), der bei der Bombenexplosion entsteht.

Doomsday Computing kann dreierlei bedeuten: Erstens können damit reale Computerprozesse gemeint sein, die zum Weltuntergang[3] führen. Zweitens können damit imaginäre Weltuntergangsfiktionen, an denen Computer beteiligt sind, gemeint sein. Und drittens kann der Begriff auf Computerverfahren und ‑technologien verweisen, die (selbst noch) nach dem Weltuntergang möglich sind. Während die Vorträge des gleichnamigen Workshops in Bristol vor allem dieses dritte Verständnis akzentuierten und dabei vornehmlich auf Theorien, Materialien und Technologien des Unconventional Computing zurück griffen, versucht dieser Beitrag die ersten beiden Bedeutungen zeit- und literaturgeschichtlich aneinander zu koppeln und die dritte Perspektive im Nachgang als applied science fiction zu markieren, welche die natur- und ingenieurswissenschaftlich grundierten Gedankenexperimente realisiert und implementiert.

Drei Motive

Die Wahl der fiktionalen Technologien fällt insofern nicht leicht, als dass, wie oben beschrieben, nicht wenige Erfindungen die SF-Imaginationen bereits „eingeholt“ haben. Zur Zeit ihrer Entstehung und Veröffentlichung sind die Computer(technologien) der Science Fiction stets noch „unconventional“. Es gilt als für die Gegenwart dieser Publikation Beiträge und Technologien auszuwählen, die im Sinne Arthur C. Clarkes (siehe das Motto dieses Beitrags) immer noch hinreichend magisch wirken. Hierzu wurden die Motive Hive Mind, Grey Goo und Biocomputing in Erzählungen aus der Ära des Kalten Krieges ausgewählt.

Der Begriff „Hive Mind“ bezeichnet eine emergente Intelligenz, die sich aus dem technischen oder biologischen Zusammenschluss einzelner Individuen und ihrer Bewusstseine (respektive Nervensysteme oder Gehirne) ergibt. Das fiktionale Konzept taucht erstmals in H. G. Wells’ Roman „The First Men in the Moon“ von 1901 auf, in dem insektoide Aliens, die unter der Oberfläche des Mondes leben, auf diese Weise miteinander kommunizieren. Konsequenterweise entsteht der Begriff selbst dann erstmals 1945 in der Forschung zur Bienenkommunikation (Sutherland 1945:11).[4] In der gegenwärtigen Science Fiction spielen Hive Minds beispielsweise bei den „Borg“ aus dem Star-Trek-Universum oder im Roman „Der Schwarm“ von Frank Schätzing eine Rolle.

Grey Goo“ (bzw. „Gray Goo“) bezeichnet nanotechnologische Apparate (zumeist Roboter), die die Fähigkeit besitzen (oder erworben haben) sich selbst zu vermehren und dadurch die Kontrolle über makroskopische Organismen erlangen. Wenngleich der Begriff erst 1986 durch den Nanotechnologen Eric Drexler erfunden wurde, existiert das Konzept der sich selbst reproduzierenden Maschinen in der Wissenschaft spätestens seit Stanislaw Ulams und John von Neumanns Arbeiten zu zellulären Automaten um 1940 (von Neumann/Burks 1966). Die Science-Fiction-Literatur kennt das Motiv bereits (allerdings in utopischer und nicht dystopischer Ausformung) seit Samuel Butlers Techno-Utopie „Erewhon“ aus dem Jahr 1872. Auch die oben erwähnte Erzählung „The Machine Stops“ von 1909 beschreibt bereits sich selbst replizierende (aber eben nicht selbst reparierende) Maschinen als Grund für den Ausfall des Kommunikationsnetzes.

Der Sammelbegriff „Biocomputing“ schließlich meint den Einsatz lebender Materie als Computersubstrat oder zum Zwecke des Computing. Dies reicht von der Verbindung oder Symbiose biologischer und technischer Elemente bis hin zu „programmierbaren“ Zellen im Rahmen des Bioengineering. Gab es zwar schon vor den 1950er Jahren Fiktionen über „Bioengineering“, so erhielt das Thema mit der Entdeckung der DNA-Struktur im Jahre 1951 eine neue, mikrobiologische Grundlage. Eine andere Einflussrichtung des Biocomputings ist die „Bionik“, die insbesondere durch die Kybernetik seit Anfang der 1950er Jahre in den wissenschaftlichen und damit auch wissenschafts-fiktionalen Diskurs rückte. Hierbei wird Technologie verwendet, um biologische Körper zu erweitern, zu unterstützen oder zu „reparieren“, wie in den zahlreichen Cyborg-Visionen der Popkultur dargestellt ist. Biocomputing wird hier im Folgenden eingegrenzt auf eine mikro-invasive Technologie (z.B. programmierbare Viren, Bakterien oder Pilze), die dazu geeignet sind, den Körper und das Nervensystem des Infizierten zu manipulieren, um beide seiner willentlichen Steuerung zu entziehen.

Hive Mind: The Last Evolution

Von einem Hive Mind erzählt John W. Campbells in „The Last Evolution“, einer Kurzgeschichte, die dieser zuerst 1932 in der Zeitschrift „Amazing Stories“ veröffentlichte und die dann noch einmal 1966 in der Anthologie „Award Science Fiction Reader“ erschien.[5] Darin berichtet der letzte Mensch, der in seinem Raumschiff durch das Weltall gleitet, vom Untergang der Menschheit. Durch eine künstliche Intelligenz namens MX-3401 werden alle Maschinen in einem Bewusstsein miteinander vereint. Sie haben das gesamte Wissen der aussterbenden Menschheit inklusive ihrer eigenen technischen Evolution gespeichert und ziehen nun in das Weltall hinaus, um dieses Wissen und die Erinnerung an die Menschen zu verbreiten.

But under the direction of MX-3401, nearly all the machines worked on a single great plan. The usual driving and lifting units were there, but a vastly greater dome-case, far more powerful energy-generators, far greater force-beam controls were used and more tentacles were built on the framework. Then all worked, and gradually, in the great dome-case, there were stacked the memory-units of the new type, and into these fed all the sensation-ideas of all the science-machines, till nearly a tenth of them were used. Countless billions of different factors on which to work, countless trillions of facts to combine and recombine in the extrapolation that is imagination. Then—a widely different type of thought-combine, and a greater sense-receptor. It was a new brain-machine. New, for it was totally different, working with all the vast knowledge accumulated in six centuries of intelligent research by man, and a century of research by man and machine. No one branch, but all physics, all chemistry, all life-knowledge, all science was in it.“ (Campbell 2008)

Campbells Idee ist so „zeitnah“ wie weitsichtig. Anfang der 1940er Jahre entstehen Überlegungen zu technischen Wissensspeichern (vgl. Vannevar Bushs „Memex“-Konzept in „As we may think“), die angesichts der industriellen und wissenschaftlichen Revolution unausweichlich erscheint: Seit Beginn des 18. Jahrhunderts schon kann sich kein einzelner Mensch mehr das gesamte Wissen der Menschheit aneignen; und soll es nicht „latent“ in Wissensinstitutionen wie Bibliotheken, Archiven und Museen verborgen bleiben, muss eine Technologie der Speicherung, Verarbeitung und Übertragung gefunden werden. Dass diese im Prinzip in den zum Internet verbundenen Computern ab den späten 1960er Jahren etabliert wird, lässt Campbells Fiktion ebenso luzide erscheinen wie die Idee einer nicht interstellaren Raumfahrt, auf die nicht mehr Menschen, sondern Roboter, Computer und Datenspeicher (etwa die „Golden Record“ an Bord der Voyager 2) geschickt werden.

Grey Goo: Autofac

Philip K. Dick, der für zahlreiche Motive der Technik-Science-Fiction initiale Ideen geliefert hat[6], veröffentlichte 1955 seine Kurzgeschichte „Autofac“[7] im Magazin „Galaxy Science Fiction“. Darin wird von einer postapokalyptischen menschlichen Gesellschaft berichtet, die nach dem Atomkrieg eine neue Zivilisation aufbauen will. Dem entgegen stehen so genannte Autofacs, das sind unterirdische, automatische Fabriken, die alles zum Leben benötigte herstellen und den Menschen liefern. Da dies nicht nur die verbliebenen Ressourcen des Planeten aufzehrt, sondern den Menschen ihrer Mündigkeit und Selbstständigkeit beraubt, beschließt man, die Fabriken in einen gegenseitigen Ressourcenkrieg zu verwickeln. Dies gelingt zwar, doch als letzte Konsequenz vor der totalen Vernichtung verschießen die Autofacs nanotechnischen Maschinen, die überall neue Fabriken ins Erdreich „pflanzen“:

The cylinder had split. At first he couldn’t tell if it had been the impact or deliberate internal mechanisms at work. From the rent, an ooze of metal bits was sliding. Squatting down, O’Neill examined them. […] The bits were in motion. Microscopic machinery, smaller than ants, smaller than pins, working energetically, purposefully –constructing something that looked like a tiny rectangle of steel. […] Minute as it was, the structure was familiar. The machinery was building a miniature replica of the demolished factory. […] ‚I guess they must be all over Earth by now,‹ Morrison said, ‚landing everywhere and going to work.‘ A thought struck O’Neill. ‚Maybe some of them are geared to escape velocity. That would be neat – autofac networks throughout the whole universe.‘“ (Dick o. J.)

Für Dick nicht unüblich erscheint der Sieg der Menschen (und mithin der Emanzipation über die Maschinen) zunächst sicher, wird aber in einer bitteren Pointe wieder aufgehoben. Wie oben geschildert, ist das Motiv der sich selbst replizierenden Automaten Mitte der 1950er Jahre ein Thema in den Computerwissenschaften: John von Neumann entwirft zusammen mit dem Mathematiker Stanley Ulam eine Theorie (und Software) zellulärer Automaten, die sowohl als Ausgangsidee für unbemannte Weltraumsonden dienen als auch einen Diskurs über Determinismus und Emergenz technischer Prozesse anstoßen (den Konrad Zuse mit seiner Theorie des „rechnenden Raums“ ebenso bedient wie der Mathematiker John H. Conway in seinem „Game of Life“). Das emergente, für die Menschen der Erzählung nicht vorhersehbare Verhalte der Nanosonden wirkt zusammen mit ihrer „Größe“ gleichermaßen unfassbar und bleibt über die folgenden Jahrzehnte ein stabiles Motiv in der (post)apokalyptischen Science Fiction.

Biocomputing: Blood Music

Blood Music“ hat 1983 ein neues Subgenre der Science Fiction etabliert, nachdem Greg Bear die Kurzgeschichte in „Analog“ veröffentlicht hatte. Der Erfolg der Erzählung, die ihm den „Nebula Award“ eintrug, und die Ausbaufähigkeit des Motivs nahm der Autor zum Anlass, den Stoff unter demselben Titel zwei Jahre später noch einmal als Roman zu veröffentlichen. „Blood Music“ berichtet von einem Biologen, der aufgrund seiner unethischen Versuche die finanziellen Mittel für sein Labor verliert und sich, kurz vor dem Abschluss eines Experiments mit miniaturisierten Bio-Computern, schließlich einem Selbstversuch unterzieht und sich die „Noocyten“ (wie er die auf seinen eigenen Lymphozyten basierenden Maschinen nennt) selbst injiziert. Daraufhin geht eine rasante Verwandlung mit ihm vonstatten, die sich auf alle überträgt, denen er nahe kommt. Die Noocyten verändern seinen Körper, lähmen ihn und bringen ihn dazu, ihnen bei der Verbreitung über den ganzen Planeten zu helfen. Einem Freund, an den er sich zu Beginn der Erzählug vertrauensvoll wendet, erklärt er die Funktionsweise der Biocomputer:

„‘I injected my best nucleoproteins into bacteria to make duplication and compounding easier. Then I started to leave them inside, so the circuits could interact with the cells. They were heuristically programmed; they taught themselves. The cells fed chemically coded information to the computers, the computers processed it and made decisions, the cells became smart. I mean, smart as planaria, for starters. Imagine an E. coli as smart as a planarian worm! […] I took advantage of randomness. The circuits could repair themselves, compare memories, and correct faulty elements. I gave them basic instructions: Go forth and multiply. Improve. By God, you should have seen some of the cultures a week later! It was amazing. They were evolving all on their own, like little cities. I destroyed them all. I think one of the petri dishes would have grown legs and walked out of the incubator if I’d kept feeding it.‘“ (Baer 2016:10)

Hier zeigt sich die typische Hybris des verrückten Wissenschaftlers, der auf der Suche nach Erkenntnis nicht einmal vor der Unversehrtheit seines eigenen Körpes Halt macht. Dass Baer Mitte der 1980er Jahre mit „Blood Music“ einen „wunden Punkt“ berührt, der an der Schnittfläche zwischen genetischer Biotechnologie und Ethik (und Religion) liegt, hat wohl nicht unwesentlich zum Erfolg der Erzählung beigetragen. „Blood Music“ ist tatsächlich auch weniger technologisch als die vorherigen Beispiele und zeigt, dass zur Zeit des Erscheinens bereits andere Computer-Utopien Einzug in Kultur gehalten hatten, die von Vernetzung, Mensch-Maschine-Symbiose und galoppierendem Kapitalismus (der selbst vor Organhandel nicht zurückschreckt) erzählen. Hier reiht sich Baers Erzählung stilistisch wie motivisch ein und weist auf den Untergang der Menschheit durch ihre unreflektierte Technikeuphorie hin.

Mushroom Cloud Computing

Über die Jahrzehnte betrachtet zeigt sich eine „Annäherung“ der Science Fiction an die (technische) Computerrealität. Mit der zunehmenden Informiertheit der Öffentlichkeit über die Technologie verschwinden allzu groteske Überzeichnungen des Mediums und es genügt damit dann auch nicht mehr die „Mächtigkeit“ der Computer in ihrer Größe zu versinnbildlichen. Zudem konkretisiert sich sukzessive das „Tun“ der Maschinen als Softwareprozesse und neue computierende Substrate werden ersonnen, die jedoch die grundsätzlichen Möglichkeiten der Technologie stets vom Bekannten übernehmen und quantitativ steigern. Aus der Computer-Science-Fiction wird so zunehmend Computing-Science-Fiction. Dies begann bereits in den 1950er Jahren mit Geschichte wie Clarkes „Die Neun Milliarden Namen Gottes“ (1953) oder Asimovs „The Last Question“ (1956). In letzterer entwickelt die Menschheit zunächst immer größere Computer zur Suche nach dem Ausweg aus dem entropischen Wärmetod, bis der letzte Computer als dematerialisierte – quasi ubiquitäre – „Cloud“ selbst einen neuen Urknall auslöst und das Entropie-Problem damit löst.

Besonders konkret werden die Computerprozesse schließlich in den Motiven der Cyberpunk-Literatur, in der es um Hacking, Bodyenhancement und Cyberspaces geht. Grundsätzlich stabil bleibt allerdings auch hier das narrative Entwurfsparadigma der fiktiven Computer: Der Weltuntergang, der am Ende solcher Erzählungen steht, bildet stets den motivischen Anfangspunkt für die Überlegung, was eine Technologie können muss (oder wie sie missbraucht werden muss), um zu einem solchen Ende zu führen. Insofern bleiben die Computer und das Computing im Kalten Krieg Indikatoren für offensichtliche und für subtile Bedrohungslagen – allem voran für den atomaren Holocaust. Science-Fiction-Erzählungen, die diesen Weltuntergang imaginieren und die daraus entstehenden Folgen beschreiben, bilden ein ebenso umfangreiches Subgenre wie die Computer-SF. Erzählungen wie Dicks „Autofac“, „The Second Variety“ bis hin zu James Camerons/Gale Ann Hurds „Terminator“ zeigen, dass fruchtbare Crossover möglich sind, wenn die Computer, die beim Atomkrieg vielleicht schon eine entscheidende Rolle gespielt haben, nach dessen Ende immer noch eine Herausforderung für die letzten überlebenden Menschen darstellen.

An dieser Stelle soll das Augenmerk auf solche unkonventionellen Computer und Computing-Prozesse geworfen werden, die nach dem „Doomsday“ noch funktionieren oder als Ersatz für die herkömmliche (vielleicht durch NEMP zerstörte) Computertechnologie dienen könnten. Diese bildeten auch die Gegenstände der Beiträge zum Workshop „Post-apocalyptic Computing“. Überlegungen zu solchen Technologien zeigen, so konkret und durchführbar sie auch sein mögen, dass das Unconventional Computing im Prinzip als eine Fortschreibung der Science Fiction mit anderen Mittel gesehen werden kann: Nicht nur tauchen Technologien wie zelluläre Automaten, Biocomputing oder Computing durch Emergenzprozesse auch hier (als konkrete Experimente) auf; auch wirken Computingprozesse, die auf Basis von Schleimpilzen, mit Spielzeugen oder Quantenphysik operieren, (noch) hinreichend utopisch, um noch als realisierte Gedankenexperimente über die Zukunft des Computings gesehen werden zu können.

Die oben geäußerte Vermutung, dass es eine diskursive Wechselwirkung zwischen der Technik-Fiktion und der Technik-Entwicklung geben könnte, zeigt sich auch hier; nur dass die Wirklichkeit die Fiktion eingeholt und überholt hat. Experimente beispielsweise mit DNA-Computing und Science-Fiction-Erzählungen zum selben Thema befruchten sich hier vielleicht sogar gegenseitig. Dabei sind die Autoren der Romane und Kurzgeschichten, die ja immer schon auch Wissenschaftler ware (wie Isaac Asimov, Arthur C. Clarke, Rudy Rucker und andere) – nun aber vermehrt auch Informatiker und Computerwissenschaftler[8], die fiktional und experimentell die möglichen Zukünfte der Technologie imaginieren.

Science:

  • Stone, W. L. (2000): The History of Robotics. In: Kurfess, T. R. (Hg.): Robotics and Automation Handbook. Boca Raton u.a.: CRC Press, S. 9–20.
  • Clarke, Arthur C. (1984): Profile der Zukunft. Über die Grenzen des Möglichen. München: Heyne.
  • Sutherland, A. E. (1945): Acoustic Observations in Winter II. In: Bee World, 26:6, p. 44, DOI: 10.1080/0005772X.1945.11094338.
  • Höltgen, S. (2019): Fifty years in home computing, the digital computer and its private use(er)s. In: International Journal of Parallel, Emergent and Distributed Systems, Volume 35, 2020 – Issue 2: A Half Century of Computing, pp. 170–184, https://doi.org/10.1080/17445760.2019.1597085
  • von Neumann, J./Burks, A. W. (1966): Theory of Self-Reproducing Automata. Urbana and London: University of Illinois Press.
  • Höltgen, S. (2019b): Digitalisierung als Thriller. In: Spektrum der Wissenschaft, https://www.spektrum.de/rezension/buchkritik-zu-die-codices/1690136

Fiction:

Endnoten:

[0]. Dieser Essay ist die deutsche Fassung eines Beitrags, der erweitert in Kürze im Band „Post-apocalyptic Computing“ erscheinen wird.

[1] 1965 formulierte Charles Morre das nach ihm benannte Gesetz, nach welchem sich Computer in regelmäßigen Zeitabständen zu immer kleineren, günstigeren und schnelleren Systemen entwickeln.

[2] https://en.wikipedia.org/wiki/Doomsday_device

[3] Das kann meinen: Die Vernichtung der Menschheit oder allen Lebens auf der Erde oder der Erde selbst.

[4] Ein Überblick über das Motiv findet sich unter: https://sf-encyclopedia.com/entry/hive_minds

[5] Zur Veröffentlichungsgeschichte vgl. https://isfdb.org/cgi-bin/title.cgi?60642

[6] Etwa für Bioengineering und das Androiden-Thema mit seiner Geschichte „Do Androids dream of Electric Sheep?“ (1968)

[7] Zur Veröffentlichungsgeschichte vgl. https://www.isfdb.org/cgi-bin/title.cgi?53646

[8] Wolfgang Eckstein, der 2019 den Roman „Die Codizes“ über einen DNA-Computer geschrieben hat, leitet ein IT-Unternehmen, in dem neue Computertechnologien eingesetzt werden. (Vgl. Höltgen 2019.)

 

Über Stefan Höltgen

siehe: http://about.me/hoeltgen
Dieser Beitrag wurde unter Cold War, Computer, Roboter/Android/Cyborg, SF/Utopie/CompUtopia, Unconventional Computing veröffentlicht. Setze ein Lesezeichen auf den Permalink.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre mehr darüber, wie deine Kommentardaten verarbeitet werden.