Dertouzos, Michael L.: What will be – Die Zukunft des Informationszeitalters

Dertouzos, Michael L.: What will be – Die Zukunft des Informationszeitalters, Springer Verlag Wien, New York 1999 (Original 1997), 490 Seiten.

Themen: Gruppentelearbeit, HTML, Hyperorganisation, Informationszeitalter, Leitungsmanager.

Abstract
In einem Sammelband geben kompetente Wissenschaftler Ansichten zu der ihnen gestellten Frage, wie die Welt rund um die Computer in 50 Jahren aussehen könnte.

Inhaltsverzeichnis
Part I The Coming Revolution
1 The Revolution Yet to Happen
2 When They’re Everywhere
3 Beyond Limits
4 The Tide, Not the Waves
5 How to Think About Trends
6 The Coming Age of Calm Revolution

Part II Computers and Human Identity
7 Growing Up in the Culture of Simulation
8 Why It’s Good That Computers Don’t Work Like the Brain
9 The Logic of Dreams
10 End-Running Human Intelligence
11 A World Without Work
12 The Design of Interaction

Part III Business and Innovation
13 The Stumbling Titan
14 The Leaders of the Future
15 Information Warfare
16 Virtual Feudalism
17 Sharing our Planet
18 There and Not There
19 The Dynamics of Innovation
20 How We Will Learn

Bewertung

Ein vielseitiges, intelligent gemachtes Buch. Rundum wertvoll.

Inhalt

Einleitend bemerken die Herausgeber, dass es in den vergangenen 50 Jahren viele Voraussagen über die Zukunft der Computer gegeben hat, die daneben lagen; so etwa die Voraussage, dass sich im Jahr 2000 das Antwortverhalten der Computern von dem der Menschen nicht mehr unterscheiden ließe. Es gibt im Jahr 2000 allerdings auch wichtige Tatbestände, allen voran die Existenz des Internets, die in den Anfängen des Computer-Zeitalters von niemandem vorhergesehen wurden (S. XIV f).

Teil I Die kommenden Umwälzungen
1
(J. Bell/J.N. Gray:) Die noch bevorstehende Revolution

Durch Extrapolation kommen die Autoren zu dem Schluss, dass in 50 Jahren sich nahezu alles speicherbares Wissen, Produkte der Kunst miteingeschlossen, im Cyberspace sein werden; die Computerleistung werde zu dieser Zeit mindestens 100 000 mal höher sein als heute. Weiter erwarten die Autoren, dass in 50 Jahren nahezu alle Produkte mit Mikrosystemen (Microchips) ausgestattet sein werden (S. 5 f). Den Cyberspace analysieren sie in drei Hauptbestandteilen:
— die Computing-Plattform (mit Prozessoren, Speichern, System-Software)
— die Transmissions-Technologie zur Verbindung Mensch – Computer (Hardware + Software)
— die Netzwerk-Technologie zur Kommunikation der Computer untereinander.
Bei den funktionalen Ebenen des Cyberspace werden (S. 9) die folgenden unterschieden:
(6) Benutzer-Umgebung
(5) Inhalte (intellektuelles Eigentum)
(4) Anwendungen
(3) Computing Plattform mit Netzwerken
(2) Hardware-Komponenten
(1) Materialien (z.B. Silicon).
Wir befinden uns auf dem Weg, sagen die Autoren, mit Computern — definiert als universelle Maschinen — symbiotisch zu werden, vergleichbar der Symbiose mit Dampfmaschinen zu Beginn der Industriellen Revolution.
Es wird prognostiziert, dass bis zum Jahr 2010 dem Gesetz von Moore entsprechend die Speicherkapazität im Cyberspace sich alle drei Jahre vervierfachen wird. Desweiteren wird prognostiziert, dass im Jahr 2010 anwendbare künstliche Systeme zur Übersetzung natürlicher Sprachen existieren werden (S. 13).
Papier als Verkehrsmittel für Informationen wird weitgehend ersetzt werden, so wie derzeit Briefe durch E-Mail; doch bleibt Papier vorläufig unersetzlich als finales Speichermedium, da die Haltbarkeit anderer Speichermedien wie Magnetband (15 Jahre), CDs (50 Jahre), Microfilm (200 Jahre) der von Papier (über 500 Jahre) deutlich unterlegen ist (S. 17).

Die Autoren erwarten eine Konvergenz der technischen Systeme derart, dass eine Interoperationalität zwischen allen Netzen des Cyberspace herbeigeführt werde. Sie sei unausweichlich, wenn das Gesetz von Metcalfe gilt, wonach der Wert eines Netzes für eines seiner Mitglieder proportional zur Mitgliederzahl ist, der Gesamtwert eines Netzes aber proportional zum Quadrat der Mitgliederzahl. Im Verlauf der nächsten 50 Jahre werde ein Einwählen in das Netz über eine einzige Nummer möglich sein, ähnlich wie beim heutigen Telefon (S. 17).
Angesprochen wird noch ein Paradox: Mehr Software bietet einerseits mehr Funktionen zur Zeitersparnis, andererseits wird mit der wachsenden Komplexität der Software (und wachsender Erhaltungskosten) ein Mehr an Zeit verbraucht. Ob auf’s Ganze gesehen die Kompliziertheit des Systems oder seine Einfachheit dominieren wird, sehen die Autoren sich zu prognostizieren außerstande. Doch wagen sie die folgenden konkreten Prognosen:
(1) In einem Jahrzehnt wird etwa ein Viertel der Arbeitszeit telepräsent verausgabt werden (S. 27 — zum Begriff der Telepräsenz s. Kapitel 18).
(2) In einem Jahrzehnt werden für Video sogenannte speech input und output-Systeme generell verfügbar sein (S. 27).
(3) Während des kommenden Jahrfünfts wird eine hochspezialisierte MicroSystem-Industrie aus dem Boden schießen (S. 29).

2
(V.G. Cerf:) Wenn sie überall sein werden

Der Autor beginnt mit einem Scenarium für die Mitte des 21. Jahrhunderts: Der Mensch X wacht auf durch Turtelgeräusche virtueller Vögel, die sein Computer an das Fenster projiziert. Die Frage nach der Uhrzeit wird dem X vom Computer mündlich beantwortet. X erhebt sich vom Bett, was einen Detector zur Meldung an das Leitungssystem veranlasst, 37 Grad-Wasser in die Wanne einzulassen. Nach dem Baden geht X in die Küche, wo mit seinem Eintritt der Toaster zu arbeiten beginnt. Von seinem Handgelenk-Computer wird X informiert, dass in Kürze die Videokonferenz beginnt …
Interoperabilität wird nach Ansicht des Autors zum Schlüsselbegriff der kommenden Jahr-zehnte. Eine hohe Selbstorganisiertheit auszubilden und in dynamischer Weise Adressen zu adoptieren würde für die Menschen charakteristisch werden. WWW werde in der Mitte des 21. Jahrhunderts etwa so verbreitet sein wie heute das Fernsehen. Die Menschen werden inmitten von Sensorsystemen leben, die großen Netze des 20. Jahrhunderts, Telefon und Internet, vereint sein (S. 36 – 39).

3
(B. Frankston:) Jenseits der Grenzen

Wir sind dabei, ein globales Kommunikationsmedium (Internet) zu entwickeln. Droht ihm ein Zusammenbruch?
Die Herausforderung ist, so sieht es der Autor (Frankston), voneinander unabhängige Systeme zu kreieren, die in einfacher Weise miteinander zu interagieren in der Lage sind; und dies unter de facto sehr schwach ausgebildeten Management-Bedingungen (‚Quasi-Anarchie‘ des Internets). Das Web, ein von ihm nicht abhängiges Benutzungssystem für das Internet, ist dabei (noch) einfach, weil seine Architektur verständlich ist; und es interagiert mit dem Internet nur oberflächlich, wobei der Wegeplan (transport protocol) unkompliziert ist (S. 55).
Der Schlüssel zur erfolgreichen Entwicklung des Web liege darin, mit Elementen zu arbeiten, durch welche seine Robustheit regeneriert werden kann. Es komme darauf an, für eine derartige Komposition des Systems die Heuristik zu erlernen.
Auf dem Weg von der Bautechnik eines Programms bis zur Integration voneinander unabhängiger Programme seien Überraschungen die Norm. Deshalb gehe es darum, solche Systeme elastisch zu gestalten; der Schlüssel dafür sei in sozialen Systemen zu suchen. „Das Entwerfen von Systemen in einer chaotisch verbundenen Welt verlangt Elastizität. Die Aufgabe ist, Zuverlässigkeit herzustellen durch das Entdecken neuer Vereinfachungen.“ (S. 57)

4
(E.W. Dijkstra:) Die Flut, nicht die Wellen …

Am Problemfall des sogenannten real-time interrupt (ein System steigt vorübergehend aus einem Programm aus) zeigt Dijkstra, wie Informatiker in den 1960-er Jahren strategisch unterschiedlich reagiert haben. Die einen versuchten erfolglos, jeden einzelnen Schritt im System unter Kontrolle zu halten; die anderen begannen, über nondeterministische Programme nachzudenken.
Das real-time interrupt sei hier gewissermaßen die Welle gewesen, die Einführung des Non-determinismus die Flut.
Anders gesagt sei dies eine gut genutzte Gelegenheit zur Vereinfachung gewesen. Auch in den nächsten 50 Jahren bleibe Kunst und Wissenschaft formaler Logiken bedeutsam (S. 60 – 63).

5
(R.W. Hamming:) Denken in Trends

Um bei Voraussagen für das mittlere 21.Jahrhundert nicht wie ein Dummkopf dazustehen, sollte man drei Bedingungen im Auge haben: (1) Den internen Zustand des Feldes (Computing), (2) die technische Unterstützung von außen, (3) die gesellschaftlichen Umstände. Und man sollte, auch wenn es keineswegs immer leicht ist, die Fragen auseinanderhalten, was geschehen kann, was geschehen wird, was geschehen soll. Es gäbe eine Regel, die besagt, dass Kurzzeit-Prognosen eher optimistisch, Langzeit-Prognosen dagegen eher pessimistisch ausfallen (S. 66).
(1) Was den internen Zustand des Computing anlangt, hebt Hamming hervor, dass die Kosten für den Aufbau von Produktionslinien bei Computerchips im Steigen begriffen sind — hierin sieht er einen Grund für die gegenwärtige Fusionswelle — und an einen kritischen Punkt kommen dürften, der die Massenproduktion in diesem Zweig fraglich macht. Auch in anderer Hinsicht ist der Autor skeptisch, dass der Fortschritt sehr groß ausfallen wird: Nach bisherigen Erfahrungen ist der jährliche Fortschritt beim Schreiben von Software mit 4 1/2 % zu bemessen; und der Autor bezweifelt, dass sich diese Rate durch entsprechende Kurse oder andere Maßnahmen noch verbessern lässt. Auch in automatisches Programmieren setzt er wenig Hoffnung. Ebenso sieht er bei der viel diskutierten Spracherkennung wenig Raum für größere Fortschritte; allein schon die vielen Wörter gleichen Klangs und unterschiedlicher Schreibweise sei ein kaum zu bewältigendes Problem.
(2) Hinsichtlich der externen Einflüsse auf das Feld des Computing ist Hamming kaum weniger skeptisch. Gelegentlich könnten solche Einflüsse sehr viel bewirken, z.B. beim Einfluss der Physik auf die Archäologie (Radiocarbon-Datierung); doch sieht er momentan nur wachsende Informationsmengen auf den Bereich des Computing zukommen, die keine Verbesserungen garantieren.
(3) Bei den gesellschaftlichen Bedingungen zeigt der Autor auf das Problem des intellektuellen Eigentums, von dem er annimmt, dass es in den nächsten 50 Jahren nicht lösbar ist. Nur mit ein paar besseren Konventionen könne man rechnen.

6
(M. Weiser/J.S. Brown:) Die kommende Zeit der stillen Technologie

Drei Phasen sind den Autoren zufolge im Computing zu unterscheiden:
(I) Die „Haupterfindungsphase“, in der viele Personen sich einen Computer geteilt haben.
(II) Die PC-Phase, in der man seinen eigenen Computer erlangt hat; das Gleichgewicht von Computern und Nutzern war dabei 1984 erlangt worden.
(III) Die UC-Phase (ubiquitous computing), in der viele Computer sich eine Person teilen; die ‚mittlere Zeit‘ dieser Phase erwarten die Autoren zwischen den Jahren 2005 und 2020 (S. 76 f).

Ein grundlegendes Merkmal dieser letztgenannten Phase sehen Weiser/Brown im Wechsel der Perspektiven zwischen Zentrum und Peripherie („shifting“). Ein einfaches Beispiel ist die Einführung von (großen) Fenstern zwischen Büros und Gängen; hierdurch werden Menschen im Büro mit ihrer nahen Umgebung verbunden und können ihre Aufmerksamkeit hin und her wandern lassen. Durch den Aufmerksamkeitswechsel zwischen Zentrum und Peripherie und ein dadurch entstehendes neues Gefühl von Lokalisiertheit werden unlösbar erscheinende Probleme, behaupten die Forscher, lösbar; dies gelte insbesondere für das Problem der Informationsfluten (information overload), dem man durch einen Perspektivwechsel schlichtweg die Aufmerksamkeit entziehen kann (S. 84 f).

Teil II Computer und menschliche Identität
7
(S. Turkle:) Aufwachsen in einer Simulationskultur

Heute, erklärt die Autorin, sei nicht mehr so klar wie in der Kinderstubenzeit des Computing, was Programmieren ist. Programmiert man, wenn man Textverarbeitungs-Software pflegt? Oder, wenn man einen Raum in einer Online-Community einrichtet?
In dieser Zeit handele Computing weniger von Kalkulation und Regeln als von Simulation und Navigation (S. 95).
Im Anschluss an die pädagogische Forschung Piagets beschreibt Turkle, wie Kinder in ver-schiedenen Zeiten des Computing den Umgang mit Computern erlebt haben. In der Anfangs-zeit (als das Kalkulieren im Vordergrund stand), so fand sie heraus, haben Kinder einen Computer wie Spielzeug behandelt, das man auseinandernehmen kann, ohne dass sie ansonsten einem Computer viel abgewinnen konnten. Später, in den 1970-er Jahren, fanden Kinder einen neuen Zugang zu Computern, den Turkle „psychologisch“ nennt; was jetzt die Kinder am meisten interessierte, war die Frage, ob Computer etwas Lebendiges sind (da ja etwas, das sich ‚von allein‘ bewegen kann, lebendig erscheint). Dann, in den 80-er Jahren, ist bei den unter-suchten Kindern die Meinung in den Vordergrund getreten, dass Menschen fühlen und Computer denken. (Früh) in den 90-er Jahren wurde wieder die Frage virulent, ob Computer ‚lebendig‘ sind; doch hat sich nach Turkle bei den meisten Kindern die Ansicht durchgesetzt, Computer seien weiter nichts als Maschinen. Die neueste Kindergeneration hat laut Turkle die Neigung, Computer für ’so ähnlich wie lebendig‘ zu halten („sort of alive — like Pinnoccio“, wie ein Kind sagte), und zwar deshalb, weil man die ‚Lebendigkeit‘ an- und abschalten könne.

8
(D.A. Norman:) Warum es gut ist, dass Computer nicht wie das Gehirn arbeiten

Computer, sagt Norman, operieren nach einem diskreten, logischen, deterministischen Muster und wiederholen ihre Ergebnisse; Menschen dagegen würden nach einem nichtdiskreten, geschichtsabhängigen, zielungenauen Muster operieren und variierende Ergebnisse hervor-bringen (S. 105). Computer und Menschen könnten sich vielleicht in 50 Jahren hinreichend ergänzen, sofern sie gut in menschliche Bedingungen eingefügt werden.
Unter einem „Maschine-zentrierten“ Blickwinkel, führt Norman aus, erscheinen menschliche Operationen gegenüber Computer-Operationen als durchweg negativ (z.B. vage, unordentlich, etc.); unter einem „Mensch-zentrierten“ Blickwinkel erscheinen sie dagegen als durchweg positiv (z.B. kreativ, phantasievoll, etc.).
Strategisch sei es weder richtig, meint Norman, den Computer dem Menschen anzupassen (der KI-Ansatz), noch umgekehrt den Menschen dem Computer anzupassen. Er plädiert gewisser-maßen für einen ‚dritten Weg‘, „biologisches Computing“ genannt. Die Andeutungen, die er zu diesem langfristig vielleicht möglichen Weg gibt, gehen dahin, Computer nicht (nur) auf der Grundlage von anorganischem, sondern auf der Grundlage von organischem Material (gezüchtete Neuronensysteme) weiterzuentwickeln.
Kommentar: Dass die von Norman diskutierte Strategiefrage als Entweder-Oder- Frage falsch gestellt ist, möchte ich in einer noch anderen Weise zu begrün- den versuchen. Denkt man sich das eine Extremziel, wonach der Computer in seiner Funktionsweise vollkommen dem Menschen gleicht, als erreicht, so hätte der Computer keinen spezifischen Nutzen für den Menschen, sondern den gleichen Nutzen wie ein Mensch. Denkt man sich das andere Extremziel, wo- nach der Computer vollkommen verschieden vom Menschen funktioniert, als erreicht, so könnte der Mensch nicht mit ihm kommunizieren, und der Com- puter hätte gleichfalls keinen spezifischen Nutzen für ihn.
Nun behaupte ich, dass der Computer von vorn herein nur in einer spezifischen Weise für den Menschen nützlich sein kann, und zwar deshalb, weil diese Ma-
schine zur Gattung der Werkzeuge gehört, die ausnahmslos für einen spezifi- schen, d.h. von dem eines anderen Werkzeugs unterscheidbaren Zweck ge- macht sind (genau wie natürliche Organe). Wenn das so ist, und wenn man irgendein Werkzeug zu größtmöglicher Nützlichkeit weiterentwickeln will, so muss dieses dem Menschen immer in einer Weise gleich, in anderer Weise ungleich sein. So verhält es sich bei jedem Werkzeug, z.B. bei einem Hammer, der von Haus aus ein Handwerkszeug ist: Sein organischer, der Hand ange- passter Stil gleicht funktionell der Hand und dem Unterarm, deren Hebelfunk- tion er erweitert. Der anorganische Kopf dieses Werkzeugs, das eigentliche Schlaginstrument, ist dagegen funktionell der Hand ungleich, insofern, als sie die geforderte Schlagfunktion nicht gleichermaßen erfüllen kann.
Ein Hammer hat wie jedes Handwerkszeug die Funktion, eine bestimmte Funk- tion der Hand zu erweitern. Ein Computer ist, auch wenn er mit den Fingerkup- pen bedient wird, kein Handwerkszeug, sondern ein Gehirnwerkzeug (in Ma- schinenversion). Als solches hat er die Funktion, eine bestimmte Funktion des Gehirns zu erweitern. Und wie jetzt, so wird wahrscheinlich auch in Zukunft der Computer in einer Weise dem Gehirn gleich, in anderer Weise ihm ungleich arbeiten.

9
(D. Gelernter:) Die Logik von Träumen

Die Hälfte des Gehirns wird recht gut verstanden, die andere Hälfte so gut wie gar nicht. Zumindest teilweise, dies ist Gelernters Ansicht, liegt das daran, dass die meisten Kognitions-wissenschaftler die Beschäftigung mit nicht-analytischen, nicht-problemlösenden, nicht-zielorientierten Gedanken vernachlässigen.
Denkstile, so ist hier der Ausgangspunkt von Gelernter, sind nicht fix, sondern ändern sich im Laufe eines Lebens und sogar im Verlauf eines Tages. In Zuständen der Entspannung, auch bei Müdigkeit, ist ein low focus-Denkstil typisch, wie er bei freien Assoziationen (wo ein Gedanke ziellos über die mentale ‚Landkarte‘ wandert) und auch beim Dichten vorherrscht. Demgegen-über ist in Zuständen der Anspannung ein high focus-Denkstil typisch, wie er besonders beim Analysieren gebraucht wird (S. 117 f).
Low focus-Denken spielt auch bei kreativen Prozessen eine Rolle, und hier ist das Finden von Analogien eine wichtige Sache. Doch ist der ‚Mechanimus‘ von analogischem Denken ganz unbekannt. Wie kommt es, fragt Gelernter, dass ein Dichter eine Frau gerne mit einer Blume vergleicht, wo beide doch unter gewissen Gesichtspunkten nicht vieles gemein haben? Ist das Verbindende vielleicht ein gemeinsames Gefühl?! (S. 122)
Von dieser Forschungsrichtung her berichtet Gelernter von einem Projekt (genannt FGP-Machine), in dem Analogien simuliert werden. Die Datenbasis enhält Analogien aus wirklichen Anekdoten; solchen Analogien werden emotionale Wertigkeiten zugeordnet. Auf dieser Grund-lage werden neue Analogien generiert, und zwar auf einem high focus-Level (viele Gemein-samkeiten des Analogen) wie auf einem low focus-Level (wenige Gemeinsamkeiten).
Von Ergebnissen berichtet Gelernter noch nicht. Aber er verbindet das Experiment direkt mit dem, was er für das größte Informatik-Problem der nächsten 50 Jahre hält: Wie sind wir (im Gehirn) in der Lage, mit zu vielen Daten fertigzuwerden?

10
(F.L. Alt:) Endlauf um menschliche Intelligenz

Alt zeigt die Problematik von KI-Strategien, die ‚Computer-gemäß‘ sind („computer-germane“), an einer strategischen Entscheidung des 19.Jahrhunderts, nämlich Handschrift schreibende Maschinen zu konstruieren; vom Standpunkt des etablierten Typewriters war jene Strategie falsch.
Schach: In den berühmten Kämpfen Kasparows gegen den derzeit besten Schachcomputer hat letzterer einmal seine hohe Überlegenheit in der Tiefenkalkulation der Züge ausspielen können, ersterer ein andermal seine Überlegenheit in der Selektion von Strategien (wo das Gefühl eine Rolle spielt). Was hier die Richtung für die Weiterentwicklung von Computern anlangt, vertritt Alt die Ansicht, dass man den Schachcomputer in Richtung der ihm eigenen Stärke (Kalkulation) entwickeln sollte; doch weiß Alt um das eine große Problem dabei: den Computer bei jedem Zug alles durchrechnen lassen, dauert unverhältnismässig viel zu lange {die Zeit für 1040 Bits bei einer durchschnittlichen Wettkampfpartie — MF}. Das Weiterentwicklungs-Problem ist hier also ungelöst.
Für die Medizin erwartet Alt im Laufe der nächsten 50 Jahre große Möglichkeiten, wenn man die Kalkulationsstärke des Computers ausnutzt. Die Richtung ist: Die verschiedensten menschlichen Funktionen werden gemessen und aufgezeichnet. Bei Beschwerden kann mit Hilfe des Computers eine Vielzahl möglicher Störungen abgefragt werden.
Als ein bedeutsames Feld sieht Alt auch das Computing natürlicher Sprachen. Hier, in diesem Fall, sollte der Weg der Imitaion menschlichen Denkens beschritten werden, nach dem Muster: Auf einen Befehl — Ausführen! Auf eine Frage — Antworten! Auf eine Feststellung — Speichern! (für später)
Kommentar: Es könnte gefragt werden, nach welchen Idealbildern Strategien der Computerentwicklung ausgerichtet sind bzw. werden können. Das Idealbild,
das ich als menschenwürdigstes ansehe, ist, Computer auf die Funktionen
von Sklaven bzw. Sklavensorten zu bannen. Denn auf diese Weise kann die menschliche Neigung zur Sklavenhaltung am schadenfreiesten für die Mit- menschen ausgelebt werden.
Der Ideal-Sklave ist einer, der mit möglichst wenigen Befehlen stets das Ge- wünschte tut. Das also sollte der ideale Computer (bzw. je verschiedene Sorten
von Computern) ‚können‘.
Um ein Modell dafür zu gewinnen, nach welchen Befehls- und Reaktions-
strukturen Sklavenarbeit vor sich geht, müssten solche Verhältnisse unter diesen
Gesichtspunkten studiert werden. Dies ist insofern schwierig, als hin- reichendes antikes Material hierzu kaum beschaffbar sein dürfte und in unserer eigenen Gesellschaft Sklaverei im Sinne des Worts nicht existiert. Aber sie hat ja in den USA bis in die Mitte des vorletzten Jahrhunderts existiert, und in Deutschland — in der Form von Zwangsarbeit — in der Mitte des letzten Jahrhunderts. Aus diesen Verhältnissen brauchbares Material zu finden, dürfte nicht unmöglich sein.

11
(P.W. Abrahams:) Eine Welt ohne Arbeit

Eine Szenerie: Eine Welt, in der alle Arbeit von ‚intelligenten‘ Maschinen ausgeführt wird, zum Beispiel Entwurf eines Traumhauses und dessen Bau und dessen Einrichtung, etc etc …
Nach dem Entwurf einer solchen Szenerie erzählt Abrahams von seinem Studium am MIT um 1960, als er und seine Kommilitonen die Herstellung von denkenden Maschinen in wenigen Jahrzehnten für möglich hielten. Nachträglich, sagt er, würden ihm die damaligen Vorstel-lungen so vorkommen, als hätte man geglaubt, im Jahr 2000 einen Turm zum Mond bauen zu können.
Gegenwärtig gäbe es eine ähnliche Hybris, so etwa hinsichtlich der Vorstellungen von künftigen „Information Superhighways“, wie sie im Magazin „Wired“ ausgedrückt würden {vgl. Literaturbericht Kelly (Wired-Hrsg.)}. Inwieweit also ist eine Welt ohne Arbeit denkbar?
Zu bedenken sei, dass für eine Reihe von Arbeiten sensorische Inputs gebraucht werden, die geschaffen werden müssen. Bei anderen Arbeiten genüge es, dass Computer Texte analysieren und darauf reagieren. Doch auch solche Aufgaben seien weit entfernt von den Möglichkeiten heutiger Software. Bemerkenswerte Schwierigkeiten gäbe es auch bei Maschinen-Übersetzungen für natürliche Sprachen. Nicht nur müsse der Computer sich in der Herkunfts- und der Zielsprache bewegen können; er müsste auch ‚verstehen‘ worum es in einem Text geht, ganz abgesehen von den Problemen mit Stil, Idiomen, Metaphern.
Es gäbe auch Arbeiten, komplexe und Flexibilität verlangende, die resistent gegen Automation sind. Ironischerweise habe das Computing selbst eine Klasse von Automations-resistenten Arbeiten hervorgebracht: Dateneingabe.
Selbst wenn eine Welt ohne Arbeit technisch möglich wäre, bemerkt Abrahams, kann man einen Weg angeben, die entsprechende Technik einzuführen? Er fragt auch, ob eine Welt ohne Arbeit ein besserer Ort zum Leben ist, und antwortet: „Wenn man Hämmer verkauft, ist die ganze Welt ein Nagel.“ (S. 145)
Er will damit wohl sagen, … und wenn man Computer verkauft, besteht die ganze Welt aus Bits. Was ist der Benefit? — Abrahams‘ Erwägungen enden dann nicht ohne Ironie:
Wenn Maschinen so klug werden, dass sie uns als Berater dafür dienen, wie wir unser Leben und unsere Lebensverhältnisse verbessern, dann wären sie wahrlich die bedeutendsten Arte-fakte, die die Welt gesehen hat.

12
(T. Winograd:) Das Design von Interaktionen

A. Gegenwärtige Veränderungsrichtungen

(1) Eine der Veränderungen läuft nach Winograd von der Computerei zur Kommunikation (computation to communication). Erst in den letzten Jahren sei sichtbar geworden, dass der Computer nicht mehr hauptsächlich als ‚Computing-Maschine‘ angesehen wird, sondern als Maschine für neue Wege der menschlichen Kommunikation. Die eigentliche Faszination darin ist: „Leute sind primär an anderen Leuten interessiert und deshalb hochmotiviert, über welche Medien auch immer zu interagieren.“ (S. 151)
(2) Eine weitere Veränderungsrichtung ist die von der Maschinerie zu deren Umgebung (habitat). In den Anfangszeiten des Computing seien die Bestandteile der neuen Maschine als solche von großem Interesse gewesen; dies würde nun verblassen gegenüber einem Interesse an den Lebensräumen, in denen sie angewandt werden.
(3) Von „aliens to agents“ nennt Winograd eine dritte Tendenz. In der älteren Science Fiction-Literatur, und ebenso in frühen KI-Visionen, habe die Vorstellung vorgeherrscht, dass wir mit fremden, von uns gemachten Wesen in einer gemeinsamen Welt leben werden. Heute, nachdem solche ‚Aliens‘ weitgehend nicht verwirklicht wurden, gehe die Tendenz dahin, Agenten {bzw. Agenturen} hervorzubringen, die den Leuten zum Beispiel helfen, im Web zu wandern, Musik auszusuchen oder E-Mail zu filtern.

B. Der Aufstieg des Interaction Design

Auf ein halbes Jahrhundert hin gibt Winograd eine paradox klingende Prognose: Das Computing-Feld weitet sich aus, die Computing-Profession verengt sich (S. 156). Damit ist gemeint, dass in den nächsten 50 Jahren das Design von Räumen der Kommunikation und Interaktion bedeutsam wird, wobei sich der Focus von der Maschinerie auf das menschliche Umfeld verlagert, als „Interaction Design“, wobei diese Art von Design in Fachgebieten wie Psychologie, Kommunikation, Graphik, Linguistik interdisziplinär verankert wird. Dem-gegenüber wird „Computer Science“ kontrahieren, indem man sich auf die technologischen Be-lange konzentriert und sie vertieft.
Als aktuelles Beispiel für künftiges Interaction Design nennt Winograd das Design von Webseiten, wo die Entwicklung in nuce zu sehen ist. Denn hier geht es jetzt schon um das Design eines „Interspace“, in dem Interaktionen zwischen Individuen, Gruppen, Institutionen stattfinden sollen.

Teil III Geschäftswelt und Innovation
13
(B. Evans:) Der stolpernde Titan

Mit dem Titan ist, in einer Fallstudie, IBM gemeint. Es gab in dieser Weltfirma bereits Anfang der 1960-er Jahre eine Krise wegen nicht mehr kompatibler Produktfamilien, die nach Evans um die Mitte des gleichen Jahrzehnts durch eine neue Produkt-Architektur und eine zeitgemäße „Microminiatur-Technologie“ bewältigt wurde.
Anfang der 1980-er Jahre gab es einen größeren Einbruch, den Evans darin begründet sieht, dass sich — wieder — inkompatible Produktgruppen entwickelt hatten. Diesmal erholte sich IBM jedoch nicht mehr gut. Evans nennt zwei strategische Hauptfehler: (1) Der erfolgreiche IBM Personal Computer hatte keinen selbstentwickelten Microprocessor (wodurch Intel begünstigt wurde); (2) die Kontrolle über das Operationssystem MS/DOS konnte nicht gehalten werden. Dadurch habe IBM seine führende Stellung verloren.

14
(F. Flores:) Führungspersönlichkeiten der Zukunft

In der Geschichte vieler Diszipline gibt es Springpunkte, wo die Entfaltung eines Satzes von einfachen, stabilen Wiederholungsmustern (recurrencies) die Tür zu Innovationen öffnen, die Zukunftsorientierung geben. Beispiel: die Entzifferung der DNA durch Watson und Crick, wodurch der Weg zur Entfaltung der biotechnologischen Industrien eröffnet wurde.
Nach Flores‘ Überzeugung stehen wir an der Schnittstelle von dreierlei Benutzungen des Computers; (a) als informationsverarbeitende Maschine, (b) als Kommunikationsinstrument,
(c) als Medium zur Artikulation der Corporate Identity (S. 176 f).
Zum letzteren Punkt macht Flores nähere Ausführungen. Er versteht dabei ein Unternehmen als Netzwerk von Verpflichtungen (commitments). Die Grundeinheit, das ‚Molekül‘ dieser Ver-pflichtungen nennt er Conversation for Action, bestehend aus den ‚Bausteinen‘ Vorbereiten, Aushandeln, Durchführen, Vollenden. Darin vollzieht sich die operationale Koordination (S. 179 – 181). Als die große Führungsaufgabe sieht Flores (S. 184): die kontinuierliche Wiedererfindung der Zukunft (des Unternehmens). Hierzu im Umgang mit anderen Netzwerken in der Lage zu sein, mache die Führungspersönlichkeit von morgen aus.

15
(L. Druffel:) Informationskrieg

Die größten Gefahren sieht Druffel, ein Militärexperte
— in der Unterbrechung von Services
— im Missbrauch von Info-Quellen
— im Entfernen von Daten.
Dies könne durch einen äußeren Feind geschehen oder {nachdem dieser unsichtbar geworden ist/MF} durch einen inneren Feind, wobei er hier nennt: Eindringlinge, Viren, Kriminelle und Terroristen. Eine besondere Gefahr ergäbe sich noch daraus, dass man die Schutzbedürftigkeit von Informationssystemen unterschätze.

16
(A. Mowshowitz:) Virtueller Feudalismus

Die Ausübung öffentlicher Macht durch dezentrale Mächte ist eine unausweichliche Entwick-lung im Zuge der Auflösung nationalstaatlicher Macht.
Mowshowitz befürchtet in dieser Entwicklung eine neue Art von Feudalismus, in dem „Räuberbarone“ in virtuellen Räumen das Sagen haben.

17
(D.D. Chamberlin:) Mitbewohner unseres Planeten

Chamberlin spricht die rasante Evolution digitaler Erfindungen an und fragt nach dem lang-fristigen Effekt, den diese Evolution für die Gesellschaft haben wird, in der sie stattfindet. Er betrachtet dabei diese spezifische Evolution wie die Entwicklung eines Ökosystems, das weitgehend unter menschlicher Kontrolle steht und der Erfüllung menschlicher Bedürfnisse dient, den Bedürfnissen nämlich vorallem nach Zeit, Geld, Gesundheit, Information, Vergnügen. Vor Augen hat Chamberlin drei Wege, auf denen sich die „digitale Species“ über die nächsten 50 Jahre in ihrer Umwelt entfalten wird:
(1) durch Allokation von Resourcen , wie zum Beispiel die hocheffektive digitale Steuerung der Treibstoffzufuhr in Fahrzeugen oder die digitale Steuerung von Just in Time-Prozessen;
(2) durch Bewegung von Informationen , was impliziert, dass die neuen „digitalen Bewohner“ Informationen praktisch auf dem gesamten Planeten verfügbar machen werden;
(3) durch Globalisierung von Kultur, was bedeutet, dass die menschliche Kultur nicht nur von der Genetik, der Geschicht und der physischen Umwelt geprägt ist, sondern auch von der In-formationsumwelt. Diese wird grundlegend verändert durch die digitale Technologie, in der Weise nämlich, dass historische Schranken der Informationsverbreitung aufgehoben werden: von jeder Region der Erde wird man praktisch an alle öffentliche Information äußerst schnell herankommen.
Durch die drei genannten Funktionen, so sieht es Chamberlin, würden die digitalen Maschinen eine Position erwerben, in der sie Partner der Menschen sind.

18
(W.I. Mitchell/O. Strimpel:) Dort und doch nicht dort

Die Autoren sprechen von einer „Ökonomie der Präsenz“, weil Präsenz Resourcen verbrauchen und Geld kosten kann. Hinzu kommt, dass es im Allgemeinen teuer ist, an Orten zu sein, wo viele sein wollen.
„Präsent sein“ bedeutete in der Vergangenheit vor allem, dass man körperlich anwesend ist; heute erweitert sich der Begriff um die Telepräsenz. Zu unterscheiden sind hier grundsätzlich die synchrone und die asynchrone Telepräsenz. Im Einzelnen klassifizieren die Autoren folgendermaßen:

Im Bereich des Theaters
synchron: asynchron:
(u.a.) Radio-Live-Sendungen, Websites,
Videokonferenzen Video auf Bedarf

Im Bereich der Bücherei
synchron: asynchron:
Radiolesungen WWW-Bibliotheken

Im Bereich des Museums
synchron: asynchron:
Videokonferenzpräsentationen WWW virtuelles Museum
(S. 246 – 256)

Präsenz im modernen weiten Sinn des Begriffs lässt sich nach Graden unterscheiden, wobei der körperlichen Präsenz ein hoher, der Telepräsenz (besonders in ihrer asynchronen Form) ein niedriger Grad zukommt. Nach Mitchell/Strimpel werden tendenziell die Bedingungen hoher Präsenz teuer, die Bedingungen niedriger Präsenz billig werden.

19
(D. Tsichritzis:) Die Dynamik von Innovationen

Unmittelbare Träger von Innovationen können sein: (1) Ideen, (2) Personen, (3) Produkte. In seiner Betrachtung dieser Arten von Innovationen unterscheidet Tsichritzis jeweils einen Aspekt der Qualität, der Tiefenwirkung (penetration) und der Geschwindigkeit (S. 260).

Zu (1) Ideen:
Eine klassische Art der Innovation in der Wissenschaft ist, eine Idee zu haben und sie (in einem bestimmten Kontext) schriftlich zu publizieren. Die Effektivität der Innovation, so Tsichritzis‘ Ansicht, hängt in solchen Fällen entscheidend von ihrer Qualität ab.
Hochwertige Forschung werde in den kommenden Jahrzehnten in den unbefahrenen Ge-wässern zwischen Informatik und anderen Disziplinen zu erwarten sein (S. 261).

Zu (2) Personen
Bei anderen Innovationen habe weniger eine Idee als die Personen, die sie weitertragen, Be-deutung. Die Effektivität einer Innovation hänge in solchen Fällen vor allem von ihrer Tiefenwirksamkeit ab, in Fragen etwa der Bildung davon, wie weit die Innovation an deren Fundamente heranreicht.
Die Informatik könne in hohem Maße innovativ werden, wenn sie sich gegenüber allgemein bildenden Fächern wie Literatur, Philosophie, Ökonomie öffnet. In Zukunft, so Tsichritzis weiter, wird bei Hochschullehrern die Rolle als Mentor oder Manager in den Vordergrund treten, die Rolle als Informationsbeschaffer aber in den Hintergrund, weil Dozenten und Studenten mehr oder weniger aus dem gleichen Informationspool (im Internet) schöpfen werden.

Zu (3) Produkte
Im ökonomischen Leben sind meistens Produkte die Träger von Innovationen. Hier hänge die Effektivität einer Innovation wesentlich davon ab, wie schnell sie sich vollzieht.
In Zukunft werde das Kopieren von Produkten durch Patente nicht mehr wirksam geschützt werden können; schnelles Innovieren werde stattdessen zum Schutzmechanismus werden.

20
(P.J. Denning:) Wie wir lernen werden

Denning schließt inhaltlich an Tsichritzis an, indem er wie dieser hervorhebt, dass Lehrende künftig in höherem Maße Manager denn Informationsvermittler sein werden. Als bedeutsame Distinction werde sich die zwischen Wissen (knowledge oder „knowing how“) und Information (information oder „knowing about“) auftun.
Durch die explosionsartige Entwicklung der Informationsindustrie, legt Denning dar, ist auf das gesamte Erziehungswesen ein großer Druck zugekommen, wobei paradoxerweise sowohl Spezialistentum durch „Training“ als auch Generalistentum durch „Bildung“ gefordert wird. Hier müssten neue Verbindungen gefunden werden, die allerdings tiefgreifende Veränderungen miteinschließen.
Ein Symptom der Krise der Universität, auf der Seite des Forschens, ist das „publish or perish“-Syndrom. Dadurch wird, fand Denning (in den USA) heraus, so viel geschrieben, dass in den meisten Disziplinen mehr als die Hälfte aller Veröffentlichungen von niemandem je zitiert werden (S. 271 f).
Ein weiteres Symptom der Universitätskrise, auf der Seite des Lehrens, sieht Denning in dem Ruf nach „Kompetenz“, die den Studenten vermittelt werden sollte. Der bisherige typische Aufbau der Curricula, der sie zu einem „Körper von Wissensinhalten“ macht, könne dies nicht (mehr) leisten. Um diese Situation zu überwinden, betont Denning, braucht man ein neues Ver-ständnis von Information und Wissen.. Denning gibt folgende Bestimmungen.
Information: in einem Kontext beurteilte Daten;
Wissen: Das Vermögen für effektives Handeln in einer menschlichen Domäne (S. 276). Dabei hat dieses Vermögen zwei Ausformungen; a) das Können („the skills behind action“), b) das Beobachterbewusstsein („awareness of the observer one is“), d.h. jene Fähigkeit, durch die ein Perspektivwechsel vollzogen wird (wichtig für ‚Aha-Erlebnisse‘ und ‚Heureka-Momente‘). Lehrende werden nach Denning in Zukunft Techniken entwickeln, mit denen sie die Belange der Lernenden beobachten und voranbringen können; auf diese Weise werde sich der Wider-spruch zwischen Spezialistentum und Generalistentum auflösen.
Den Ausführungen Dennings gemäß (S. 278) ist das Grundmuster für Lernsituationen der Zukunft das folgende: Gegeben ist ein Lernraum, in dem verschiedene Studien- und Arbeits-gruppen tätig sind. Am Eingang zu einem solchen Raum befindet sich jemand, der einen Eintretenden in Empfang nimmt und ihn in eine der Gruppen vermittelt; dort kann er lernen, wie eine bestimmte Aufgabe gelöst wird, und er kann sich dann weiteren Gruppen anschließen. Am Ausgang des Raums befindet sich jemand, der den Lernenden, sofern er absolvierungswillig ist, in Empfang nimmt und ihn zur Erlangung eines Zertifikats prüft.
Das Grundprinzip dieses Modells ist (im großen Unterschied zu den üblichen Verhältnissen), dass der Lernende sein eigenes Tempo bestimmen kann, mit dem er die Wege bis zur Zertifizierung beschreitet.

30.09.2001; MF