Buchkritik zu „2045 das Jahr, in dem die KI schlauer wird als der Mensch“

Buchkritik zu „2045 das Jahr, in dem die KI schlauer wird als der Mensch“

Im Buch von Dr. Horst Walther und Andreas Dripke: „2045 das Jahr, in dem die KI schlauer wird als der Mensch“ wird davon ausgegangen, dass man eine KI konstruieren kann und wird, die selbst wiederum verbesserte KI konstruieren kann und wird. Wenn das der Fall ist, ist eine den Menschen überholende, eventuell ihn sogar überrumpelnde KI denkbar. Erfahren Sie, warum unser Blogautor Michael Mörike findet, dass das Buch seinem Untertitel „KI zu Ende gedacht“ nicht gerecht wird.

Im Buch von Dr. Horst Walther und Andreas Dripke: „2045 das Jahr, in dem die KI schlauer wird als der Mensch“ wird davon ausgegangen, dass man eine KI konstruieren kann und wird, die selbst wiederum verbesserte KI konstruieren kann und wird. Wenn das der Fall ist, ist eine den Menschen überholende, eventuell ihn sogar überrumpelnde KI denkbar. Wie sollte das gehen?

1. KI lernt aus Daten

KI wird – mindestens nach allem, was man heute weiß – mit Hilfe von Daten / Informationen trainiert.

Eine KI, die eine neu konstruierte und bessere KI trainiert, braucht neue verbesserte oder erweiterte Daten.
Woher nehmen? Im Internet sind sehr viele Texte verfügbar, die man statistisch semantisch analysieren kann.
Schließlich sind sie alle nach entsprechenden Grammatiken formuliert.

Im Internet sind sehr viele Bilder verfügbar, die mehr oder weniger gut annotiert sind.
Entweder man annotiert die Bilder noch besser (kann das eine KI?) oder steckt als Mensch viel Arbeit rein.
Sehr viele Bilder sind nicht klassisch annotiert, haben aber durchaus einen Bezug zu Texten, die sie beschreiben oder in die sie eingebunden sind. Vielleicht kann eine künftige KI diese Texte so interpretieren, dass sie aus den Bildern lernen kann?

Ähnliches gilt für kleine Filmchen (youtube). Sie enthalten oft gesprochenen Text, der interpretiert werden könnte. Oder sie werden außerhalb in entsprechenden Texten beschrieben.
Aber auch dazu braucht es deutlich verbesserte Trainingsmethoden, dass daraus eine KI neues lernen kann.

Ähnliches gilt für Musik.

Junge Menschen lernen, indem man sie durch die Welt führt und ihnen Erklärungen dazu abgibt.
Könnte das ein Vorbild für eine KI sein? Mindestens anfangs könnten Menschen eine lernende KI durch die Welt führen. Wie aber kann eine bestehende KI einer (noch jungen, lernenden) neuen KI die Welt erklären?

Um die Welt zu verstehen, müsste die KI vernetzt denken können. Noch gibt es das nicht. Es ist aber durchaus vorstellbar, dass eine KI eine Ontologie zur Verfügung hat, mit deren Hilfe sie vernetzt denken könnte.
Woher kommt so eine – umfassende – Ontologie?

Kann man mit einer KI eine Ontologie aufbauen?
Zunächst in Form eines (sehr großen, umfangreichen) Wissensgraphen (knowledge graph).
Der müsste aber von Menschen geprüft und zertifiziert werden. Eine sich selbst verbessernde KI kann frühestens dann gebaut werden, wenn eine solche Ontologie verfügbar ist. 2045? Eher nicht.

2. KI braucht Ziele innerhalb von Anwendungsgebieten

Jede KI benötigt zur operativen Arbeit Ziele, die sie verfolgt – nicht anders als der Mensch auch.

Der Mensch hat durch die Evolution Ziele vorgegeben bekommen (Größenordnung: 100 Ziele oder mehr).
Woher bekommt eine sich selbst verbessernde KI immer wieder neue Ziele?
Kann diese Ziele auch die bereits vorhandene KI haben, ohne sie verfolgen zu können?
Dann könnte die Alte der Neuen aus diesem Reservoir weitere Ziele vorgeben.
Aber dieses Reservoir müsste vom Menschen initial angelegt werden. Wollen wir das machen?

Diese Ziele können bei der konkreten Durchführung / Umsetzung in Konflikt miteinander stehen (Ethik lässt grüßen!). Damit das nicht permanent und unkontrolliert geschieht, müssten diese Zeile untereinander verglichen werden können: Sie brauchen Gewichte. Diese Gewichte könnte anfangs der Mensch vorgeben. Warum sollte er es?

Macht er es eventuell fahrlässig, indem er „seine“ KI-gestützten Helferlein baut und ihnen solche Gewichte vorgibt, die die sich selbst verbessernde KI dann einfach übernimmt / kopiert / klaut?

Ziele beziehen sich immer auf Anwendungsgebiete. Beim Menschen ist das Anwendungsgebiet sein eigenes Leben. Dies und das Umfeld zu optimieren hat ihm die Evolution als Ziel vorgegeben. Als Menschen verfolgen wir nicht alle denkbaren Ziele: Z.B. haben wir nicht den intensiven Wunsch mit dem Kopf nach unten an den Bäumen zu hängen. Das bringt uns nämlich nichts.

Jede KI hat – zumindest, solange sie noch nicht dem Menschen überlegen ist, ihr eigenes Anwendungsgebiet. Die immer schlauer werdende KI müsste ihr Anwendungsgebiet Zug um Zug erweitern. Wie soll das gehen? Geben wir der ersten sich selbst verbessernden KI alle künftigen Anwendungsgebiete mit? Implizit mit den Zielen oder explizit?

Oder probiert die KI einfach rum – zufallsgesteuert oder besser durch mehr oder weniger zufällige kleine Änderungen ihrer Aufgaben, ihrer Ziele? So jedenfalls hat es die Evolution mit uns Lebewesen gemacht.

3. Kann eine KI rumprobieren?

Zweifellos kann man eine KI bauen, die einfach zufallsgesteuert rumprobiert. Dabei geht dann vieles schief und die Fehlversuche werden abgebrochen. Dies würden wir bemerkten als Menschen jedoch bemerken. Ich jedenfalls würde die KI dann ganz schnell abstellen, ihr den Stecker ziehen.

Wenn eine KI rumprobiert, wie kann sie feststellen, ob eine neu geschaffene KI leistungsfähiger ist als die alte oder leistungsschwächer? Welche Kriterien sollen da gelten? Wenn sie ihre Ziele schneller erreicht? Wenn sie neue Ziele erreicht? Wie kann eine (zunächst noch) leistungsschwache KI unterscheiden zwischen dem Erreichen eines neuen außerhalb des bisherigen Rahmens liegenden Ziels und einem Fehlversuch? Wie kann sie das Erreichen eines außerhalb des bisherigen Anwendungsgebietes liegenden Ziels als erfolgreich und weiterführend erkennen?

Fragen über Fragen, deren Beantwortung das Buch verschweigt.

Das Buch trägt den Untertitel „KI zu Ende gedacht“ und ist wohl als Wortspiel zu verstehen. Diesem Ziel werden die Autoren offensichtlich nicht gerecht.

Ich jedenfalls habe keine Angst vor dem Jahr 2045.

Michael Mörike, Vorstand der Integrata-Stiftung