Hat Künstliche Intelligenz Grenzen?

Dr. Klaus-Ulrich Moeller, Zeitgeist-Forscher aus Sasbach, beschäftigt sich mit dem Verhältnis von Menschen und Maschinen. Er schreibt (Zitat) „Für Unternehmen und Führungskräfte ist es dringend erforderlich zu entscheiden, was künftig von Maschinen, was von Menschen erledigt werden soll und wie ich den Menschen „enable“, das auch zu leisten. Viele gesellschaftliche Phänomene sind letzten Endes auf diese sich abzeichnende „Deprivation“ des Menschen gegenüber der immer intelligenter werdenden Software zurückzuführen.“

Noch vor einigen Jahren schien klar zu sein, dass Künstliche Intelligenz viel verändern, aber niemals dem Menschen seine ureigensten Fähigkeiten streitig machen könnte: Kreativität, Intuition, Emotionalität, Sinnlichkeit, Erkenntnisfähigkeit, Bewusstsein – das berühmte Wissen um die eigene Existenz. Wir sind inzwischen eines Besseren belehrt, seit intelligente Software Bilder wie van Gogh malt, Sinfonien wie Beethoven komponiert und Bücher schreibt, die von Tolstoi stammen könnten. Seit Software nicht nur Gesichter unterscheiden („facial recognition“), sondern anhand von Mimik, Gestik und Sprache auch emotionale und Stimmungszustände von Menschen erkennen und entsprechend reagieren kann.

All das, was wir für so hoch individuell und nicht nachahmbar gehalten haben, folgt offenbar ebenso Mustern und Strukturen wie unsere externen Handlungen – Bewegungsprofile, Handlungsprozesse, Kaufentscheidungen, Einordnung in sozioökonomische Gruppen. Dass KI quasi schon in ihrer Geburtsstunde diese Hürde in unser vermeintlich exklusiv „Menschliches“ locker überspringt, ist vielleicht mit eine der wichtigsten Beobachtungen dieser Tage. Denn wenn auch diese „zone protegè“, unsere Individualität, nicht vor klugen Algorithmen sicher ist, wenn sich offenbar auch Kreativität, Intuition und Absichten in Muster zerlegen lassen, liegt die Vermutung nahe, dass es sich im nächsten Schritt mit unseren Gedanken, unserem Unterbewussten und unserer Vergegenwärtigung unserer selbst nicht anders sein wird. Auch wenn es noch ein paar Jahre hin sein sollten: Es spricht denklogisch nichts dagegen, dass sich auch diese, im Begriff der „Seele“ komprimierten Zustände des ICHs, strukturiert, nachvollziehbar und damit kopierbar darstellen lassen. Die KI wird davor nicht einfach deswegen Halt machen, weil wir das so wünschen und für ethisch nicht in Ordnung halten.

Nun ist die Mustererkennung des Unterbewussten durch KI das eine, die Übernahme oder Übertragung in die eigene Identität durch einen Roboter etwas anderes. Dies würde in der Tat voraussetzen, dass dieses Unterbewusste erfassbar und in mathematische Formeln transferierbar ist. Doch auch hier öffnen uns die Neurowissenschaften durch Gedankenerkennung und die Entschlüsselung der chemischen Prozesse im Hirn seit ein paar Jahren ungeahnte Horizonte. Die Steuerung von Extremitäten bei gelähmten Personen alleine durch die Kraft der Gedanken ist ja fast schon – man möchte sagen segensreiche – Routine. Da wir uns schon in der Einzigartigkeit unserer menschlichen Kreativität, Intuition oder anderer Empfindungen wie Empathie, Sorge, Angst und Freude geirrt haben, sollten wir uns nicht zu sicher wähnen, ob wir nicht der gleichen Selbsttäuschung bei unserem Unterbewusstsein unterliegen.

Letztendlich wird es keinen großen Unterschied machen, ob Robotic diese Zustände nur lebensecht nachahmt oder ob sie aus seinem eigenen, ganz unmathematischen Innern stammen. Einer Pflegeperson wird das dann ganz herzlich egal sein – Hauptsache, es ist jemanden da, der sich liebevoll um sie kümmert. Wir können aber auch eine große Chance sehen: Beide Seiten, Robotic und Mensch, können voneinander lernen – ohne dass wir heute schon wissen, wie weit das je reichen wird. Doch wenn wir Menschen nicht nur die Fähigkeiten intelligenter Software halb lächelnd, halb bewundernd, beobachten, sondern versuchen, selber von der Software zu lernen, dann könnten wir sogar einen großen Sprung in unserer eigenen Intelligenz machen – unseren sozialen, kommunikativen und mentalen Fähigkeiten ebenso wie in unserer Art, komplex zu denken, bessere Entscheidungen zu treffen und auf unsere Daten statt auf unsere Gefühle zu vertrauen. Es wäre für uns Menschen ein gewaltiger Schritt.

Ein Kommentar zu “Hat Künstliche Intelligenz Grenzen?
  1. Peter Nickl sagt:

    „Hauptsache, es ist jemand da, der sich liebevoll … kümmert“: Darin versteckt sich m.E. ein gravierender Denkfehler. Es ist wahr: KI kann immer mehr simulieren – am Anfang nur das Schachspielen, eine vermeintlich rein logische Angelegenheit, inzwischen vielleicht auch den Ausdruck von Emotionen. Aber es bleibt bei der Simulation! In Wirklichkeit spielt ja auch kein Computer Schach – wenn er das täte, müsste er traurig sein, wenn er verliert, und froh, wenn er gewinnt. Beides ist nicht der Fall, weil der Computer keinen Willen, kein Selbst und keine Emotionen hat. (Und wenn wir ihm den Stecker ziehen, tangiert ihn das überhaupt nicht.) Und wenn er all das – Wille, Selbst, Gefühl – eines Tages simulieren könnte, hätte er es damit immer noch nicht.
    Man kann sich das an einem einfachen Beispiel klarmachen: Wir sagen, die Spülmaschine spült unser Geschirr. Die Wirklichkeit ist eine andere: wir positionieren schmutziges Geschirr in der Maschine, in der ein Programm abläuft, das warmes, mit Reinigungsmittel versetztes Wasser auf das schmutzige Geschirr treffen lässt. Wenn wir nach ein oder zwei Stunden die Teller aus der Maschine holen, sind sie meistens sauber – so als ob ein Mensch sie gespült hätte. Aber die Maschine hat genauso wenig gespült wie der Computer Schach gespielt hat und wie die KI einen alten Menschen pflegt. Und gerade da kommt es uns doch bestimmt auf die Wirklichkeit, und nicht auf die Simulation der liebevollen Zuwendung an!
    Entsprechend würden die vielen alten Menschen, deren Lebenssinn immerhin noch darin besteht, den Hund Gassi zu führen, sicher diesen Lebenssinn nicht darin finden können, einen Roboterhund auszuführen!