Gefahren der KI: Wenn er sie nicht nennen kann, wer dann?

Gefahren der KI: Wenn er sie nicht nennen kann, wer dann?

Kritische Anmerkungen zu einem aktuellen Interview mit dem Leiter des Deutschen Forschungszentrums für Künstliche Intelligenz, Wolfgang Wahlster

von Michael Mörike

In der neuesten Ausgabe von „brand eins wissen“ ist ein großes Interview mit Wolfgang Wahlster, Leiter des deutschen Forschungszentrums für künstliche Intelligenz, abgedruckt. Seine Aussagen zur Gefahren der Künstlichen Intelligenz verdienen Widerspruch. Wolfgang Wahlster sagt im Interview unter dem Titel „Abstand halten“, dass KI nicht so schlimm sei, wie sie von anderen dargestellt würde: „Das ist diese Idee der Super-Intelligenz, die eines Tages in jeder Hinsicht intelligenter ist, als der Mensch, sodass sie die Kontrolle und die Macht an sich reißt.  Aber das ist Unsinn.“ Er begründet seine These mit vielen Beispielen, die zeigen, welche Fähigkeiten Künstliche Intelligenz heute noch nicht hat.

Wahlster sagt zum Beispiel, dass künstliche Intelligenz heute noch keine sensomotorischen Fertigkeiten wie ein Mensch besitzt: „Wir brauchen zum Beispiel sensomotorische Fähigkeiten – und keine Roboterhand ist so gut wie die menschliche. Maschinen besitzen eben nicht das ästhetische Empfinden des menschlichen Endkunden.“ Noch sind Roboter – im Vergleich zum Menschen – mit relativ wenigen und unsensiblen Sensoren und Aktoren ausgestattet. Außerdem ist deren Steuerung programmiert. Noch.

Ein weiteres Argument ist die unvollständige Nachbildung des Menschen: „In der Künstlichen Intelligenz beziehen wir uns immer auf den Elektroteil des Gehirns, also auf die Fähigkeiten, die mit elektronischen Funktionen erklärbar sind. Die können wir im Computer nachbilden. Doch die Intelligenz des Menschen beruht auch auf seiner Biochemie, seinem limbischen System.“ Noch haben wir das limbische System und seine Funktion im Kopf des Menschen nicht so richtig verstanden. Es ist ein entwicklungsgeschichtlich altes System, in dem Information nicht nur mit elektrischen Nervensignalen, sondern auch chemisch verarbeitet wird. Das bedeutet aber nicht, dass man mit Chemie arbeiten muss, um Intelligenz auf dasselbe Niveau wie das des Menschen zu heben. Es heißt nur, dass wir noch nicht alles technisch nachmachen können, was die Natur uns vormacht.

Warum sollen Befürchtungen nicht wahr werden?

Künstliche Intelligenz ist heute gut darin, riesige Datenmengen in kürzester Zeit auszuwerten und Ähnlichkeiten, – sagen wir: Muster – darin zu erkennen. Noch beherrscht Künstliche Intelligenz nicht die Abstraktion daraus, auch wenn Herr Wahlster einige Beispiele dafür anführt, in denen es bereits gelingt: Zum Beispiel erkennt eine Software einen Autounfall, weil Polizisten und ein Auto mit Beulen auf einem Bild zu sehen sind.

Sicher: Wolfgang Wahlster hat mit vielen seiner Aussagen auch recht. Und heute können wir ein System mit künstlicher Intelligenz noch herunterfahren, wenn es uns nicht mehr passt. Aber die Frage ist: Was machen wir aber, wenn sie uns in Form eines selbstverteidigenden Roboters daran hindert? Oder wenn sie sich zur Superintelligenz entwickelt hat und uns alle „überlistet“? Seine Aussagen sagen nichts darüber aus, was eines Tages – oder sollen wir sagen: demnächst – möglich sein wird. Insbesondere fehlt eine Aussage dazu, warum Befürchtungen nicht wahr werden können.

Was passiert dann? Darauf gibt auch Wolfgang Wahlster keine Antwort. Vielleicht kann er es auch gar nicht, denn wer kann das heute schon? Er macht auch keinen Versuch, eine Antwort oder wenigstens eine Verhaltensregel zu geben, wie das verhindert oder wenigstens hinausgezögert werden kann. Und wenn er es nicht kann, wer soll es dann können?

Weiterführende Links:

1 Kommentar zu „Gefahren der KI: Wenn er sie nicht nennen kann, wer dann?

  1. Kommentar per Mail von Egon Scherer:
    Was sind die Zielsetzungen und das Wertesystem des DFKI?
    Wenn ich die Gesellschafterstruktur/Geldgeber im Kontext der Aussagen von Herrn Wahlster betrachte, ist es naheliegend, dass es vermutlich um rein wirtschaftliche Interessen geht.
    Warum?
    Er bezeichnet Intuition und evolutionäres Handeln als Differenzierungsmerkmal des Menschen gegenüber KI, spricht von dem notwenddigen Hintergrundwissen um die persönlichen Präferenzen der Menschen zu erkennen. Der Fortschritt der KI würde sich dann mit diesem Hintergrundwissen am besten materialisieren lassen.
    Die Frage, wo und wie dieses Hintergrundwissen entsteht stellt sich für ihn offensichtlich nicht. Unser künftiges Zuhause sei ein „Smart Space“ mit verborgenen Sensoren, ohne Computer, da die Umgebung der Computer sei.
    Seine Nutzenargumentation ist alles andere als überzeugend und „Smart Space“ eher eine Horrorvision. Wir gewinnen Lebenszeit….aber was machen wir damit? Mehr konsumieren, schneller leben?
    Die Frage nach der Kreativität wird mit dem Durchforsten großer Suchräume beschrieben und er zieht den Vergleich zur Kunst. Aus meiner Sicht hat das wenig mit echter Kreativität zu tun und Künstler denken vor allem anders, umfassender und authentischer.
    Herr Wahlster ist der Meinung, die Ängste vor der KI würden verschwinden, wenn man sich länger damit beschäftigt und die Effizienzgewinne sicherten Arbeitsplätze wenn der Mensch weiterhin im Mittelpunkt stünde.
    Ja das wäre prima, aber steht der Mensch im Mittelpunkt und wenn ja welcher Mensch? Wie sieht die Arbeitsplatzbilanz im Rahmen der Digitalisierung tatsächlich aus? Welche Lebensqualität haben die neuen Arbeitsplätze? Wer profitiert heute primär von den Effizienzgewinnen, welchen Beitrag zum Sozialsystem (Steuern etc) leisten diese globalen IT-Konzern in Deutschland und weltweit?
    Immerhin sieht Herr Wahlster die Gefahr, dass wenige Menschen diese Systeme beherrschen und wie in einem totalitären Staat steuern. Für Diktatoren oder kriminelle Vereinigungen sei künstliche Intelligenz ein gefundenes Fressen…..
    Wie wir das Ausnutzen der technischen Möglichkeiten für verwerfliche Zwecke verhindern können und welchen Beitrag er dazu als oberster KI-Forscher leisten will, bleibt unbeantwortet.