Gefahren der KI: Wenn er sie nicht nennen kann, wer dann?

Kritische Anmerkungen zu einem aktuellen Interview mit dem Leiter des Deutschen Forschungszentrums für Künstliche Intelligenz, Wolfgang Wahlster

von Michael Mörike

In der neuesten Ausgabe von „brand eins wissen“ ist ein großes Interview mit Wolfgang Wahlster, Leiter des deutschen Forschungszentrums für künstliche Intelligenz, abgedruckt. Seine Aussagen zur Gefahren der Künstlichen Intelligenz verdienen Widerspruch. Wolfgang Wahlster sagt im Interview unter dem Titel „Abstand halten“, dass KI nicht so schlimm sei, wie sie von anderen dargestellt würde: „Das ist diese Idee der Super-Intelligenz, die eines Tages in jeder Hinsicht intelligenter ist, als der Mensch, sodass sie die Kontrolle und die Macht an sich reißt.  Aber das ist Unsinn.“ Er begründet seine These mit vielen Beispielen, die zeigen, welche Fähigkeiten Künstliche Intelligenz heute noch nicht hat.

Wahlster sagt zum Beispiel, dass künstliche Intelligenz heute noch keine sensomotorischen Fertigkeiten wie ein Mensch besitzt: „Wir brauchen zum Beispiel sensomotorische Fähigkeiten – und keine Roboterhand ist so gut wie die menschliche. Maschinen besitzen eben nicht das ästhetische Empfinden des menschlichen Endkunden.“ Noch sind Roboter – im Vergleich zum Menschen – mit relativ wenigen und unsensiblen Sensoren und Aktoren ausgestattet. Außerdem ist deren Steuerung programmiert. Noch.

Ein weiteres Argument ist die unvollständige Nachbildung des Menschen: „In der Künstlichen Intelligenz beziehen wir uns immer auf den Elektroteil des Gehirns, also auf die Fähigkeiten, die mit elektronischen Funktionen erklärbar sind. Die können wir im Computer nachbilden. Doch die Intelligenz des Menschen beruht auch auf seiner Biochemie, seinem limbischen System.“ Noch haben wir das limbische System und seine Funktion im Kopf des Menschen nicht so richtig verstanden. Es ist ein entwicklungsgeschichtlich altes System, in dem Information nicht nur mit elektrischen Nervensignalen, sondern auch chemisch verarbeitet wird. Das bedeutet aber nicht, dass man mit Chemie arbeiten muss, um Intelligenz auf dasselbe Niveau wie das des Menschen zu heben. Es heißt nur, dass wir noch nicht alles technisch nachmachen können, was die Natur uns vormacht.

Warum sollen Befürchtungen nicht wahr werden?

Künstliche Intelligenz ist heute gut darin, riesige Datenmengen in kürzester Zeit auszuwerten und Ähnlichkeiten, – sagen wir: Muster – darin zu erkennen. Noch beherrscht Künstliche Intelligenz nicht die Abstraktion daraus, auch wenn Herr Wahlster einige Beispiele dafür anführt, in denen es bereits gelingt: Zum Beispiel erkennt eine Software einen Autounfall, weil Polizisten und ein Auto mit Beulen auf einem Bild zu sehen sind.

Sicher: Wolfgang Wahlster hat mit vielen seiner Aussagen auch recht. Und heute können wir ein System mit künstlicher Intelligenz noch herunterfahren, wenn es uns nicht mehr passt. Aber die Frage ist: Was machen wir aber, wenn sie uns in Form eines selbstverteidigenden Roboters daran hindert? Oder wenn sie sich zur Superintelligenz entwickelt hat und uns alle „überlistet“? Seine Aussagen sagen nichts darüber aus, was eines Tages – oder sollen wir sagen: demnächst – möglich sein wird. Insbesondere fehlt eine Aussage dazu, warum Befürchtungen nicht wahr werden können.

Was passiert dann? Darauf gibt auch Wolfgang Wahlster keine Antwort. Vielleicht kann er es auch gar nicht, denn wer kann das heute schon? Er macht auch keinen Versuch, eine Antwort oder wenigstens eine Verhaltensregel zu geben, wie das verhindert oder wenigstens hinausgezögert werden kann. Und wenn er es nicht kann, wer soll es dann können?

Weiterführende Links:

Getagged mit: , ,