Singularität

In Zusammenhang mit Künstlicher Intelligenz (KI) tauchen immer wieder Schreckensszenarien auf. Ein Gänsehaut verursachendes Szenario wird immer wieder gerne bemüht: In naher Zukunft, nachdem die technologische Singularität erreicht worden ist, wird die starke KI intelligenter als der Mensch und selbständig in der Lage sein, als Schöpfer noch intelligenterer Entitäten zu fungieren. Werden wir, die wir diese Entwicklung angestoßen haben, dann überflüssig sein? Statt Berührungsängste zu schüren, bleibt unser Blog-Autor Michael Mörike lieber gelassen. Hier erfahren Sie, wie er seine Haltung begründet.

Unter Singularität (genauer technologischer Singularität) wird ein (aktuell noch) hypothetischer Zustand verstanden, an dem die technische künstliche Intelligenz (KI) die menschliche Intelligenz übertrifft. Es ist ziemlich wahrscheinlich, dass dieser Zeitpunkt in nicht allzu ferner Zukunft eintreten wird.

Vielfach sind damit aber schreckliche Ängste verbunden: Die KI könnte unerwartet Neues erfinden und selbst neue und immer intelligentere KI erfinden und bauen. Und genau die könnte sich den Menschen gegenüber dann bösartig verhalten.

Ich glaube nicht, dass es so kommt.

Begründung: Jede KI hat – mindestens derzeit – eine klare Aufgabe, die sie zu bearbeiten hat: Beispiele: Katzen auf Bildern erkennen oder Texte ergänzen oder den besten Bewerber aussuchen, oder möglichst gut Schach zu spielen, etc… Diese Aufgaben können als Ziele der KI angesehen werden. Die KI ist umso besser, je besser sie ihr Ziel erreicht. Eigentlich trivial – oder?

Eine AGI (arificial general intelligence), also eine allgemeine künstliche Intelligenz, oft auch starke KI genannt, muss mehrere Ziele verfolgen können. Es reicht nicht, wenn sie nur Katzen auf Fotos erkennt, wie das eine schwache KI kann. Außerdem muss sie Zugriff auf viel Information / Wissen haben, mit dem sie ihre Überlegungen erstellen kann. Sie muss ein Weltbild haben, das aus diesem Wissen besteht. Dazu kann sie das Internet nutzen. Und in diesem Weltbild muss sie Fakten – intelligent – kombinieren. Beim Menschen sagen wir, er muss Assoziationen bilden. Technisch kann man diese als Relationen bezeichnen.

Eine strake KI kann selbstverständlich deutlich mehr Wissen / Fakten ansammeln und deutlich mehr Relationen bilden, als dies ein Mensch kann. Aber auf jeden Fall braucht eine starke KI dazu passende Ziele – und die müssen ihr vorgegeben sein. Wer gibt ihr die Ziele vor? Solange sie das nicht selbst macht, werden ihr die Ziele vom Menschen vorgegeben. Wenn eine KI einer von ihr neu geschaffenen, anderen KI die Ziele vorgeben wird, wird sie dies in einem vorgegebenen Rahmen tun, der letztlich – vielleicht viele KI-Geburten vorher – vom Menschen stammt. Und der wird ihr immer Ziele andienen, die ihm, dem Menschen nützen.

Wenn man davon ausgeht, dass KI immer intelligenter wird, auch bevor eine starke KI existiert, dann hat die KI vorher geeignete Ziele – und zwar mehrere, denn ein einziges Ziel alleine macht keine Intelligenz. Wenn man es mit einem Menschen vergleicht, so hat der Mensch mehrere Duzend Ziele, die er IMMER (!) mehr oder weniger gleichzeitig verfolgt. Dabei können manchmal Widersprüche entstehen, um die zu lösen der Mensch dann seine Ethik bemüht.

Eine starke KI braucht also auch so etwas wie eine Ethik, die vielleicht ziemlich anders ist als die des Menschen. Aber sie ist unerlässlich, damit die starke KI ihre vielen Ziele verfolgen kann, die eben auch manchmal im Widerspruch zu einander stehen. So ist die Welt einfach.

Und wenn wir künftig immer stärkere künstliche Intelligenz bauen, müssen wir genau das machen. Und wir müssen der starken KI eine geeignete technische Ethik mitgeben, damit sie auch in den widersprüchlichen Fällen ihre Aufgabe lösen kann. Es stellt sich dann die Frage, wie wir diese technische Ethik gestalten. Es liegt nahe, dass wir sie zunächst ganz ähnlich der menschlichen Ethik gestalten – soweit es irgendwie auch nur Sinn macht. Wie denn sonst?

Und dann wird sich diese starke KI nicht gegen uns wenden, denn ihre techno-ethischen Regeln lassen das einfach nicht zu. Schließlich haben wir sie ja so gebaut / trainiert.

Autor: Michael Mörike, Vorstand der Integrata Stiftung für humane Nutzung der IT

Getagged mit: ,