KI und Zeit

KI und Zeit

Seit 1956 gibt es die Bezeichnung künstliche Intelligenz (artificial intelligence), eine Art von IT.
KI lernt ihre Inhalte. Sie werden ihr nicht einprogrammiert. Nur wie KI lernt, wird programmiert.

Beim Umgang – insbesondere bei der Forschung dazu – damit traten immer wieder mal anscheinend unüberwindliche Schwierigkeiten auf, die dann zu einem „KI-Winter“ geführt haben.

Aufgrund der steigenden Rechenleistung der eingesetzten Chips durchläuft seit etwa 2010 KI einen Siegeszug in der Technik. Die Anwendung von KI wird unumkehrbar sein.

Vielen ist das unheimlich, denn KI hat inzwischen unglaublich viel Wissen, weil es alle Literatur der Welt „gelernt“ hat. Nicht nur Literatur, sondern auch IT-Code und sehr viele Bilder.

KI steuert heute Maschinen und selbstfahrende Autos, die immer selbständiger werden.

Diese Selbständigkeit macht vielen Menschen große Sorge. Sie fürchten, dass künftig Maschinen über sie entscheiden. Wir fragen uns: darf eine KI selbständig entscheiden?

Die Antwort ist: Ja und Nein – das hängt von er Zeit ab.

Viele Menschen denken, man darf der KI keine Entscheidung überlassen.
Leider ist das längst anders: KI entscheidet heute täglich millionenfach.

Beispiel 1: Ein (KI-gesteuerter) Roboter soll im Werk am Fließband eine Schraube einschrauben.
Dazu greift er aus dem Behälter eine Schraube und entscheidet ganz selbständig, welche er greift. Dann führt er sie (langsam) an die Stelle, wo sie einzuschrauben ist und sowie er einen kleinen Widerstand spürt, der vom Gegenstück herrührt, entscheidet er, die Schraube muss nun gedreht werden, damit sie greift. Eigentlich trivial.

Beispiel 2: Ein (KI-gesteuertes) Auto fährt in der Stadt die Straße entlang. Plötzlich rollt ein Ball auf die Straße und die KI entschiedet, nun muss rasch gebremst werden. Das ist unerlässlich und gut.

Beispiel 3: Ein (autonom fahrendes) Auto nimmt einen Passagier auf, der sagt: bitte losfahren.
Die KI entscheidet nun nicht, wohin das Auto fährt, sondern fragt nach.
Der Fahrgast entscheidet, wohin das Auto fahren soll. In den Urlaub oder zur Arbeit.

Beispiel 4: Ein autonom fahrendes Auto fährt seine Gäste in den Urlaub. Da sagt ein Fahrgast. Bitte anhalten, ich muss mal. Das Auto hält nicht sofort an, sondern sucht eine geeignete Stelle: ein Klo-Häuschen am Rand der Straße oder ein Waldstück mit geeigneter Parkmöglichkeit – je nachdem, ob es eine Frau oder ein Mann gesagt hat. Es entscheidet über den konkreten Platz selbst.

Sehr viele kleine Entscheidungen trifft schon heute eine KI. Und es werden täglich mehr.
Wie ist es aber mit weitreichenden (großen), den eigentlichen Entscheidungen?

Ball auf der Straße ist eine weitreichende Entscheidung: es geht um Leben oder Tod eines Kindes.
Allgemein: Wenn es um Leben oder Tod eines Menschen geht, soll die KI so entscheiden, dass das Leben gewahrt wird – oder es soll die Entscheidung einem Menschen überlassen:
Beispiel: Operation in der Klinik: Soll die Operation fortgesetzt werden oder bringt es nichts und es wird dem Schicksal überlassen. Das ist eine Entscheidung, die immer ein Mensch treffen sollte.

Analysiert man solche Beispiele, wir schnell klar;
Weitreichende Entscheidungen soll der Mensch treffen. KI darf höchstens Vorschläge machen.
Kurzfristige Entscheidungen sollten wir der KI überlassen, denn sie kann schneller handeln. Z.B.:
Ball auf der Straße oder das Kind am Abgrund beim Ausblick in die Landschaft festhalten.

Also: KI darf (und sollte) kurzfristige Entscheidungen treffen. Langfristige bleiben beim Menschen.

Wie aber definieren wir kurzfristig und langfristig?

Auch die menschlichen Werte lassen sich in solche Kategorien einteilen:

Hunger oder Durst zu stillen sind kurzfristige Werte. Wenn einem Roboter der Strom ausgeht, soll und darf er selbständig sofort zur Ladestation und sich wieder aufladen.

Selbstbestimmung und Abenteuerlust sind langfristige Werte. Ein Roboter darf nie und nimmer selbst entscheiden, ob er nun auf Abenteuerreise gehen soll oder nicht.

Ein ähnliches Beispiel, das oft diskutiert wird, bei dem aber vergessen wird, die Zeit explizit zu nennen: Ein Land überfällt das Nachbarland und beginnt mit Krieg: Da bleibt nichts anders übrig, als sich zu wehren. Die Entscheidung, wie man sich wehren soll, kann nicht demokratisch gefällt werden. Das würde zu lange dauern. Solche Entscheidungen müssen diktatorisch gefällt werden. Bei weiterem Nachdenken kann man die Ansicht vertreten, eine Diktatur kann kurzfristig sinnvoll und nützlich sein, nicht aber langfristig.

Wo aber ist die Grenze zwischen kurz- und langfristigen Entscheidungen?

Das ist die eigentliche Frage, die wir uns stellen sollten, wenn wir der KI jegliche Entscheidungen verbieten wollen.

Darüber sollten wir uns umgehend Gedanken machen – und dann dazu passende Gesetze erlassen.

Aktuell legen die Ingenieure diese Grenze fest, wenn sie eine KI oder einen Roboter bauen.
Wenn sie gut arbeiten, werden wir damit zufrieden sein. Was aber ist, wenn die Ingenieure Fehler dabei machen oder etwas übersehen? Klar: Dann haben sie diese Fehler zu verantworten.

Da die Grenze zwischen kurzfristigen und langfristigen Entscheidungen, die wir der KI überlassen oder eben auch nicht, auf keinen Fall einfach zu treffen ist, sollten wir umgehend damit starten, sie zu finden / sie zu definieren.

Teilt uns gerne eure Meinung mit, wir freuen uns auf eure Nachrichten an: blog@integrata-stiftung.de

Autor: Michael Mörike

*Dieser Beitrag wurde mithilfe von KI erstellt. Bild: Mistral