Bauen wir Ethik in KI ein? – von Michael Mörike

Bauen wir Ethik in KI ein? – von Michael Mörike

Die Diskussion, ob man Ethik in KI einbauen kann, geht weiter. Heute hat wieder Michael Mörike das Wort, der einige interessante neue Aspekte vorbringt.

Ja – ich meine, das geht. Ich meine auch, wir haben keine Zeit zu verlieren.

Allerdings gebe ich den beiden anderen Diskutanten (Karsten Weber und Georg Ludwig Verhoeven) durchaus auch recht. Wie reimt sich das zusammen?

Ich meine, es ist unzweifelhaft, dass wir künftig Maschinen nutzen wollen, die uns nicht schaden, sondern möglichst viel Nutzen bringen und uns immer gehorchen, wenn wir sie anstellen. Wenn wir das von autonomen Maschinen fordern, die also von KI gesteuert weitgehend autonom agieren, dann sollten sie sich möglichst so verhalten, wie wir es von Menschen an deren Stelle erwarten.

Vielleicht gelingt dies nicht immer. Dann ist es schon sehr nützlich, wenn es wenigstens in den meisten Fällen gelingt, sagen wir also zum Beispiel in 95% oder noch besser in 99% der Fälle. Menschen verhalten sich ja auch nicht immer moralisch richtig. Und dann ist es eben lästig, wenn die Maschine in den restlichen 1% der Fälle so agiert, dass wir bei einem Menschen von „böse“ sprechen würden.

Gut – dann „denkt“ die Maschine nicht selbst nach, ob sie nun ethisch gehandelt hat. Das erwarte ich auch nicht – weder jetzt noch in Zukunft. Sie führt dann keinen inneren Diskurs über die erforderliche Ethik. Und erst recht kann sie nicht alle Verästelungen von ethischen Grundsätzen berücksichtigen. In diesem Sinne hat sie keine „Ethik“ eingebaut. Dennoch finde ich es ausgesprochen nützlich, wenn die Maschine in 99% der real vorkommenden Fälle in unserem Sinne korrekt brauchbar handelt.

Die Ethik als Wissenschaft vom richtigen Handeln wird also nicht eingebaut, wohl kommen aber viele ihrer Auswirkungen zur Anwendung.
In einem schlauen Computerprogramm ist schließlich auch nicht „Mathematik“ eingebaut als Wissenschaft von logischen Bezügen von komplexen Strukturen. Wohl aber kommen viele ihrer Methoden hoffentlich ganz schön schlau zur Anwendung.
Außerdem kann man auch nicht die „Medizin“ als Wissenschaft vom gesunden und kranken Körper und seinen Heilmethoden in Tabletten verpacken, sondern bestenfalls die intelligent zur Anwendung gebrachten chemischen Stoffe.
Und dennoch sagen wir, wir schlucken „die Medizin“, oder wir sagen ein schlaues Computerprogramm „enthält Mathematik“. Warum sollen wir dann nicht auch sagen, in einen Roboter „ist Ethik eingebaut“?

Wenn ich also sage, ich „baue Ethik in KI“ ein, dann ist das vielleicht etwas salopp ausgedrückt und wissenschaftlich nicht korrekt. Dennoch versteht jeder gut, was gemeint ist, nämlich eine Maschine, die in 99% aller Fälle richtig agiert, wo ihr Handeln auf Menschen gerichtet ist – dafür oder dagegen.

Schließlich fordern wir dringend von autonom agierenden Maschinen, dass sie so agieren, wie wir Menschen uns das wünschen. Und damit es nicht anders kommt, sollten wir uns zügig an die Arbeit machen und nicht lange debattieren, ob es sprachlich korrekt ist. Wir haben keine Zeit zu verlieren!

1 Kommentar zu „Bauen wir Ethik in KI ein? – von Michael Mörike

  1. In jedem Baumarkt und in vielen Supermärkten gibt es Dinge frei zu kaufen, mit denen man Menschen schwer verletzen, ja umbringen kann. Trotzdem geschieht das höchst selten – wieso?

    Ist in die Geschäfte „Ethik eingebaut“? Oder liegt es nicht vielleicht doch daran, dass die Menschen in ihrem „dunklen Drange“ (Goethe) wissen und fühlen, dass das nicht sein darf? Und wie ist das bei Entwicklern von KI-Systemen?