Profit mit Moral in der Digitalisierung

Die einen „stolpern“ über den Begriff der Moral, die anderen über das Schlagwort Profit. Dass beides zusammen eine gute Kombination ergibt, davon ist Autor Martin Priebe überzeugt. Als Theologe und Volkswirt macht er sich darüber seit Jahrzehnten Gedanken. Mit Blick auf KI lautet seine These: Wenn Profit und Moral auch beim Thema Digitalisierung eine gute Allianz eingehen, werden viele ethische Fragen zur KI nicht mehr polarisieren. Eine integrative Reflektion und Diskussion beider Aspekte eröffnen eine verantwortliche Digitalisierung.

Das Thema Digitalisierung polarisiert. Vielen geht der Prozess nicht schnell genug: Wir nutzen die Chancen nicht und werden international abgehängt. Warum werden so viele (rechtliche und ethische) Hürden aufgebaut, wo der Nutzen doch so evident ist? Andere formulieren Sorgen: Wie behalten wir Menschen die Kontrolle, sowohl über den sich beschleunigenden Prozess als auch über die dabei entstehenden Lösungen? Könnten autonome, intelligente Maschinen eines Tages uns Menschen kontrollieren? Ein Blick hinter beide Argumentationen lohnt sich.

Bei den Argumenten der Befürworter von KI finden wir viele Aspekte von „Profit“. Und zwar nicht nur im Sinne von Geld, das sich mit Digitalisierung gewiss verdienen lässt. Befürworter verweisen zu Recht auf den materiellen Nutzen und die Vorteile, die KI mit sich bringt. Ein einfaches Beispiel: Dass ich diesen Beitrag auf einem Notebook bequem schreiben, per E-Mail schnell transferieren und auf diesem Blog breit veröffentlichen kann, stiftet materielle Nutzwerte. Darüber hinaus gibt es auch Nutzwerte von „Gewinn“, die sich nicht materiell fassen lassen und dennoch erkennbar sind. Bei meinem Beispiel: Die Gedanken, die ich auf dem PC schreibe, kann ich mit anderen über das Internet teilen, den Diskurs anregen, neue Kontakte und Beziehungen knüpfen, einen kleinen Beitrag zu einer besseren Welt leisten. Das alles sind eher immaterielle, ideelle Nutzwerte, aber eben auch Profit.

Die Kritiker der Digitalisierung werden von den Befürwortern oft als Bedenkenträger abgetan: Insbesondere, wenn ethische Argumente ins Spiel kommen, empfinden Befürworter Ärger über den „moralischen Zeigefinger“, der ihnen sagt: Du bist ganz schlimm, du willst nur Geld verdienen und denkst nicht an mögliche schlimme Folgen. Wer mag schon so konfrontiert werden? Doch die KI-Kritiker können gute Sachargumente anführen. Es gibt in der Technologiegeschichte Beispiele, wo man die Geister, die man rief, nicht mehr oder nur sehr schwer wieder loswurde: Denken wir an die immer noch vorhandene Bedrohung der Menschheit durch einen Atomkrieg. Oder die nur noch mit größten Anstrengungen abzuwendende Klimakatastrophe aufgrund der viel zu hohen CO2-Ausstoße. Beide Beispiele zeigen, dass es nicht nur um moralische Fragestellungen geht, sondern auch um materiellen Nutzen: Wem nützt ein durch Atombomben auf Jahrhunderte verseuchtes Land? Wie viel Wohlstand verlieren kommende Generationen, wenn tatsächlich eine Klimakatastrophe eintrifft? Es geht somit nicht um „moralisches Rechthaben“, sondern um Fragen des Lebens und Überlebens.

Was kann beide Positionen verbinden? Für mich ist der Begriff der Verantwortung die Brücke dazu. Und zwar nicht in der Variante, OB wir Digitalisierung betreiben sollten, sondern WIE wir sie verantwortlich gestalten können. Wenn sich Befürworter wie Kritiker auf diese Fragestellung einlassen, können alle wichtigen Beiträge aus ihrer Perspektive leisten. Die einen können darstellen, worin der „Profit“ von KI liegt, was daran nützt und uns „gewinnen“ lässt. Die anderen können im Sinne einer „WIE-Verantwortung“ hinterfragen, welche Bedingungen und Kriterien im Sinne ethischer Mindeststandards erfüllt sein müssen, damit der Profit von KI gesellschaftlich als „gut“ bezeichnet werden kann.

Doch was ist „gut“? „Das Gute“ kennzeichnet für uns in einem ethischen Sinne die Qualität unserer Wirklichkeit, in der der wir leben und leben möchten. Die verschiedenen Aspekte von „gut“ können ethisch auch mit dem Begriff „Werte“ benannt werden: Mit unseren Werten sagen wir, was wichtig und erstrebenswert ist in unserem Leben. Um auf das obige Beispiel zurückzukommen: Mein Notebook ist so ein (materieller) Wert oder das Internet, aber auch Kreativität und Beziehungen (immaterielle Werte). Auch digitale Prozesse oder KI-Produkte können ein Wert für uns sein, genauso wie Verantwortung, Gerechtigkeit, Teilhabe oder Reflektion. Diese Werte prägen uns als postmoderne Menschen, sie alle sind Bausteine der Moral, die uns Orientierung im Leben gibt. Moral ist rein formal betrachtet die Summe all unserer Werte und Werthaltungen, unserer Normen und Gewohnheiten. Ethik hat die Aufgabe, über Moral und Werte zu reflektieren und Kriterien für die Qualität von Moral zu benennen. Und wenn der „Profit“ der Digitalisierung genauso zu unserer Moral gehört wie Gerechtigkeit und Teilhabe, dann muss Ethik für beide Aspekte Kriterien liefern. Moral ist somit nicht nur eine Frage der „Soft-Facts“, sondern auch der materiellen Werte.

Welche Kriterien kann Ethik konkret für „Profit mit Moral in der Digitalisierung“ liefern? Im Rahmen dieses Beitrages nenne ich nur ein paar besonders Wichtige. An erster Stelle die Goldene Regel: „Was du nicht willst, was man dir tu´, das füg auch keinem andern zu!“ Dann das Prinzip des Nicht-Schadens: weder mir selbst noch andern. Im Sinne von Immanuel Kant kann die Menschenwürde als Kriterium genannt werden; sie ist der wahrscheinlich höchste immaterielle Wert auf dieser Erde, zumindest in Sinne unserer Verfassung. Und schließlich Verantwortlichkeit: Jede und jeder von uns ist für alles Tun, aber auch Unterlassen, rechenschaftspflichtig.

Diese Kriterien klingen abstrakt, und sie sollen es im Sinne moderner Ethik auch sein. Denn Ethik wird uns keine konkreten Handlungsanweisungen dafür geben, welche KI wir produzieren sollen oder nicht, oder welche Form von Digitalisierung konkret ethisch OK ist oder nicht. Ethik liefert uns die Kriterien, sozusagen das Handwerkszeug: anwenden müssen wir es schon selbst. Damit kommt ein weiteres wichtiges ethisches Kriterium ins Spiel, nämlich das der Autonomie. Selbstbestimmung ist nicht nur Recht, sondern fordert von uns, eigenständig und verantwortungsvoll ethisch zu reflektieren: Über Dinge in unserem Leben, die moralisch fragwürdig, des Fragens wert sind. Ethik ist die Einladung an uns, den Fragen nicht aus dem Weg zu gehen, sondern mutig, selbstbestimmt und gemeinsam Antworten zu formulieren. Das ist oft nicht einfach, zugegeben. Aber auch Digitalisierung ist nicht einfach, warum sollte dann die Reflektion über Digitalisierung leicht sein? Wir sind es vielleicht nicht mehr gewohnt, ethisch zu reflektieren, und müssen unser ethisches Urteilsvermögen schulen. Das lohnt sich jedoch aus meiner Sicht sehr: Ethische Reflektion fördert nämlich den Perspektivenwechsel, und allein schon deshalb ist sie so enorm wichtig für uns. Weil die Befürworter von KI dann nämlich erkennen können, dass manche der vorgetragenen Bedenken schon aus reinem Selbstinteresse beachtet werden sollten. Und Kritiker können lernen, dass die Vermarktung von KI nicht an sich etwas Unmoralisches ist, sondern wichtiger Teil des Zugewinns insgesamt sein kann. Profit mit Moral eben.


Zum Autor:

Martin Priebe hat Theologie und Volkswirtschaftslehre studiert und ist Experte in Wirtschaftsethik. Seit 2003 ist er als Berater, Trainer, Moderator und Coach selbständig. Er ist Mitglied der WIN-Charta und des Nachhaltigkeitsbeirats der Universität Tübingen.