Regulierung braucht das Land

Gelöste und ungelöste Rechtsfragen des Autonomen Fahrens. Ein Gastbeitrag von Nicolas Woltmann

Die Entwicklung neuer Technologien ist ein Balanceakt: Die bestmögliche Realisierung ihres Nutzens muss in einen Ausgleich gebracht werden mit ihren Risiken. Der Weg bis zu ihrer Einführung kann sich anschließend jedoch als noch weitaus steiniger erweisen. Meint der Entwickler ein angemessenes Verhältnis zwischen Positiv- und Negativfolgen hergestellt zu haben, so muss er nun auch genügend Andere hiervon überzeugen. Dabei kann ihm bisweilen heftiger Gegenwind aus deren Richtung entgegenschlagen. Aus dem Stimmengewirr jener Skeptiker und Mahner stechen scheinbar die Juristen, denen diese Eigenschaft gerne als berufsbedingt unterstellt wird, besonders hervor.

Ein anderes Verständnis von Juristerei lässt sich jedoch mittlerweile an zahlreichen fachübergreifenden Forschungskooperationen zum Thema Künstliche Intelligenz beobachten. Unter Beteiligung von Rechtswissenschaftlern (v.a. aus dem universitären Bereich) werden hier die Chancen und Probleme des digitalen Wandels ergebnisoffen diskutiert und zu Handlungsempfehlungen an Entwickler, Hersteller, Politiker und Nutzer zusammengeführt. Eine Vorreiterstellung darf insoweit – aufgrund ihres fortgeschrittenen Alters von 8 Jahren – der Forschungsstelle RobotRecht zugesprochen werden. In Zusammenarbeit mit sämtlichen der genannten Personengruppen und unter Leitung des Würzburger Lehrstuhlinhabers Prof. Dr. Dr. Eric Hilgendorf bemüht sich das Format in einer Vielzahl abwechslungsreicher Projekte um die rechtliche Begleitung der Einführung moderner Maschinen und Software.

Deren zunehmende Autonomie stellt tradierte juristische Konzepte vor teils große Herausforderungen. Beginnend bei ihrer Zulassungsfähigkeit, über Haftung und Verantwortung, bis hin zu Datenschutz und Urheberrecht bringen diese neuen Systeme eine Menge strittiger Detail-, aber auch Grundsatzfragen mit sich. Ihr schnelles Vordringen in sämtliche Lebensbereiche verschärft die Dringlichkeit, beantworten zu müssen, wie wir als Gesellschaft uns mit den neuen Gegebenheiten arrangieren, inwieweit wir diese einer Regulierung unterziehen wollen.

Begutachtung des Einsatzes intelligenter Systeme duldet keinen Aufschub

Industrie, Landwirtschaft, Haushalt, virtuelle Welt: Den Anwendungsmöglichkeiten scheinen keine Grenzen gesetzt. Besonders exemplarisch für einen akuten Handlungsbedarf stehen Fragen der Mobilität. Das autonome Fahren hat in Form von Fahrassistenzsystemen längst Einzug in den Verkehr auf unseren Straßen gehalten und ist als Zukunftsvision vom vollkommen führerlosen KFZ inzwischen in aller Munde. Auch auf der Projektliste der Forschungsstelle RobotRecht nehmen Aktivitäten in diese Richtung daher prominente Plätze ein: Zu nennen sind hier nicht nur Kooperationen mit namhaften Partnern wie Audi, Daimler, BMW und Volkswagen, sondern auch und vor allem die Berufung von Prof. Hilgendorf in die Ethikkommission der Bundesregierung zum automatisierten und vernetzten Fahren im Jahr 2016.

Der Gesetzgeber hat erkannt, dass eine Begutachtung bestimmter Aspekte des Einsatzes intelligenter Systeme im Straßenverkehr schon heute keinen Aufschub mehr duldet. Das Autonome Fahren könnte so durchaus zum Treiber einer Regulierung der Digitalisierung werden. Neben Einberufung besagter Kommission ist ein weiteres Indiz hierfür in der Reformierung des Straßenverkehrsgesetzes (StVG) vor einem Jahr zu erblicken. Vier neue Vorschriften sollen eine Rechtsgrundlage für den Betrieb (teil)autonomer Fahrzeuge schaffen, also dessen grundsätzliche Zulässigkeit garantieren.

So erlaubt § 1a Abs. 1 StVG den Betrieb von Kraftfahrzeugen „mittels hoch- oder vollautomatisierter Fahrfunktion“, sofern letztere „bestimmungsgemäß verwendet“ wird. Damit wird dem Umstand Rechnung getragen, dass bestimmte Assistenzsysteme laut Hersteller ausschließlich unter ganz konkreten Voraussetzungen (bspw. nur auf Autobahnen) zur Anwendung gebracht werden dürfen. Der eigentliche Knackpunkt der Neuregelung ist jedoch Abs. 2 der Vorschrift, der festlegt, welche Art von Automation überhaupt unter das Regelungsobjekt des Abs. 1 fällt. Gemäß dessen Nr. 3 muss eine jederzeitige Übersteuerungsmöglichkeit der automatisierten Fahrfunktion durch den menschlichen Fahrer gegeben sein. Andere, d.h. vollkommen autonome Fahrzeuge fallen damit bereits per definitionem nicht unter den rechtlich zulässigen KFZ-Betrieb. Deren Verkehr auf deutschen Straßen bleibt nach heutiger Rechtslage damit vorerst eine Zukunftsvision.

Behält der Mensch eine übergeordnete Stellung gegenüber der Maschine?

Der Mensch behält hiermit also regelungstheoretisch seine der Maschine übergeordnete Stellung. Die damit verbundenen Pflichten des Fahrzeugführers („Führer“ ist neben demjenigen, der das Fahrzeug lenkt und in Bewegung versetzt, auch der, der automatisierte Fahrfunktionen ein- und abschaltet) bestimmt § 1b StVG: Er muss ständig in der Lage sein, die Steuerung zu übernehmen, wenn er durch das System dazu aufgefordert wird oder er einen Defekt am System feststellt. Ausdrücklich erlaubt das Gesetz ihm dabei jedoch, sich partiell vom Verkehrsgeschehen abzuwenden. Es bleibt abzuwarten, wie sich nach Sicht der Gerichte das eine mit dem anderen vereinbaren lässt.

Insbesondere ist hiermit über die Haftung für Straßenverkehrsunfälle nichts Neues gesagt. Dies entsprach aber auch nicht der Intention der Reform, sondern angestrebt wurde eine sog. „Kleine Lösung“ bestimmter einzelner Grundproblemstellungen. Dieser Ansatz verdient zweifelsohne Beifall: angesichts der unvorstellbaren Vielfalt heutiger und zukünftiger autonomer Technologie, wäre es geradezu vermessen gewesen, die Reform als Blaupause für die Beantwortung aller mit der Digitalisierung verbunden Einzelfragen heranzuziehen. Zumal das zivilrechtliche Haftungsregime im Mobilitätssektor auch auf teil- und sogar vollautonome KFZ weitestgehend problemlos anwendbar sein dürfte. Die verschuldensabhängige Haftung des Fahrzeugführers wird neben der verschuldensunabhängigen Halterhaftung insoweit einfach an Bedeutung verlieren. Für den Halter eines KFZ besteht in Deutschland eine Versicherungspflicht, sodass einem finanziellen Schadensausgleich keine Rechtslücken entgegenstehen dürften.

Weitaus schwieriger einzuschätzen ist demgegenüber die strafrechtliche Verantwortung für Verkehrsunfälle. So gut neue Technik funktionieren mag, vollständige Sicherheit wird sich auch durch sie nicht garantieren lassen. Die vieldiskutierten Dilemma-Situationen sind hierfür das klassische Beispiel: welchen Weg soll ein vollautomatisiertes Fahrzeug wählen, wenn alle Alternativen mit der Kollision von Personen und deren schwerer Verletzung oder gar deren Tod verbunden sind? Ergo: Nach welchen Maßstäben muss ein Programmierer den das Auto lenkenden Algorithmus gestalten, um nicht gegen das Recht zu verstoßen?

Nach welchen Maßstäben muss ein autonomes Auto agieren, um nicht gegen Recht zu verstoßen?

Zugegeben: Die Diskussion über derartige Dilemmata nimmt bisweilen bizarre oder gar hysterische Züge an, so etwa wenn in Medien von „Algorithmen des Todes“ gesprochen wird. Ein wesentlicher Vorteil selbstfahrender Automobile dürfte darin bestehen, dass Passagiere schneller und vor allem sicherer an ihr Ziel gelangen. Die Unfallzahlen im Straßenverkehr werden rapide sinken! Auch rechtlich können diese Erwägungen fruchtbar gemacht werden, wenn es darum geht, bestimmte Programmierungen als gesetzeskonform einzustufen.

Das Verlangen der Geschädigten oder deren Hinterbliebenen nach Satisfaktion sollte jedoch keinesfalls unterschätzt werden. Tragische (nicht vollständig vermeidbare) Schicksale mögen wir als Gesellschaft bereit sein, als unerwünschte Nebenfolge eines höheren Ganzen zu akzeptieren. Aus der Perspektive des betroffenen Individuums dürfte dies jedoch kaum gelingen. Der Fall eines Familienvaters aus Aschaffenburg, der die Tötung von Frau und Kind durch ein teilautonomes KFZ im Jahr 2012 mitansehen musste, belegt dies eindrücklich. Der Fahrer des Wagens erlitt einen Schlaganfall, sodass das Fahrzeug unter normalen Umständen, d.h. ohne weitere Lenkbewegungen, von der Fahrbahn abgekommen wäre. Das integrierte Fahrassistenzsystem jedoch hielt den Wagen innerorts bei hoher Geschwindigkeit auf der Straße und erfasste die betreffenden Personen tödlich. Das durch den Ehemann und Vater in der Folge angestrengte Strafverfahren wurde durch die zuständige Staatsanwaltschaft eingestellt; der Hersteller des Spurhalteassistenten habe alle zumutbaren Sicherheitsvorkehrungen getroffen. Rechtlich ist dieses Ergebnis nicht zu beanstanden. Dem Hinterbliebenen bleiben Fragen, die kein Staatsanwalt, Autobauer oder Politiker ihm beantworten kann.

Sie sind indes nicht die einzigen, die vor dem Hintergrund des automatisierten Fahrens bisher ungelöst bleiben. Es ließe sich noch Vieles sagen über den Datenschutz im vernetzten Straßenverkehr, die Neustrukturierung des Arbeitsmarkts, Umweltschutz und IT-Sicherheit. Wir wollen es mit diesem Beitrag jedoch fürs Erste halten wie der deutsche Gesetzgeber: Eine „Kleine Lösung“, ein Annähern an die Zukunftsvision führerloser Kraftfahrzeuge step-by-step kann zielführender sein als der weite Sprung – die Balance zwischen Nutzen und Risiko hält man so auf jeden Fall wesentlich leichter.

Über den Autor:
Nicolas Woltmann stammt aus Oberbayern und legte nach dem Studium der Rechtswissenschaften an der Universität Würzburg erfolgreich die Erste Juristische Staatsprüfung ab. Zugleich erlangte er den akademischen Grad des „Europajuristen“, den die Universität Absolventen des Begleitstudiums Europarecht verleiht. Seitdem ist er wissenschaftlicher Mitarbeiter der Forschungsstelle RobotRecht und des Lehrstuhls von Prof. Dr. Dr. Eric Hilgendorf in Würzburg. Seine Forschungsschwerpunkte umfassen zuvorderst das Straf- und Technikrecht, Rechtsgebiete, die er zugleich zum Inhalt seiner angestrebten Promotion gemacht hat. Untersucht werden hier insb. Haftungsfragen i.R. des Einsatzes selbstlernender Software.

Stuttgarter Zukunftssymposium 2018 Ethik und KI

Die Entwicklung künstlicher Intelligenz ist rasant und brisant zugleich – denn sie wirft zahlreiche ethische Fragen auf: Welche Regeln gelten zukünftig für Roboter? Wie entwickelt sich die Arbeitswelt 4.0? Wie viel Autonomie wollen wir für Maschinen? Über diese und andere Kernfragen der Digitalisierung diskutieren führende Köpfe aus Wissenschaft, Wirtschaft, Politik und Zivilgesellschaft unter dem Motto „Mensch bleiben im Maschinenraum“ am 23. und 24. November 2018 in Stuttgart.

Prof. Dr. Dr. Eric Hilgendorf lotet den schmalen Grat zwischen ethischen Bedenken und rechtlichen Fragen aus: Als Mitglied der Ethikkommission für automatisiertes Fahren berichtet er von den juristisch-ethischen Grenzen autonomer Autos. Constanze Kurz, Sprecherin des Chaos Computer Clubs und mehrfach ausgezeichnete Autorin, lotet in Ihrem Vortrag Sicherheitslücken neuer Technologien aus. Prof. Dr. Stefan Heinemann, Leiter der Forschungsgruppe „Ethik der Gesundheitswirtschaft & Medizinethik“ im ifgs Institut für Gesundheit & Soziales, definiert die Chancen und Möglichkeiten von Künstlicher Intelligenz im Bereich der Medizin. Außerdem freuen wir uns auf Prof. Dr. Matthias Bethge, der Lernmethoden von KI erklärt und Prof. Dr. Karsten Weber, der sich seit vielen Jahren mit Technikfolgenabschätzung beschäftigt.

Im Rahmen des zweitägigen Symposiums werden die Experten nicht nur den aktuellen Stand der technologischen Entwicklung in Vorträgen und Workshops beleuchten, sondern gemeinsam mit dem Plenum auch die ethischen und politischen Herausforderungen skizzieren. Begleitend zu unseren Diskussionsforen lernen die Gäste der Tagung Firmen und Institutionen kennen, die ihre digitalen Zukunftsprojekte in einer Ausstellung präsentieren.

Das diesjährige Zukunftssymposium wird veranstaltet vom Ethikverband der Deutschen Wirtschaft, der Giordano-Bruno-Stiftung, dem Weltethos-Institut an der Universität Tübingen und der Integrata-Stiftung. Hier gibt es weitere Informationen zum Programm und zur Tagung.

Pro und Contra: Kann man Maschinen und Robotern Ethik beibringen? (2)

Die HumanIThesia-Blogger Michael Mörike und Georg-Ludwig Verhoeven streiten über die Frage, ob Maschinen und Roboter eines Tages auch Ethik lernen können. In der vergangenen Woche sagte Michael Mörike ja, heute sagt Georg Ludwig-Verhoeven nein.

Von Georg-Ludwig Verhoeven

Menschen sollen „moralisch“ handeln. Das bedeutet, sie haben gewisse Maximen akzeptiert und richten ihr Handeln danach aus. Offensichtlich ist das aber nicht so einfach wie es klingt, denn es gibt viele Situationen, in denen ein Mensch in einer Weise handeln, die er selbst „moralisch“, andere aber „umoralisch“ finden. Aber können Maschinen auch „moralisch“ handeln?

Fest steht: Ihre Leistungsfähigkeit wächst exponentiell – da müsste doch irgendwann genug Leistung zusammenkommen, um neben komplexen Algorithmen auch moralische Aspekte in den Systemen unterzubringen! Aber: Ich glaube nicht, dass das möglich sein wird – nicht aus technischen oder moralischen Gründen, sondern aus logischen und praktischen. Das will ich im Folgenden begründen.

I Welche Moral vermitteln wir Maschinen?

Zuerst stellt sich die Frage, welche Moral wir den Maschinen beibringen sollen. Nehmen wir als eine mögliche Basis die Zehn Gebote. Sie liegen in vielen verschiedenen Versionen vor, aber betrachten wir nur eines der Gebote: „Du sollst nicht töten.“ Das ist eindeutig, und doch wird tagtäglich dagegen verstoßen – durch Menschen, denen andere Werte wichtiger sind als das Leben ihrer Mitmenschen. Das kann ein tödlicher Unfall sein, der durch rücksichtsloses Fahren verursacht wurde, eine Straftat, um sich am Eigentum eines anderen zu bereichern, eine Hinrichtung, um ihn im Namen des Gesetzes zu bestrafen, oder der ganz normale militärische Alltag im Krieg. Es kann der Verkauf von gesundheitsschädlichen Genussmitteln sein und vieles andere. Alle diese Handlungsweisen sind in der Gesellschaft präsent und mehr oder weniger akzeptiert – sollen Maschinen den gleichen Grad an „Toleranz“ besitzen?

Eine Möglichkeit, einer Maschine nun etwas beizubringen – zum Beispiel in Form eines Algorithmus – besteht darin, dass der Algorithmus die Konsequenzen seiner Entscheidung an vorgegebenen „Werten“ misst und dann die Entscheidung fällt zu handeln – oder eben nicht. Wenn solche wohldefinierte Zielwerte vorliegen, ist die Optimierung in aller Regel rechnerisch möglich – vom einfachen Simplex-Verfahren bis hin zum komplexen Problem des Handlungreisenden, der seine Fahrstrecke optimieren will – wo allerdings der Rechenaufwand exponentiell mit das Anzahl der Städte ansteigt und bald jede verfügbare Rechenkapazität sprengt. Aber oft gibt es noch nicht einmal einen Zielwert. Wenn nun ein intelligentes System die Konsequenzen seines Handelns im Sinne moralischer Maximen berücksichtigt, wird es schnell an seine Grenzen stoßen.

Ein oft zitiertes Beispiel ist das autonom fahrende Fahrzeug, das in einer ausweglosen Situation vor der Entscheidung steht, seinen Fahrer, ein Kind oder eine Passantin zu überfahren. Niemand hat bisher eine plausible Lösung dieses Problems geliefert (abgesehen von der „trivialen“ Lösung, dass das Auto nur so schnell fahren darf, dass es in Sichtweite anhalten kann, s. §3, S. 4 StVO). Wie soll nun das autonome Fahrzeug reagieren? Wie soll es programmiert werden?

Logisch einfacher, aber dramatischer, ist der Einsatz autonomer militärischer Geräte (z. B. Drohnen), die im Einsatz selbst entscheiden, ob das Bild, das sie mit ihrer Kamera erfassen und intelligent auswerten. militärische Ziele oder harm- und schutzlose Unbeteiligte zeigt. Mit der Entscheidung, in einer solchen Situation das tödliche Feuer zu eröffnen, ist auch jeder „menschliche“ Kampfpilot konfrontiert – und oft überfordert.

II Wer entscheidet über die richtigen moralischen Grundsätze?

Jeder präzise und eindeutig beschreibbare Algorithmus kann im Prinzip in ein System implementiert werden, aber Moral ist nicht präzise und eindeutig beschreibbar. Entscheidungen, die für einen Menschen moralisch richtig sind, können für einen anderen moralisch falsch und verwerflich sein. Moral ist ein philosphisches Konstrukt, das sich auch mit der Zeit ändert. Wer entscheidet dann letztlich, welche Moral in die Maschine implementiert werden soll? Ein ausgewähltes Gremium von Wissenschaftlern, Philosophen, Managern, Theologen? Oder sollen etwa die Entwickler*innen alles von der Bibel bis zur Straßenverkehrsordnung interpretieren und implementieren, wie sie es für richtig halten?

Nehmen wir jetzt trotzdem einmal an, einem System ist „moralisches Handeln“ implementiert worden. Vor dem Einsatz in der „richtigen Welt“ muss es im Labor ausgiebig getestet werden, denn es wird ja unter Umständen lebenswichtige Entscheidungen fällen müssen. Hier stellt sich ein ganz ähnliches Problem wie bei der Spezifikation: Wer legt die Testfälle fest, wie vollständig sind sie, und welches Testergebnis ist „richtig“, und welches ist falsch?

III Welche Testfälle sollte man Maschinen geben?

In Systemtests arbeitet man oft mit Stichproben, weil eine vollständige Testabdeckung in aller Regel umöglich ist. In kniffligen moralischen Fragen (wie dem berühmten „Todesalgorithmus“, mit dem das autonom fahrende Fahrzeug entscheidet, wer den Unfall überlegt) sind sich die Menschen oft uneinig und können oder wollen keine verbindliche Antwort geben – was soll das KI-System in dolchen Fällen tun. Wie ist in solchen Fällen ein Testergebnis zu bewerten?

Es mag nicht möglich sein, die Unmöglichkeit eines moralisch handelnden KI-Systems logisch zu beweisen. Aber angesichts der komplexen Fragen schon zum Thema Spezifikation und Test fühlt man sich an den Turmbau zu Babel erinnert, der in einer Sprachverwirrung endete (1. Buch Mose, Kap. 11) – der Turm wurde nicht fertig.

Aus alldem folgt, dass die Schwierigkeiten, die vor „moralisch“ handelnden Maschinen liegen, enorm sind, und dass daher die Wahrscheinlichkeit, dass es in absehbarer Zeit möglich sein wird, sehr nahe bei Null ist. Ob es wünschenswert ist, ist vor diesem Hintergrund nochmal eine ganz andere Frage.

Pro und Contra: Kann man Maschinen und Robotern Ethik beibringen?

Die HumanIThesia-Blogger Michael Mörike und Georg-Ludwig Verhoeven streiten über die Frage, ob Maschinen und Roboter eines Tages auch Ethik lernen können. In dieser Woche sagt Michael Mörike ja, in der kommenden Woche sagt Georg Ludwig-Verhoeven nein.

Von Michael Mörike

Es ist unstrittig, dass schon in naher Zukunft mehr und mehr Roboter und Maschinen mehr oder weniger autonome Entscheidungen treffen und daraus entsprechende Handlungen ableiten werden. Diese Entscheidungen treffen sie aufgrund dessen, was sie gelernt haben. Sie haben dazu viele Sensoren: Beim autonomen Auto sind dies zum Beispiel Kamera, Mikrofon, Abstandsradar, GPS, Tacho, Sensor für Querkräfte, Helligkeit, Belastung, Tankfüllstand und viele andere mehr. Die Sensoren übermitteln die Eingabedaten für die eingebaute KI. Als Ausgabe gibt die KI Anweisungen an die Aktoren – beim autonomen Auto sind dies dann zum Beispiel Bremse, Gas, Lenkrad, Lichtschalter, Blinker, Hupe, Scheibenwischer, Klimaanlage und so weiter.

Die KI in Mitten dieser Sensoren hat gelernt, die passenden Entscheidungen zu treffen. Beim Lernen wurden ihr dafür viele Situationen vorgelegt und die daraus zu treffenden Aktionen. Hier hat die KI das Ziel, die richtigen Entscheidungen zu finden. In den meisten Situationen wird keine Ethik benötigt, um richtige Aktionen zu erzeugen. Bei Handlungen aber, die Menschen betreffen, kann dies durchaus der Fall sein. Wenn im Lernprogramm implizit ethische Ziele enthalten sind, wird sie lernen, auch die zugehörigen ethischen Entscheidungen zu treffen. Man kann der Maschine auch nur ethische Ziele als Lernmaterial vorzugeben. Warum sollte es eine KI nicht lernen können?

Sicher: Ethik ist komplex und außerdem kulturell verschieden. Deswegen müsste man das Lernmaterial für das Ethik-Modul für jede Kultur verschieden anlegen. Außerdem hängen die ethischen Ziele von der jeweiligen Situation ab, was die Sache kompliziert macht. Wie wäre es, unsere menschliche Ethik als allgemein verfügbares Lernmaterial zur Verfügung zu stellen und eine KI dies lernen zu lassen? Geschieht im Ethikunterricht in der Schule nicht genau das? Gewiss, es ist aufwändig. Aber vielleicht lohnt es sich ja? Würde man eine so trainierte KI in jeden Roboter einbauen, und diesem beibringen, immer vor jeder Handlung gegenüber Menschen erst dieses Ethik-Modul abzufragen, wären wir soweit, wie oben behauptet.

Es ist also möglich.

Alexa, zeige mir den Weg zurück ins Leben!

Wie KI in der Suizidprävention helfen kann. Ein Gastbeitrag von Astrid Fischer

Was für eine seltsame Vorstellung, dass künstliche Intelligenz uns Menschen dabei helfen soll, den Weg zurück ins Leben zu finden. Die Rede ist von Suizidprävention mittels Facebook, Google und Co. und es zeigt sich bei näherer Betrachtung, dass lange nicht alle Ideen ethisch schlecht sein müssen und dass manche Überlegungen große Potenziale mit sich bringen.

Tatsächlich arbeiten die Riesen aus Silicon Valley schon seit einer Weile an digitaler Unterstützung in der Suizidprävention. So gab Facebook im Herbst 2017 den amerikanischen Rollout eines Algorithmus bekannt, der in der Lage ist, die Stimmung eines Menschen anhand seiner geposteten Fotos und Texte einzuschätzen. Hat der Algorithmus eine Person als vermeintlich suizidal erkannt, wird ein Hinweis auf Hilfsangebote ausgespielt. Laut einem Bericht von CNBC hat Facebook seit dem Start des Algorithmus‘ diesen Hinweis doppelt so häufig ausgegeben, als zuvor.

Was für uns in Europa schon aus datenschutzrechtlichen Gründen undenkbar wäre, findet aber auch in Amerika nicht nur Anerkennung. So wird auch dort befürchtet, dass die betroffenen Personen in ihren Posts vorsichtiger werden und sich nicht mehr trauen, ihre Gefühle zu äußern, wenn sie realisieren, dass Facebook permanent mithört.

Warten, bis der User sich äußert

Google Home, Alexa oder Siri gehen in Deutschland einen anderen Weg. Sie warten bis der User sich selbst äußert und beispielsweise nach einer schmerzfreien und effektiven Selbsttötungsmethode sucht. Als Antwort wird nicht etwa die Anleitung zum Sprung von der Brücke gegeben, sondern die Nummer der TelefonSeelsorge ausgespielt, die der Nutzer dann selbst kontaktieren kann, wenn er oder sie möchte. Während die erste Methode von Facebook bedenklich ist und der User unfreiwillig mit Suizidalität in Verbindung gebracht wird, bringt der User im zweiten Beispiel das Thema selbst ein. Der Sprachassistent reagiert also nur und belässt es der Selbstbestimmung des Users, ob er oder sie sich aktiv auseinandersetzen möchte.

Schon seit einigen Jahrzehnten ist bekannt, dass Menschen, die über eine Selbsttötung nachdenken, sich oft minderwertig und nicht anerkannt fühlen. Daher ist es besonders wichtig, respektvoll mit den Personen umzugehen und ihre Gefühlslage als normale menschliche Regung anzuerkennen. Bei rund 10.000 erfolgreichen Suiziden jährlich in Deutschland (doppelt so viel wie Verkehrs- und Drogentoten zusammengenommen) darf angenommen werden, dass Gedanken an einen Freitod keine Seltenheit sind.

Digitalkonzernen die Ausarbeitung von Lösungen zu überlassen, wäre zu kurz gedacht

Es wird deutlich, dass die Problematik der Suizidalität in einer Zeit, in der die Vermischung von digitalem und analogem Raum immer selbstverständlicher wird, auch die kommerziell agierenden Unternehmen in eine Haltung zwingt, die nicht unbedingt auf ethischen Grundsätzen fußt. Den Digitalkonzernen die Ausarbeitung von Lösungen zu überlassen, wäre demnach zu kurz gedacht. Verschiedene Anbieter suchen somit aktiv nach Angeboten, die einen Mehrwert zum analogen Angebot sind. Beispielsweise informiert die Enke-App über Suizidalität und die analogen Hilfsangebote. Darüber hinaus bietet sie einen Selbsttest. Der Nutzer oder die Nutzerin ist somit in der Lage, eine erste Selbsteinschätzung zu machen und kann unmittelbar anschließend das Hilfsangebot nutzen. Auch hier wird die anwendende Person in ihrem Wesen nicht angefasst und alle Entscheidung bleibt bei ihr. Das ist mitfühlend und respektvoll. Ethische Bedenken gibt es nicht.

Die App Daylio geht schon einen Schritt weiter und bietet eine tagesaktuelle Stimmungsanalyse. Ein Reminder erinnert daran, die Einschätzung zu machen. So kann ein lückenloses Stimmungsprofil über Wochen und Monate hinweg entstehen. Besonders spannend dabei: Es werden auch die Tagesaktivitäten erfragt, sodass positive und negative Auswirkungen von Aktivitäten auf die Stimmung erkennbar sind. Die App kommt gut an und wird sicher nicht als unethisch gelten können, weil auch sie lediglich die Absicht verfolgt, eine depressive oder suizidale Person zu unterstützen. Aber was ist mit dem Datenschutz, werden nun viele sagen. Die mitgegebenen Informationen sind stark vereinfacht, teils anonymisiert und bieten Außenstehenden eher wenig Einblicke in das Seelenleben einer Person.

Digitale Assistenz kann Lücken schließen

Wagen wir ein Gedankenexperiment für die Zukunft und suchen nach einer Lösung, die ethisch ideal wäre: Was muss also berücksichtigt werden? Der menschliche Kontakt ist in der Suizidprävention unverzichtbar. Darum also kann es nicht gehen. Vielmehr kann die digitale Assistenz jedoch die Lücken schließen, die durch mangelnde Fachkräfte oder nicht vorgesehene Betreuung entstehen.

Bekannt ist beispielsweise, dass suizidale Menschen gerade nach einem Aufenthalt in einer Klinik besonders gefährdet sind, weil sie keine Vollzeitbetreuung mehr erfahren. Die wäre in der Nachbetreuung angesichts von Fachkräftemangel und Wirtschaftsfaktoren überhaupt nicht denkbar. Ein Sprachassistent, der bei der Tagesstrukturierung behilflich ist und so eine Stabilität von suizidalen Menschen unterstützt, könnte die Lösung sein. Beispiel: eine suizidale Person erlaubt dem Sprachassistenten interaktiv tätig zu werden. Die Erlaubnis und das Wollen sind ganz wesentlich für die ethische Anwendung des Sprachassistenten.

Der Assistent könnte schon morgens mit einer selbst gewählten Melodie oder dem Radio wecken und anschließend beispielsweise einen Dialog starten, der mit „Wie geht es Dir?“ beginnt. Der Anwender oder die Anwenderin würde entsprechend der Gemütslage antworten. Eine künstliche Intelligenz wäre in der Lage, anhand der Stimmauswertung und der gegebenen Antwort angemessen zu reagieren und immer weiter durch den Tag zu leiten. So könnte der eine animiert werden, Kaffee zu kochen und einen Schritt nach dem nächsten anzugehen, der andere würde den Vorschlag erhalten, heute einmal einen langen Spaziergang zu machen und dem Dritten würde geraten, sich an den betreffenden Betreuer oder die TelefonSeelsorge zu wenden. Begleitend durch den Tag würde das Gerät Anker setzen, die es leichter machen, schwierige Phasen zu überstehen. Die menschliche Unterstützung wäre niemals außen vor, sondern stets die Option in kritischen Zeiten. Idealerweise würden die Daten nicht an kommerzielle Konzerne weitergegeben, sondern auf Servern gespeichert, die ausschließlich für das Gesundheitswesen zuständig sind. Selbstverständlich anonymisiert und nur nach Einverständnis des Anwenders einzusehen. Sofern eine Person das Einverständnis erteilt, könnte ein Arzt auf mehr Informationen zugreifen, als er bislang verfügbar hat und besser einschätzen, wie die Lage ist. Wenn all diese Komponenten zusammenkämen, dann wäre die Lösung ethisch sauber und ein riesiger Gewinn für unsere Gesellschaft gemacht.

Über die Autorin

Astrid Fischer hat Sprachen und Recht in Bonn, Köln und Tilburg studiert. Sie arbeitet als selbständige Beraterin für digitale Kommunikation und ist Referentin für Kommunikation und Medien der TelefonSeelsorge. In ihrer Freizeit studiert sie Sozialinformatik.

Top

Durch die weitere Nutzung der Seite stimmen Sie der Verwendung von Cookies zu. Weitere Informationen finden Sie in der Datenschutzerklärung.

Die Cookie-Einstellungen auf dieser Website sind auf "Cookies zulassen" eingestellt, um das beste Surferlebnis zu ermöglichen. Wenn du diese Website ohne Änderung der Cookie-Einstellungen verwendest oder auf "Akzeptieren" klickst, erklärst du sich damit einverstanden.

Schließen