Alexa, zeige mir den Weg zurück ins Leben!

Wie KI in der Suizidprävention helfen kann. Ein Gastbeitrag von Astrid Fischer

Was für eine seltsame Vorstellung, dass künstliche Intelligenz uns Menschen dabei helfen soll, den Weg zurück ins Leben zu finden. Die Rede ist von Suizidprävention mittels Facebook, Google und Co. und es zeigt sich bei näherer Betrachtung, dass lange nicht alle Ideen ethisch schlecht sein müssen und dass manche Überlegungen große Potenziale mit sich bringen.

Tatsächlich arbeiten die Riesen aus Silicon Valley schon seit einer Weile an digitaler Unterstützung in der Suizidprävention. So gab Facebook im Herbst 2017 den amerikanischen Rollout eines Algorithmus bekannt, der in der Lage ist, die Stimmung eines Menschen anhand seiner geposteten Fotos und Texte einzuschätzen. Hat der Algorithmus eine Person als vermeintlich suizidal erkannt, wird ein Hinweis auf Hilfsangebote ausgespielt. Laut einem Bericht von CNBC hat Facebook seit dem Start des Algorithmus‘ diesen Hinweis doppelt so häufig ausgegeben, als zuvor.

Was für uns in Europa schon aus datenschutzrechtlichen Gründen undenkbar wäre, findet aber auch in Amerika nicht nur Anerkennung. So wird auch dort befürchtet, dass die betroffenen Personen in ihren Posts vorsichtiger werden und sich nicht mehr trauen, ihre Gefühle zu äußern, wenn sie realisieren, dass Facebook permanent mithört.

Warten, bis der User sich äußert

Google Home, Alexa oder Siri gehen in Deutschland einen anderen Weg. Sie warten bis der User sich selbst äußert und beispielsweise nach einer schmerzfreien und effektiven Selbsttötungsmethode sucht. Als Antwort wird nicht etwa die Anleitung zum Sprung von der Brücke gegeben, sondern die Nummer der TelefonSeelsorge ausgespielt, die der Nutzer dann selbst kontaktieren kann, wenn er oder sie möchte. Während die erste Methode von Facebook bedenklich ist und der User unfreiwillig mit Suizidalität in Verbindung gebracht wird, bringt der User im zweiten Beispiel das Thema selbst ein. Der Sprachassistent reagiert also nur und belässt es der Selbstbestimmung des Users, ob er oder sie sich aktiv auseinandersetzen möchte.

Schon seit einigen Jahrzehnten ist bekannt, dass Menschen, die über eine Selbsttötung nachdenken, sich oft minderwertig und nicht anerkannt fühlen. Daher ist es besonders wichtig, respektvoll mit den Personen umzugehen und ihre Gefühlslage als normale menschliche Regung anzuerkennen. Bei rund 10.000 erfolgreichen Suiziden jährlich in Deutschland (doppelt so viel wie Verkehrs- und Drogentoten zusammengenommen) darf angenommen werden, dass Gedanken an einen Freitod keine Seltenheit sind.

Digitalkonzernen die Ausarbeitung von Lösungen zu überlassen, wäre zu kurz gedacht

Es wird deutlich, dass die Problematik der Suizidalität in einer Zeit, in der die Vermischung von digitalem und analogem Raum immer selbstverständlicher wird, auch die kommerziell agierenden Unternehmen in eine Haltung zwingt, die nicht unbedingt auf ethischen Grundsätzen fußt. Den Digitalkonzernen die Ausarbeitung von Lösungen zu überlassen, wäre demnach zu kurz gedacht. Verschiedene Anbieter suchen somit aktiv nach Angeboten, die einen Mehrwert zum analogen Angebot sind. Beispielsweise informiert die Enke-App über Suizidalität und die analogen Hilfsangebote. Darüber hinaus bietet sie einen Selbsttest. Der Nutzer oder die Nutzerin ist somit in der Lage, eine erste Selbsteinschätzung zu machen und kann unmittelbar anschließend das Hilfsangebot nutzen. Auch hier wird die anwendende Person in ihrem Wesen nicht angefasst und alle Entscheidung bleibt bei ihr. Das ist mitfühlend und respektvoll. Ethische Bedenken gibt es nicht.

Die App Daylio geht schon einen Schritt weiter und bietet eine tagesaktuelle Stimmungsanalyse. Ein Reminder erinnert daran, die Einschätzung zu machen. So kann ein lückenloses Stimmungsprofil über Wochen und Monate hinweg entstehen. Besonders spannend dabei: Es werden auch die Tagesaktivitäten erfragt, sodass positive und negative Auswirkungen von Aktivitäten auf die Stimmung erkennbar sind. Die App kommt gut an und wird sicher nicht als unethisch gelten können, weil auch sie lediglich die Absicht verfolgt, eine depressive oder suizidale Person zu unterstützen. Aber was ist mit dem Datenschutz, werden nun viele sagen. Die mitgegebenen Informationen sind stark vereinfacht, teils anonymisiert und bieten Außenstehenden eher wenig Einblicke in das Seelenleben einer Person.

Digitale Assistenz kann Lücken schließen

Wagen wir ein Gedankenexperiment für die Zukunft und suchen nach einer Lösung, die ethisch ideal wäre: Was muss also berücksichtigt werden? Der menschliche Kontakt ist in der Suizidprävention unverzichtbar. Darum also kann es nicht gehen. Vielmehr kann die digitale Assistenz jedoch die Lücken schließen, die durch mangelnde Fachkräfte oder nicht vorgesehene Betreuung entstehen.

Bekannt ist beispielsweise, dass suizidale Menschen gerade nach einem Aufenthalt in einer Klinik besonders gefährdet sind, weil sie keine Vollzeitbetreuung mehr erfahren. Die wäre in der Nachbetreuung angesichts von Fachkräftemangel und Wirtschaftsfaktoren überhaupt nicht denkbar. Ein Sprachassistent, der bei der Tagesstrukturierung behilflich ist und so eine Stabilität von suizidalen Menschen unterstützt, könnte die Lösung sein. Beispiel: eine suizidale Person erlaubt dem Sprachassistenten interaktiv tätig zu werden. Die Erlaubnis und das Wollen sind ganz wesentlich für die ethische Anwendung des Sprachassistenten.

Der Assistent könnte schon morgens mit einer selbst gewählten Melodie oder dem Radio wecken und anschließend beispielsweise einen Dialog starten, der mit „Wie geht es Dir?“ beginnt. Der Anwender oder die Anwenderin würde entsprechend der Gemütslage antworten. Eine künstliche Intelligenz wäre in der Lage, anhand der Stimmauswertung und der gegebenen Antwort angemessen zu reagieren und immer weiter durch den Tag zu leiten. So könnte der eine animiert werden, Kaffee zu kochen und einen Schritt nach dem nächsten anzugehen, der andere würde den Vorschlag erhalten, heute einmal einen langen Spaziergang zu machen und dem Dritten würde geraten, sich an den betreffenden Betreuer oder die TelefonSeelsorge zu wenden. Begleitend durch den Tag würde das Gerät Anker setzen, die es leichter machen, schwierige Phasen zu überstehen. Die menschliche Unterstützung wäre niemals außen vor, sondern stets die Option in kritischen Zeiten. Idealerweise würden die Daten nicht an kommerzielle Konzerne weitergegeben, sondern auf Servern gespeichert, die ausschließlich für das Gesundheitswesen zuständig sind. Selbstverständlich anonymisiert und nur nach Einverständnis des Anwenders einzusehen. Sofern eine Person das Einverständnis erteilt, könnte ein Arzt auf mehr Informationen zugreifen, als er bislang verfügbar hat und besser einschätzen, wie die Lage ist. Wenn all diese Komponenten zusammenkämen, dann wäre die Lösung ethisch sauber und ein riesiger Gewinn für unsere Gesellschaft gemacht.

Über die Autorin

Astrid Fischer hat Sprachen und Recht in Bonn, Köln und Tilburg studiert. Sie arbeitet als selbständige Beraterin für digitale Kommunikation und ist Referentin für Kommunikation und Medien der TelefonSeelsorge. In ihrer Freizeit studiert sie Sozialinformatik.