Pro und Contra: Kann man Maschinen und Robotern Ethik beibringen?

Die HumanIThesia-Blogger Michael Mörike und Georg-Ludwig Verhoeven streiten über die Frage, ob Maschinen und Roboter eines Tages auch Ethik lernen können. In dieser Woche sagt Michael Mörike ja, in der kommenden Woche sagt Georg Ludwig-Verhoeven nein.

Von Michael Mörike

Es ist unstrittig, dass schon in naher Zukunft mehr und mehr Roboter und Maschinen mehr oder weniger autonome Entscheidungen treffen und daraus entsprechende Handlungen ableiten werden. Diese Entscheidungen treffen sie aufgrund dessen, was sie gelernt haben. Sie haben dazu viele Sensoren: Beim autonomen Auto sind dies zum Beispiel Kamera, Mikrofon, Abstandsradar, GPS, Tacho, Sensor für Querkräfte, Helligkeit, Belastung, Tankfüllstand und viele andere mehr. Die Sensoren übermitteln die Eingabedaten für die eingebaute KI. Als Ausgabe gibt die KI Anweisungen an die Aktoren – beim autonomen Auto sind dies dann zum Beispiel Bremse, Gas, Lenkrad, Lichtschalter, Blinker, Hupe, Scheibenwischer, Klimaanlage und so weiter.

Die KI in Mitten dieser Sensoren hat gelernt, die passenden Entscheidungen zu treffen. Beim Lernen wurden ihr dafür viele Situationen vorgelegt und die daraus zu treffenden Aktionen. Hier hat die KI das Ziel, die richtigen Entscheidungen zu finden. In den meisten Situationen wird keine Ethik benötigt, um richtige Aktionen zu erzeugen. Bei Handlungen aber, die Menschen betreffen, kann dies durchaus der Fall sein. Wenn im Lernprogramm implizit ethische Ziele enthalten sind, wird sie lernen, auch die zugehörigen ethischen Entscheidungen zu treffen. Man kann der Maschine auch nur ethische Ziele als Lernmaterial vorzugeben. Warum sollte es eine KI nicht lernen können?

Sicher: Ethik ist komplex und außerdem kulturell verschieden. Deswegen müsste man das Lernmaterial für das Ethik-Modul für jede Kultur verschieden anlegen. Außerdem hängen die ethischen Ziele von der jeweiligen Situation ab, was die Sache kompliziert macht. Wie wäre es, unsere menschliche Ethik als allgemein verfügbares Lernmaterial zur Verfügung zu stellen und eine KI dies lernen zu lassen? Geschieht im Ethikunterricht in der Schule nicht genau das? Gewiss, es ist aufwändig. Aber vielleicht lohnt es sich ja? Würde man eine so trainierte KI in jeden Roboter einbauen, und diesem beibringen, immer vor jeder Handlung gegenüber Menschen erst dieses Ethik-Modul abzufragen, wären wir soweit, wie oben behauptet.

Es ist also möglich.

Alexa, zeige mir den Weg zurück ins Leben!

Wie KI in der Suizidprävention helfen kann. Ein Gastbeitrag von Astrid Fischer

Was für eine seltsame Vorstellung, dass künstliche Intelligenz uns Menschen dabei helfen soll, den Weg zurück ins Leben zu finden. Die Rede ist von Suizidprävention mittels Facebook, Google und Co. und es zeigt sich bei näherer Betrachtung, dass lange nicht alle Ideen ethisch schlecht sein müssen und dass manche Überlegungen große Potenziale mit sich bringen.

Tatsächlich arbeiten die Riesen aus Silicon Valley schon seit einer Weile an digitaler Unterstützung in der Suizidprävention. So gab Facebook im Herbst 2017 den amerikanischen Rollout eines Algorithmus bekannt, der in der Lage ist, die Stimmung eines Menschen anhand seiner geposteten Fotos und Texte einzuschätzen. Hat der Algorithmus eine Person als vermeintlich suizidal erkannt, wird ein Hinweis auf Hilfsangebote ausgespielt. Laut einem Bericht von CNBC hat Facebook seit dem Start des Algorithmus‘ diesen Hinweis doppelt so häufig ausgegeben, als zuvor.

Was für uns in Europa schon aus datenschutzrechtlichen Gründen undenkbar wäre, findet aber auch in Amerika nicht nur Anerkennung. So wird auch dort befürchtet, dass die betroffenen Personen in ihren Posts vorsichtiger werden und sich nicht mehr trauen, ihre Gefühle zu äußern, wenn sie realisieren, dass Facebook permanent mithört.

Warten, bis der User sich äußert

Google Home, Alexa oder Siri gehen in Deutschland einen anderen Weg. Sie warten bis der User sich selbst äußert und beispielsweise nach einer schmerzfreien und effektiven Selbsttötungsmethode sucht. Als Antwort wird nicht etwa die Anleitung zum Sprung von der Brücke gegeben, sondern die Nummer der TelefonSeelsorge ausgespielt, die der Nutzer dann selbst kontaktieren kann, wenn er oder sie möchte. Während die erste Methode von Facebook bedenklich ist und der User unfreiwillig mit Suizidalität in Verbindung gebracht wird, bringt der User im zweiten Beispiel das Thema selbst ein. Der Sprachassistent reagiert also nur und belässt es der Selbstbestimmung des Users, ob er oder sie sich aktiv auseinandersetzen möchte.

Schon seit einigen Jahrzehnten ist bekannt, dass Menschen, die über eine Selbsttötung nachdenken, sich oft minderwertig und nicht anerkannt fühlen. Daher ist es besonders wichtig, respektvoll mit den Personen umzugehen und ihre Gefühlslage als normale menschliche Regung anzuerkennen. Bei rund 10.000 erfolgreichen Suiziden jährlich in Deutschland (doppelt so viel wie Verkehrs- und Drogentoten zusammengenommen) darf angenommen werden, dass Gedanken an einen Freitod keine Seltenheit sind.

Digitalkonzernen die Ausarbeitung von Lösungen zu überlassen, wäre zu kurz gedacht

Es wird deutlich, dass die Problematik der Suizidalität in einer Zeit, in der die Vermischung von digitalem und analogem Raum immer selbstverständlicher wird, auch die kommerziell agierenden Unternehmen in eine Haltung zwingt, die nicht unbedingt auf ethischen Grundsätzen fußt. Den Digitalkonzernen die Ausarbeitung von Lösungen zu überlassen, wäre demnach zu kurz gedacht. Verschiedene Anbieter suchen somit aktiv nach Angeboten, die einen Mehrwert zum analogen Angebot sind. Beispielsweise informiert die Enke-App über Suizidalität und die analogen Hilfsangebote. Darüber hinaus bietet sie einen Selbsttest. Der Nutzer oder die Nutzerin ist somit in der Lage, eine erste Selbsteinschätzung zu machen und kann unmittelbar anschließend das Hilfsangebot nutzen. Auch hier wird die anwendende Person in ihrem Wesen nicht angefasst und alle Entscheidung bleibt bei ihr. Das ist mitfühlend und respektvoll. Ethische Bedenken gibt es nicht.

Die App Daylio geht schon einen Schritt weiter und bietet eine tagesaktuelle Stimmungsanalyse. Ein Reminder erinnert daran, die Einschätzung zu machen. So kann ein lückenloses Stimmungsprofil über Wochen und Monate hinweg entstehen. Besonders spannend dabei: Es werden auch die Tagesaktivitäten erfragt, sodass positive und negative Auswirkungen von Aktivitäten auf die Stimmung erkennbar sind. Die App kommt gut an und wird sicher nicht als unethisch gelten können, weil auch sie lediglich die Absicht verfolgt, eine depressive oder suizidale Person zu unterstützen. Aber was ist mit dem Datenschutz, werden nun viele sagen. Die mitgegebenen Informationen sind stark vereinfacht, teils anonymisiert und bieten Außenstehenden eher wenig Einblicke in das Seelenleben einer Person.

Digitale Assistenz kann Lücken schließen

Wagen wir ein Gedankenexperiment für die Zukunft und suchen nach einer Lösung, die ethisch ideal wäre: Was muss also berücksichtigt werden? Der menschliche Kontakt ist in der Suizidprävention unverzichtbar. Darum also kann es nicht gehen. Vielmehr kann die digitale Assistenz jedoch die Lücken schließen, die durch mangelnde Fachkräfte oder nicht vorgesehene Betreuung entstehen.

Bekannt ist beispielsweise, dass suizidale Menschen gerade nach einem Aufenthalt in einer Klinik besonders gefährdet sind, weil sie keine Vollzeitbetreuung mehr erfahren. Die wäre in der Nachbetreuung angesichts von Fachkräftemangel und Wirtschaftsfaktoren überhaupt nicht denkbar. Ein Sprachassistent, der bei der Tagesstrukturierung behilflich ist und so eine Stabilität von suizidalen Menschen unterstützt, könnte die Lösung sein. Beispiel: eine suizidale Person erlaubt dem Sprachassistenten interaktiv tätig zu werden. Die Erlaubnis und das Wollen sind ganz wesentlich für die ethische Anwendung des Sprachassistenten.

Der Assistent könnte schon morgens mit einer selbst gewählten Melodie oder dem Radio wecken und anschließend beispielsweise einen Dialog starten, der mit „Wie geht es Dir?“ beginnt. Der Anwender oder die Anwenderin würde entsprechend der Gemütslage antworten. Eine künstliche Intelligenz wäre in der Lage, anhand der Stimmauswertung und der gegebenen Antwort angemessen zu reagieren und immer weiter durch den Tag zu leiten. So könnte der eine animiert werden, Kaffee zu kochen und einen Schritt nach dem nächsten anzugehen, der andere würde den Vorschlag erhalten, heute einmal einen langen Spaziergang zu machen und dem Dritten würde geraten, sich an den betreffenden Betreuer oder die TelefonSeelsorge zu wenden. Begleitend durch den Tag würde das Gerät Anker setzen, die es leichter machen, schwierige Phasen zu überstehen. Die menschliche Unterstützung wäre niemals außen vor, sondern stets die Option in kritischen Zeiten. Idealerweise würden die Daten nicht an kommerzielle Konzerne weitergegeben, sondern auf Servern gespeichert, die ausschließlich für das Gesundheitswesen zuständig sind. Selbstverständlich anonymisiert und nur nach Einverständnis des Anwenders einzusehen. Sofern eine Person das Einverständnis erteilt, könnte ein Arzt auf mehr Informationen zugreifen, als er bislang verfügbar hat und besser einschätzen, wie die Lage ist. Wenn all diese Komponenten zusammenkämen, dann wäre die Lösung ethisch sauber und ein riesiger Gewinn für unsere Gesellschaft gemacht.

Über die Autorin

Astrid Fischer hat Sprachen und Recht in Bonn, Köln und Tilburg studiert. Sie arbeitet als selbständige Beraterin für digitale Kommunikation und ist Referentin für Kommunikation und Medien der TelefonSeelsorge. In ihrer Freizeit studiert sie Sozialinformatik.

Zukunftsvision: Wenn KI den Schiedsrichter ersetzt

Es ist nur noch eine Frage der Zeit, bis Schiedsrichter auf dem Fussballfeld durch Systeme mit KI ersetzt werden. Wie kann so etwas praktisch aussehen?

von Georg-Ludwig Verhoeven

Jeder weiß, dass Schiedsrichter nicht unfehlbar sind, das geben sie auch selbst zu. Und selbst dann, wenn sie Hochtechnologie wie den „Video-Assist“ einsetzen, kommt es zu problematischen Entscheidungen, wie die Fachpresse ständig – und oft hämisch – berichtet. Dabei wäre doch alle so einfach: Eine Handvoll hochauflösende multispektrale Hochgeschwindigkeitskameras, an den richtigen Stellen plaziert und/oder auf Drohnen im Stadion unterwegs, ein KI-System dahinter, welches alle Bilder ständig analysiert, das die Eigenheiten der unterschiedlichen Spieler kennt und ständig dazulernt, sich durch deren ändernde Haartracht und Tattoos nicht verwirren lässt.

Ein solches System kann – unter anderem – zweifelsfrei erkennen, ob der Ball über die Linie war, ein Spieler die Hand zu Hilfe genommen hat, Fouls von Schwalben unterscheiden. Es erkennt Abseitssituationen, führt sekundengenau Buch über Spielunterbrechnungen und ordnet die korrekten Nachspielzeiten an. Alle anzuwendenden Spielregeln sind korrekt einprogrammiert, werden ggf. aktualisiert und fehlerfrei umgesetzt. Und das alles in Echtzeit – man muss keine Spieler mehr aus der Kabine holen, wenn der Schiedsrichter im Nachhinein mittels „Videobeweis“ seine Entscheidung korrigiert, die Spieler aber schon in die Pause geschickt hat. Alle Entscheidungen können gleich über Stadionmonitore und -lautsprecher bekanntgegeben werden. Natürlich bräuchte man dann auch keine Linienrichter / Linienassistenten etc. mehr. Für den „menschlichen Touch“ könnte man einen Roboter über den Rasen laufen lassen, dir mit gelber und roter Karte ausgestattet, dazu die Spraydose für die Mauer beim Freistoß. Als „Old-School-Goodie“ könnte man ihm eine Trillerpfeife spendieren.

Die Investitionskosten für solche Systeme sind über den Wegfall der Schiedsrichter-Gehälter (Festgehälter um die € 70,000 und mehr im Jahr im Profibusiness, dazu € 5,000 pro Bundesligaspiel) schnell eingespielt. Und kein Schiedsrichter muss mehr Angst um seine körperliche Unversehrtheit haben, und erst recht nicht um die seines Autos. Randalierende „Fans“ hätten kein Feindbild mehr, und so könnten Schäden an Stadien und Kosten für Polizeieinsätze radikal reduziert werden.

Ob das hier geschilderte Szenario jemals Wirklichkeit wird, ist heute nicht abzusehen; ob Spieler, Fans, Vereine und Verbände es wollen, müssen sie selbst entscheiden.Wenn wir jedoch die aktuelle Entwicklung der KI beobachten, und vor allem die Prognosen ihrer zukünftigen Fähigkeiten glauben, wäre es technisch sicher bald kein Problem mehr. Man müsste dann nur die Stromversorgung des KI-Schiri fansicher schützen. FIFA und DFB sollten auf jeden Fall zügig beginnen, einen „Business Case“ hierfür zu erarbeiten.

Wie funktioniert eigentlich Künstliche Intelligenz?

Künstliche Intelligenz (KI) ist manchem unheimlich – wie können Computer / Roboter solche Intelligenzleistungen vollbringen und den Menschen überflügeln?

von Georg-Ludwig Verhoeven

Zu Beginn sollten wir Systeme außer acht lassen, deren gefühlte „Intelligenz“ auf einer Riesen-Datenmenge („Big Data“) und deren schnller Auswertung (Algorithmen) basiert. Solche System lernen nicht, sondern sind einfach schnell, präzise und zuverlässig. Intelligent sind sie nicht. Stattdessen konzentrieren wir uns auf eine der am weitesten verbreiteten Technik, nämlich der der neuronalen Netzwerke, die dem menschlichen Gehirn mit seinen Neuronen (Nervenzellen) und Synapsen (Verbindungen zwischen Zellen) ähnlich sind. Nur diese Systeme können selbstständig „lernen“, also aufgrund gemachter Erfahrung bzw. „Training“ ihr Verhalten ändern und bessere Ergebnisse liefern.

Das funktioniert (etwa) so: Wir stellen uns eine Maschine vor, nennen wir sie Aiki. Aiki kann Bilder auswerten, also z. B. Farben (von Gesichtern und Haaren) und Konturen (wie Gesichtszüge, Nasenform, Brille ja/nein, Bart ja/nein) erkennen, vielleicht auch ganz feine Details, wie z. B. die Iris von Menschen. Aiki bekommt den Auftrag festzustellen, ob zwei Bilder den gleichen Menschen zeigen. Wir zeigen Aiki nun das Bild eines Menschen (nennen wir ihn Oli Original) mit blonden Haaren, bekleidet mit einem roten T-Shirt und einer schwarzen Hose. Als nächstes zeigen wir Aiki ein Bild (andere Bilder von Oli oder anderen Menschen) und bitten sie um ihr Votum. Je nach Aikis Antwort antworten wir mit „richtig“ oder „falsch“ und zeigen weitere Bilder. Das wiederholen wir viele Male.

Lernen nach Merkmalen

Aiki wird auf diese Weise „lernen“, dass die Merkmale Kleidung, Haarlänge, Bart, Brille etc. nicht zur richtigen Antwort führen. Wenn sie aber die Gesichtszüge, die Nasenform, evtl. die Iris als Erkennungsmerkmal benutzt, wird die Antwort richtig. So wird sie nach und nach diesen Merkmalen mehr Bedeutung zuordnen als den anderen.

Was geschieht bei Aiki intern? Sie hat für jedes Merkmal gewisse „Knoten“, in denen sie dieses verarbeitet – die also beim Betrachten mehrerer Bilder ein „ja“ oder ein „nein“ liefern. Zunächst sind die Ergebnisse aller Bereich bei der finalen Entscheidung gleich gewichtet. Wenn Aiki nun merkt, dass das häufig zu falschen Ergebnissen führt, wird sie die Gewichtung der Knoten ändern, also z. B. der Farbe der Kleidung weniger Bedeutung beimessen, der Nasenform, den Gesichtszügen und der Iris aber mehr. Sie wird sogar lernen, dass Bart und Brille keine wichtigen Merkmale sind. So kommt sie zu einer immer höheren Trefferquote. Moderne neuronale Netzwerke können mit hunderten von Merkmalen arbeiten und so zu hohen Erkennungsquoten kommen. Bei der Prüfung von Unterschriften liegt die Trefferquote inzwischen sehr nahe bei 100 %.

Voraussetzung hierfür ist das „Training“, bei dem Aiki tausende von Vergleichen macht und jedesmal die Rückmeldung erhält, ob ihre Entscheidung richtig war. Das kann zunächst in einem initialen Training stattfinden, aber auch im Dauerbetrieb – natürlich muss jemand die Rückmeldung liefern. Bei jeder Rückmeldung werden die Gewichte neu justiert – Aiki lernt ständig dazu.

Wie KI in der Pflege heute schon helfen kann

Die Preisträgerin des eCare-Preises für humane Nutzung der Informationstechnologie in der Pflege, Janine Breßler, über ihr System KARIN, dass pflegebedürftige Menschen unterstützen soll.

von Janine Breßler, TH Wildau

Die meisten älteren Menschen in Deutschland möchten so lange wie möglich in ihren eigenen vier Wänden leben. Viele verstehen dies als einen Ausdruck von Freiheit und Selbstbestimmung. Das vertraute Umfeld und die sozialen Bindungen geben Sicherheit.

Doch mit dem Alter einhergehende Krankheiten, wie zum Beispiel eine beginnende Demenz, oder auch das im Alter steigende Sturzrisiko, gefährden dieses eigenständige Leben zu Hause und machen für viele Menschen einen Umzug in Pflegeeinrichtungen nötig. Gleichzeitig herrscht bereits heute in Deutschland ein Fachkräftemangel im Pflegebereich: Viele Pflegekräfte sind überarbeitet und überlastet, was nicht ohne Folgen bei der Qualität der Pflege bleibt. Dieser Mangel wird sich in Anbetracht des Demografischen Wandels in den nächsten Jahren weiter verschärfen.

Mit Technikeinsatz ein langes und eigenständiges Leben ermöglichen

Infolgedessen sind also Maßnahmen und Lösungen gefragt, die dem Menschen ein längeres, würdevolles, unabhängiges, aber auch sicheres Leben in den eigenen vier Wänden ermöglichen. Lösungen diesbezüglich tragen also einerseits zum Wohle der älteren Menschen bei und entlasten andererseits die angespannte Situation im Pflegebereich. Die Techniken Servicerobotik und Smart-Home verfolgen beide das Ziel, das Leben daheim, gerade auch für ältere Personen, sicherer zu machen und ihnen im besten Fall dadurch ein langes, sicheres und eigenständiges Leben zu ermöglichen.

Smart-Home-Komponenten allein haben den Nachteil, dass sie starr und ortsgebunden sind, dafür können sie aber meist problemlos in die bestehende Infrastruktur der Wohnung integriert werden. Ein Roboter dagegen ist mobil und bietet einen Interaktionszugangspunkt, mit dem man auf natürliche Art und Weise kommunizieren kann. Die Technik kann damit zu dem Menschen gelangen und nicht umgekehrt.

Smart-Home und Robotik verbinden

Unsere Anwendung KARIN zielt insbesondere auf die Verbindung von Smart-Home-Komponenten und Servicerobotik durch Künstliche Intelligenz ab, um die jeweiligen Vorteile der beiden Techniken zu vereinen und den Wirkungsgrad zu erhöhen. Dadurch soll es möglich werden, das Verhalten einer Person in den eigenen vier Wänden erfahrbar zu machen, um dabei Unregelmäßigkeiten im Alltag der Person zu erkennen.

In der Testphase wurde die Anwendung mit einem Prototyp aus Lego getestet, der ein Schlafzimmer in einer Wohnung repräsentiert. Geeignete Sensorik aus dem Bereich des Smart Home diente dabei als Informationsquelle. Mit Hilfe dieser lernte ein künstliches neuronales Netz das Verhalten einer Person und konnte es anschließend überwachen. In unserer Testphase wurde das Schlafverhalten einer Person in Abhängigkeit zur Tageszeit erfolgreich antrainiert und anschließend überwacht.

Ob Unregelmäßigkeiten im Verhalten der Person vorliegen, kann wiederum über eine Schnittstelle von einem Serviceroboter abgerufen werden, um darauf in geeigneter Art und Weise zu reagieren. Die beiden Bereiche Smart Home und Servicerobotik werden mit Hilfe von künstlichen neuronalen Netzen miteinander verknüpft. Die Ergebnisse waren sehr vielversprechend, sodass weiter in die Richtung geforscht wird, mit dem Ziel die Pflege nachhaltig zu verbessern.

Weiterführende Links

Top

Durch die weitere Nutzung der Seite stimmen Sie der Verwendung von Cookies zu. Weitere Informationen finden Sie in der Datenschutzerklärung.

Die Cookie-Einstellungen auf dieser Website sind auf "Cookies zulassen" eingestellt, um das beste Surferlebnis zu ermöglichen. Wenn du diese Website ohne Änderung der Cookie-Einstellungen verwendest oder auf "Akzeptieren" klickst, erklärst du sich damit einverstanden.

Schließen