Wenn Algorithmen entscheiden,wer trägt die Verantwortung?

1 Algorithmen
Algorithmen sind der Definition nach von Programmierern erstellte logische Programme, die Zeile für Zeile programmiert wurden. Sie wurden hoffentlich ausführlich getestet, bevor sie angewendet wurden. Wurde ein Fehler gefunden, wurde er durch Ergänzung der Programmierung beseitigt.
Klar: Dafür trägt der Programmierer die Verantwortung Jedenfalls war das bisher immer so. Aber das ist eventuell gar nicht gemeint.
Gemeint ist eine KI, die eben nicht programmiert wurde und daher auch kein Algorithmus ist.
Eine KI wird eben nicht programmiert, sondern trainiert. Im Gegensatz zu Algorithmen arbeitet sie nicht logisch, sondern der Wahrscheinlichkeit nach.
2 KI
Wenn eine KI entscheidet, wer trägt dann die Verantwortung? Der Lehrer? Also die Person, die die KI trainiert hat? Der Programmierer, der die wenigen Zeilen programmiert hat, mit der sie die Trainingsobjekte wahrnimmt und daraus lernt?
Der Eigentümer, also die Person, die die KI oder den durch die KI gesteuerten Roboter käuflich erworben hat? Der Anwender, der die KI anwendet? Beispiel: Der Mensch, der ein selbstfahrendes Taxi gegen Gebühr bestellt hat und sich in das KI-gesteuerte selbstfahrende Auto setzt, um voranzukommen?
Klar: Verantwortung kann nur ein Mensch tragen, nicht die KI, denn dazu müsste man ihr Rechte geben, wie sie – jedenfalls bisher – nur Menschen haben können.
Ich meine, der Anwender, der sich in ein selbstfahrendes Taxi setzt, trägt nur die Verantwortung, wohin er fahren möchte und also für die Befehle, die er dem Taxi erteilt.
Beispiel 1: Bitte fahr mich nach Reutlingen zum Bahnhof. Ich muss zum Zug.
Beispiel 2: Bitte fahr mich in die Klinik. Ich bin verletzt.
Beispiel 3: Bitte fahr uns in die Klinik. Mein Kollege ist lebensgefährlich verletzt.
Das Beispiel 2 rechtfertigt nicht, dass die das selbstfahrende Taxi bei Rot über die Ampel fährt, das Beispiel 3 aber schon. Selbstverständlich hat das Taxi gelernt, bei Rot in diesen Ausnahmefällen – vorsichtig – über die Ampel zu fahren. Schließlich ist das in diesem Fall geboten. Wir dürfen davon ausgehen, dass nichts Schlimmes passiert. Wenn doch, wer trägt dann die Verantwortung?
- Wenn es korrekt war, dem Taxi zu sagen, ein lebensgefährlich verletzter Mensch ist zu transportieren, denn jedenfalls nicht der Mensch, der den Auftrag dazu erteilt hat.
- Wenn es ein Jux war, trägt der Auftraggeber mindestens eine Mitschuld.
Soweit klar, da auch in der bisherigen Rechtsprechung so geurteilt wird. Was aber, wenn sich herausstellt, dass das Taxi eben doch nicht gelernt hat, besonders vorsichtig bei Rot über die Kreuzung zu fahren? Sicher nicht der Mensch, der das Taxi gebeten hat, einen lebensgefährlich verletzten Menschen in die Klinik zu fahren.
Eventuell der Eigentümer / Halter des Taxis, weil er wusste, dass das Taxi das nicht gut macht. Oder weil er sich nicht darum gekümmert hat. Dann trägt er jedenfalls mindestens Mitschuld. Der Hersteller, wenn er zwar behauptet hat, das Taxi kann das, ohne es ausreichend zu testen. Oder wenn er das gar nicht getestet hat.
Und was ist, wenn das zwar ausführlich getestet und dokumentiert wurde, aber doch ein Unfall geschehen ist? Da kommt dann auch noch der Unfallgegner auf der Kreuzung ist Spiel: Hat er zwar dem Taxi (zum Beispiel durch Handzeichen) gezeigt, dass er es durchfahren lässt, dann aber (böswillig?) den Unfall verursacht, z.B. durch Gas geben?
Und was ist, wenn der Unfallgegner gar nicht rechtzeitig bremsen konnte und das Taxi die Geschwindigkeit des Unfallgegners falsch eingeschätzt hat? Dabei kann es sein, dass der Eigentümer mindestens eine (Mit-) Schuld trägt, aber eben auch der Hersteller, der dafür offensichtlich nicht genügend Trainingsmaterial bereitgestellt hat.
Fazit: Es kommt darauf an, welcher Schaden wie entstanden ist. Das wird Aufgabe von Gerichten sein, das zu entscheiden.
3 Generell
- Es sollte immer ein Mensch sein, der die Verantwortung trägt: Entwickler oder Eigentümer oder Anwender – je nach Anwendungsfall.
- Wir sollten Gesetze erlassen (die es heute noch nicht gibt), dass KI nur bestimmte Arten von Entscheidungen treffen darf: Darf KI abenteuerlustig sein?
Erste Versuche, solche Gesetze zu erlassen stellt der AI-Act dar, der der KI verbietet,
risikoreiche Arbeiten durchzuführen. Es wird erwartet, dass das erst der Anfang ist.
Mein Vorschlag:
KI darf nur kurzfristige Entscheidungen treffen. Das kann KI in vielen Fällen sogar deutlich besser als jeder Mensch. Beispiel: Bremsen, wenn ein Kind auf die Straße läuft.
KI darf auf keinen Fall langfristige Entscheidungen treffen. Das sollte gesetzlich verboten werden. Beispiel: Selbstbestimmung ausüben und entscheiden, in welche Zukunft die KI (und der Roboter) sich entwickeln sollen.
Bei mittelfristigen Entscheidungen sollten wir uns überlegen, was wir der KI erlauben und was nicht. Dabei sollten wir uns an unseren menschlichen Werten orientieren, wovon es etwa 140 gibt. Sie sind einzeln auf deren Zeitkonstante zu überprüfen.
Aber das ist ein anderes Thema.