Ethik und KI: Was muss der Gesetzgeber im Jahr 2018 ändern?

Ethik und KI: Was muss der Gesetzgeber im Jahr 2018 ändern?

Wie soll der Gesetzgeber mit den Entwicklungen im Bereich KI umgehen? Wollen wir „Digital first, Bedenken second“? Politische Leitlinien zum Jahreswechsel.

Von Georg Ludwig Verhoeven

Im aktuellen Lagebericht des Bundesamts für Sicherheit in der Informationstechnik vom November 2017 beklagt der deutsche Innenminister Thomas de Maizière, dass „große Teile der Wirtschaft, aber auch Verwaltung und Privatleute“ nicht ausreichend gegen Cyberangriffe geschützt sind und so kriminellen Geschäftsmodellen das Leben leicht machen. Als einen Grund hierfür macht er aus: „Bequemlichkeit hat zu oft Vorrang vor Sicherheit“. Also liegt die Schuld beim User, beim Bürger selbst?

In diesem Lagebericht geht es vorrangig um Schadsoftware und wie man sich dagegen schützen kann / soll / muss. Interessant dabei: Das Thema Künstliche Intelligenz kommt in diesem Bericht nicht vor. Da darf man fragen: Muss erst ein KI-Angriff vom Format eines WannyCry stattfinden, muss erst massiver Schaden entstehen, ehe sich Politik und Gesetzgeber darum kümmern?

Was hat der Gesetzgeber im Bereich KI auf dem Schirm?

Traditionelle Technologien – Straßenverkehr, Bauwirtschaft, Lebensmittelwirtschaft, Medizin etc. – sind national und international bis ins Detail reglementiert – man sehe sich nur die unterschiedlichen EG-Verordnungen zu Bananen an. Jeder Bauplan wird auf Statik und Einhaltung der – oft rein ästhetischen – Vorgaben eines Bebauungsplans, jedes Fahrzeug in Crash- und anderen Tests auf Sicherheit, Umweltverhalten etc. geprüft; alle zwei Jahre muss es zum TÜV. Es gibt Geschwindigkeitsbeschränkungen und andere Ge- und Verbote im Straßenverkehr, Zulassungsverfahren für Medikamente usw. Sicher: Nicht jedes Risiko kann so ausgeschlossen, nicht alle Regeln eingehalten, aber zumindest gibt es ein Regelwerk, das die gewollte Situation beschreibt.

Wenig davon in der Informationstechnologie (IT), und speziell das Thema Künstliche Intelligenz (KI) scheint der Gesetzgeber noch gar nicht auf dem Schirm zu haben. Also kann jeder Hersteller bzw. Entwickler nach Herzenslust immer „leistungsfähigere“ Systeme entwickeln und auf den Markt bringen, wo es auch erst einmal eingesetzt werden kann.

Wer liest eigentlich AGBs?

Das Handwerkzeug ist da: Mit der ABE (Allgemeine Betriebserlaubnis) wird ein Fahrzeug zum Straßenverkehr zugelassen, warum soll es das nicht auch für IT / KI – Systeme geben? Bei jeder Arzneimittelwerbung wird auf Risiken und Nebenwirkungen hingewiesen – wieso nicht Google, Facebook und Co? Im AGB-Gesetz (inzwischen Teil des BGB) wird der Verbraucher vor dem „Kleingedruckten“ zu seinem Nachteil geschützt – wer weiß schon, welchen Regelungen er/sie durch das Klicken auf „I agree“ zugestimmt hat? Der schiere Umfang dieser Texte verhindert, dass sie komplett verstanden werden; um der Bequemlichkeit willen, und nicht Stunden mit dem Lesen eines von Juristen verfassten Textes zu verbringen, den man eh nicht versteht, wird dann eben „I agree“ geklickt, und Google, Facebook & Co. dürfen meine Daten beliebig auswerten und verknüpfen, meine Fotos und Texte zum Training ihrer KI-Programme verwenden.

Wir wissen heute noch nicht, was im Einzelnen geregelt werden kann und muss, die Industrie wird sich gegen vieles davon wehren, nicht alles wird eingehalten, nicht jeder Verstoß bestraft werden. Aber es wird höchste Zeit, dass Politik und Gesetzgeber sich mit dem Thema beschäftigen, Know-how aufbauen und damit anfangen, die rechtlichen Grundlagen zu schaffen.

Und „wir“, die Zivilgesellschaft müssen das von der Politik einfordern. Wer „Digital first, Bedenken second“ propagiert oder zur Handlungsmaxime macht, darf sich nicht wundern, wenn irgendwann eine Zeile aus einer E-Mail, ein Foto aus dem privatesten Bereich öffentlich wird, wenn ein Kreditinstitut oder eine Versicherung wegen einer Einkaufsgewohnheit einen Vertrag ablehnen, um nur wenige Beispiele zu nennen. Und das alles ganz legal! Wollen wir das?