DJ AIKI: wenn KI den DJ spielt – von Georg-Ludwig Verhoeven

Unser Blogger Georg-Ludwig Verhoeven macht sich Sorgen um die Zukunft der DJs. Werden sie durch KI bald arbeitslos?

von Georg-Ludwig Verhoeven

Die Bässe wummern, die Rhythmen hämmern, die Lichteffekte erzeugen den Eindruck, man sitzt in einem ausbrechenden Vulkan. Die Fans tanzen und schreien, und hier und werden auch Substanzen eingenommen, die die Stimmung weiter anheizen. So kennen wir die Stimmung in Discos. Und wer sitzt vorne am Pult und fährt diese ganze Show? Sehen kann man von der Tanzfläche ja kaum etwas, und letztlich ist es ja auch egal – man amüsiert sich. Wer da sitzt, ist DJ AIKI, und das ist – ein KI-System, aber kein DJ aus Fleisch und Blut. Der Name DJ AIKI klingt zunächst mal japanisch, ist aber einfach die Kombination aus „Artificial Intelligence“ und „Künstliche Intelligenz“.

Geht das? Sind die aktuellen menschlichen DJs mit ihren Millionengagen eine aussterbende Spezies? Weiterlesen ›

Getagged mit: , ,

Pro und Contra: Kann man Maschinen und Robotern Ethik beibringen? (3) – von Prof. Dr. Karsten Weber

Vor zwei Wochen stritten unsere Blogger Michael Mörike und Georg Ludwig Verhoeven darüber, ob Maschinen und Roboter Ethik lernen können. Heute antwortet Prof. Dr. Karsten Weber, Ko-Leiter des Instituts für Sozialforschung und Technikfolgenabschätzung an der OTH Regensburg.

Von Prof. Dr. Karsten Weber

In seinem Maßstäbe setzenden Aufsatz „Computing Machinery and Intelligence“ aus dem Jahr 1950 schlug der britische Mathematiker Alan M. Turing einen Test vor, mit dessen Hilfe entschieden werden könne, ob eine Maschine intelligent sei bzw. denken würde – allerdings muss das Wort „denken“ in diesem Kontext in Anführungszeichen gesetzt werden. Die Idee Turings ist so einfach wie genial: Gelänge es einer Maschine in diesem Test nicht als Maschine identifiziert, sondern für einen Mensch gehalten zu werden, so hätte diese Maschine den Turing-Test bestanden: Die Maschine wäre „intelligent“ oder „denkt“. „Denken“ heißt im Kontext des Tests bestimmte kommunikative Fähigkeiten zu besitzen, ohne dass damit bereits unterstellt werden würde, wie diese realisiert sein müssen. Mit dem Bestehen des Turing-Tests geht somit nicht einher, dass angenommen werden würde, dass eine Maschine genauso denke wie ein Mensch, sondern eben nur, dass es dieser Maschine gelingt, in einem Menschen die Überzeugung zu wecken, mit einem denkenden Wesen zu interagieren. Um den Turing-Test bestehen zu können, ist es also nicht wichtig, dass die Maschine tatsächlich denkt, sondern es ist wichtig, dass Menschen die Überzeugung haben, dass sie denkt. „Denken“ ist hier also eine Zuschreibung; der Unterschied zwischen „X denkt“ und „ich glaube, dass X denkt“ ist, so kann man Turing verstehen, im Grunde nicht sinnvoll zu ziehen. Mit anderen Worten: Bezüglich des Denkens ist nicht so sehr die Erste-Person-Perspektive wichtig, sondern die Dritte-Person-Perspektive. Weiterlesen ›

Regulierung braucht das Land

Gelöste und ungelöste Rechtsfragen des Autonomen Fahrens. Ein Gastbeitrag von Nicolas Woltmann

Die Entwicklung neuer Technologien ist ein Balanceakt: Die bestmögliche Realisierung ihres Nutzens muss in einen Ausgleich gebracht werden mit ihren Risiken. Der Weg bis zu ihrer Einführung kann sich anschließend jedoch als noch weitaus steiniger erweisen. Meint der Entwickler ein angemessenes Verhältnis zwischen Positiv- und Negativfolgen hergestellt zu haben, so muss er nun auch genügend Andere hiervon überzeugen. Dabei kann ihm bisweilen heftiger Gegenwind aus deren Richtung entgegenschlagen. Aus dem Stimmengewirr jener Skeptiker und Mahner stechen scheinbar die Juristen, denen diese Eigenschaft gerne als berufsbedingt unterstellt wird, besonders hervor.

Ein anderes Verständnis von Juristerei lässt sich jedoch mittlerweile an zahlreichen fachübergreifenden Forschungskooperationen zum Thema Künstliche Intelligenz beobachten. Unter Beteiligung von Rechtswissenschaftlern (v.a. aus dem universitären Bereich) werden hier die Chancen und Probleme des digitalen Wandels ergebnisoffen diskutiert und zu Handlungsempfehlungen an Entwickler, Hersteller, Politiker und Nutzer zusammengeführt. Eine Vorreiterstellung darf insoweit – aufgrund ihres fortgeschrittenen Alters von 8 Jahren – der Forschungsstelle RobotRecht zugesprochen werden. In Zusammenarbeit mit sämtlichen der genannten Personengruppen und unter Leitung des Würzburger Lehrstuhlinhabers Prof. Dr. Dr. Eric Hilgendorf bemüht sich das Format in einer Vielzahl abwechslungsreicher Projekte um die rechtliche Begleitung der Einführung moderner Maschinen und Software.

Deren zunehmende Autonomie stellt tradierte juristische Konzepte vor teils große Herausforderungen. Beginnend bei ihrer Zulassungsfähigkeit, über Haftung und Verantwortung, bis hin zu Datenschutz und Urheberrecht bringen diese neuen Systeme eine Menge strittiger Detail-, aber auch Grundsatzfragen mit sich. Ihr schnelles Vordringen in sämtliche Lebensbereiche verschärft die Dringlichkeit, beantworten zu müssen, wie wir als Gesellschaft uns mit den neuen Gegebenheiten arrangieren, inwieweit wir diese einer Regulierung unterziehen wollen.

Begutachtung des Einsatzes intelligenter Systeme duldet keinen Aufschub

Industrie, Landwirtschaft, Haushalt, virtuelle Welt: Den Anwendungsmöglichkeiten scheinen keine Grenzen gesetzt. Besonders exemplarisch für einen akuten Handlungsbedarf stehen Fragen der Mobilität. Das autonome Fahren hat in Form von Fahrassistenzsystemen längst Einzug in den Verkehr auf unseren Straßen gehalten und ist als Zukunftsvision vom vollkommen führerlosen KFZ inzwischen in aller Munde. Auch auf der Projektliste der Forschungsstelle RobotRecht nehmen Aktivitäten in diese Richtung daher prominente Plätze ein: Zu nennen sind hier nicht nur Kooperationen mit namhaften Partnern wie Audi, Daimler, BMW und Volkswagen, sondern auch und vor allem die Berufung von Prof. Hilgendorf in die Ethikkommission der Bundesregierung zum automatisierten und vernetzten Fahren im Jahr 2016.

Der Gesetzgeber hat erkannt, dass eine Begutachtung bestimmter Aspekte des Einsatzes intelligenter Systeme im Straßenverkehr schon heute keinen Aufschub mehr duldet. Das Autonome Fahren könnte so durchaus zum Treiber einer Regulierung der Digitalisierung werden. Neben Einberufung besagter Kommission ist ein weiteres Indiz hierfür in der Reformierung des Straßenverkehrsgesetzes (StVG) vor einem Jahr zu erblicken. Vier neue Vorschriften sollen eine Rechtsgrundlage für den Betrieb (teil)autonomer Fahrzeuge schaffen, also dessen grundsätzliche Zulässigkeit garantieren.

So erlaubt § 1a Abs. 1 StVG den Betrieb von Kraftfahrzeugen „mittels hoch- oder vollautomatisierter Fahrfunktion“, sofern letztere „bestimmungsgemäß verwendet“ wird. Damit wird dem Umstand Rechnung getragen, dass bestimmte Assistenzsysteme laut Hersteller ausschließlich unter ganz konkreten Voraussetzungen (bspw. nur auf Autobahnen) zur Anwendung gebracht werden dürfen. Der eigentliche Knackpunkt der Neuregelung ist jedoch Abs. 2 der Vorschrift, der festlegt, welche Art von Automation überhaupt unter das Regelungsobjekt des Abs. 1 fällt. Gemäß dessen Nr. 3 muss eine jederzeitige Übersteuerungsmöglichkeit der automatisierten Fahrfunktion durch den menschlichen Fahrer gegeben sein. Andere, d.h. vollkommen autonome Fahrzeuge fallen damit bereits per definitionem nicht unter den rechtlich zulässigen KFZ-Betrieb. Deren Verkehr auf deutschen Straßen bleibt nach heutiger Rechtslage damit vorerst eine Zukunftsvision.

Behält der Mensch eine übergeordnete Stellung gegenüber der Maschine?

Der Mensch behält hiermit also regelungstheoretisch seine der Maschine übergeordnete Stellung. Die damit verbundenen Pflichten des Fahrzeugführers („Führer“ ist neben demjenigen, der das Fahrzeug lenkt und in Bewegung versetzt, auch der, der automatisierte Fahrfunktionen ein- und abschaltet) bestimmt § 1b StVG: Er muss ständig in der Lage sein, die Steuerung zu übernehmen, wenn er durch das System dazu aufgefordert wird oder er einen Defekt am System feststellt. Ausdrücklich erlaubt das Gesetz ihm dabei jedoch, sich partiell vom Verkehrsgeschehen abzuwenden. Es bleibt abzuwarten, wie sich nach Sicht der Gerichte das eine mit dem anderen vereinbaren lässt.

Insbesondere ist hiermit über die Haftung für Straßenverkehrsunfälle nichts Neues gesagt. Dies entsprach aber auch nicht der Intention der Reform, sondern angestrebt wurde eine sog. „Kleine Lösung“ bestimmter einzelner Grundproblemstellungen. Dieser Ansatz verdient zweifelsohne Beifall: angesichts der unvorstellbaren Vielfalt heutiger und zukünftiger autonomer Technologie, wäre es geradezu vermessen gewesen, die Reform als Blaupause für die Beantwortung aller mit der Digitalisierung verbunden Einzelfragen heranzuziehen. Zumal das zivilrechtliche Haftungsregime im Mobilitätssektor auch auf teil- und sogar vollautonome KFZ weitestgehend problemlos anwendbar sein dürfte. Die verschuldensabhängige Haftung des Fahrzeugführers wird neben der verschuldensunabhängigen Halterhaftung insoweit einfach an Bedeutung verlieren. Für den Halter eines KFZ besteht in Deutschland eine Versicherungspflicht, sodass einem finanziellen Schadensausgleich keine Rechtslücken entgegenstehen dürften.

Weitaus schwieriger einzuschätzen ist demgegenüber die strafrechtliche Verantwortung für Verkehrsunfälle. So gut neue Technik funktionieren mag, vollständige Sicherheit wird sich auch durch sie nicht garantieren lassen. Die vieldiskutierten Dilemma-Situationen sind hierfür das klassische Beispiel: welchen Weg soll ein vollautomatisiertes Fahrzeug wählen, wenn alle Alternativen mit der Kollision von Personen und deren schwerer Verletzung oder gar deren Tod verbunden sind? Ergo: Nach welchen Maßstäben muss ein Programmierer den das Auto lenkenden Algorithmus gestalten, um nicht gegen das Recht zu verstoßen?

Nach welchen Maßstäben muss ein autonomes Auto agieren, um nicht gegen Recht zu verstoßen?

Zugegeben: Die Diskussion über derartige Dilemmata nimmt bisweilen bizarre oder gar hysterische Züge an, so etwa wenn in Medien von „Algorithmen des Todes“ gesprochen wird. Ein wesentlicher Vorteil selbstfahrender Automobile dürfte darin bestehen, dass Passagiere schneller und vor allem sicherer an ihr Ziel gelangen. Die Unfallzahlen im Straßenverkehr werden rapide sinken! Auch rechtlich können diese Erwägungen fruchtbar gemacht werden, wenn es darum geht, bestimmte Programmierungen als gesetzeskonform einzustufen.

Das Verlangen der Geschädigten oder deren Hinterbliebenen nach Satisfaktion sollte jedoch keinesfalls unterschätzt werden. Tragische (nicht vollständig vermeidbare) Schicksale mögen wir als Gesellschaft bereit sein, als unerwünschte Nebenfolge eines höheren Ganzen zu akzeptieren. Aus der Perspektive des betroffenen Individuums dürfte dies jedoch kaum gelingen. Der Fall eines Familienvaters aus Aschaffenburg, der die Tötung von Frau und Kind durch ein teilautonomes KFZ im Jahr 2012 mitansehen musste, belegt dies eindrücklich. Der Fahrer des Wagens erlitt einen Schlaganfall, sodass das Fahrzeug unter normalen Umständen, d.h. ohne weitere Lenkbewegungen, von der Fahrbahn abgekommen wäre. Das integrierte Fahrassistenzsystem jedoch hielt den Wagen innerorts bei hoher Geschwindigkeit auf der Straße und erfasste die betreffenden Personen tödlich. Das durch den Ehemann und Vater in der Folge angestrengte Strafverfahren wurde durch die zuständige Staatsanwaltschaft eingestellt; der Hersteller des Spurhalteassistenten habe alle zumutbaren Sicherheitsvorkehrungen getroffen. Rechtlich ist dieses Ergebnis nicht zu beanstanden. Dem Hinterbliebenen bleiben Fragen, die kein Staatsanwalt, Autobauer oder Politiker ihm beantworten kann.

Sie sind indes nicht die einzigen, die vor dem Hintergrund des automatisierten Fahrens bisher ungelöst bleiben. Es ließe sich noch Vieles sagen über den Datenschutz im vernetzten Straßenverkehr, die Neustrukturierung des Arbeitsmarkts, Umweltschutz und IT-Sicherheit. Wir wollen es mit diesem Beitrag jedoch fürs Erste halten wie der deutsche Gesetzgeber: Eine „Kleine Lösung“, ein Annähern an die Zukunftsvision führerloser Kraftfahrzeuge step-by-step kann zielführender sein als der weite Sprung – die Balance zwischen Nutzen und Risiko hält man so auf jeden Fall wesentlich leichter.

Über den Autor:
Nicolas Woltmann stammt aus Oberbayern und legte nach dem Studium der Rechtswissenschaften an der Universität Würzburg erfolgreich die Erste Juristische Staatsprüfung ab. Zugleich erlangte er den akademischen Grad des „Europajuristen“, den die Universität Absolventen des Begleitstudiums Europarecht verleiht. Seitdem ist er wissenschaftlicher Mitarbeiter der Forschungsstelle RobotRecht und des Lehrstuhls von Prof. Dr. Dr. Eric Hilgendorf in Würzburg. Seine Forschungsschwerpunkte umfassen zuvorderst das Straf- und Technikrecht, Rechtsgebiete, die er zugleich zum Inhalt seiner angestrebten Promotion gemacht hat. Untersucht werden hier insb. Haftungsfragen i.R. des Einsatzes selbstlernender Software.

Stuttgarter Zukunftssymposium 2018 Ethik und KI

Die Entwicklung künstlicher Intelligenz ist rasant und brisant zugleich – denn sie wirft zahlreiche ethische Fragen auf: Welche Regeln gelten zukünftig für Roboter? Wie entwickelt sich die Arbeitswelt 4.0? Wie viel Autonomie wollen wir für Maschinen? Über diese und andere Kernfragen der Digitalisierung diskutieren führende Köpfe aus Wissenschaft, Wirtschaft, Politik und Zivilgesellschaft unter dem Motto „Mensch bleiben im Maschinenraum“ am 23. und 24. November 2018 in Stuttgart.

Prof. Dr. Dr. Eric Hilgendorf lotet den schmalen Grat zwischen ethischen Bedenken und rechtlichen Fragen aus: Als Mitglied der Ethikkommission für automatisiertes Fahren berichtet er von den juristisch-ethischen Grenzen autonomer Autos. Constanze Kurz, Sprecherin des Chaos Computer Clubs und mehrfach ausgezeichnete Autorin, lotet in Ihrem Vortrag Sicherheitslücken neuer Technologien aus. Prof. Dr. Stefan Heinemann, Leiter der Forschungsgruppe „Ethik der Gesundheitswirtschaft & Medizinethik“ im ifgs Institut für Gesundheit & Soziales, definiert die Chancen und Möglichkeiten von Künstlicher Intelligenz im Bereich der Medizin. Außerdem freuen wir uns auf Prof. Dr. Matthias Bethge, der Lernmethoden von KI erklärt und Prof. Dr. Karsten Weber, der sich seit vielen Jahren mit Technikfolgenabschätzung beschäftigt.

Im Rahmen des zweitägigen Symposiums werden die Experten nicht nur den aktuellen Stand der technologischen Entwicklung in Vorträgen und Workshops beleuchten, sondern gemeinsam mit dem Plenum auch die ethischen und politischen Herausforderungen skizzieren. Begleitend zu unseren Diskussionsforen lernen die Gäste der Tagung Firmen und Institutionen kennen, die ihre digitalen Zukunftsprojekte in einer Ausstellung präsentieren.

Das diesjährige Zukunftssymposium wird veranstaltet vom Ethikverband der Deutschen Wirtschaft, der Giordano-Bruno-Stiftung, dem Weltethos-Institut an der Universität Tübingen und der Integrata-Stiftung. Hier gibt es weitere Informationen zum Programm und zur Tagung.

Pro und Contra: Kann man Maschinen und Robotern Ethik beibringen? (2)

Die HumanIThesia-Blogger Michael Mörike und Georg Ludwig Verhoeven streiten über die Frage, ob Maschinen und Roboter eines Tages auch Ethik lernen können. In der vergangenen Woche sagte Michael Mörike ja, heute sagt Georg Ludwig Verhoeven nein.

Von Georg Ludwig Verhoeven

Menschen sollen „moralisch“ handeln. Das bedeutet, sie haben gewisse Maximen akzeptiert und richten ihr Handeln danach aus. Offensichtlich ist das aber nicht so einfach wie es klingt, denn es gibt viele Situationen, in denen ein Mensch in einer Weise handeln, die er selbst „moralisch“, andere aber „umoralisch“ finden. Aber können Maschinen auch „moralisch“ handeln?

Fest steht: Ihre Leistungsfähigkeit wächst exponentiell – da müsste doch irgendwann genug Leistung zusammenkommen, um neben komplexen Algorithmen auch moralische Aspekte in den Systemen unterzubringen! Aber: Ich glaube nicht, dass das möglich sein wird – nicht aus technischen oder moralischen Gründen, sondern aus logischen und praktischen. Das will ich im Folgenden begründen.

I Welche Moral vermitteln wir Maschinen?

Zuerst stellt sich die Frage, welche Moral wir den Maschinen beibringen sollen. Nehmen wir als eine mögliche Basis die Zehn Gebote. Sie liegen in vielen verschiedenen Versionen vor, aber betrachten wir nur eines der Gebote: „Du sollst nicht töten.“ Das ist eindeutig, und doch wird tagtäglich dagegen verstoßen – durch Menschen, denen andere Werte wichtiger sind als das Leben ihrer Mitmenschen. Das kann ein tödlicher Unfall sein, der durch rücksichtsloses Fahren verursacht wurde, eine Straftat, um sich am Eigentum eines anderen zu bereichern, eine Hinrichtung, um ihn im Namen des Gesetzes zu bestrafen, oder der ganz normale militärische Alltag im Krieg. Es kann der Verkauf von gesundheitsschädlichen Genussmitteln sein und vieles andere. Alle diese Handlungsweisen sind in der Gesellschaft präsent und mehr oder weniger akzeptiert – sollen Maschinen den gleichen Grad an „Toleranz“ besitzen?

Eine Möglichkeit, einer Maschine nun etwas beizubringen – zum Beispiel in Form eines Algorithmus – besteht darin, dass der Algorithmus die Konsequenzen seiner Entscheidung an vorgegebenen „Werten“ misst und dann die Entscheidung fällt zu handeln – oder eben nicht. Wenn solche wohldefinierte Zielwerte vorliegen, ist die Optimierung in aller Regel rechnerisch möglich – vom einfachen Simplex-Verfahren bis hin zum komplexen Problem des Handlungreisenden, der seine Fahrstrecke optimieren will – wo allerdings der Rechenaufwand exponentiell mit das Anzahl der Städte ansteigt und bald jede verfügbare Rechenkapazität sprengt. Aber oft gibt es noch nicht einmal einen Zielwert. Wenn nun ein intelligentes System die Konsequenzen seines Handelns im Sinne moralischer Maximen berücksichtigt, wird es schnell an seine Grenzen stoßen.

Ein oft zitiertes Beispiel ist das autonom fahrende Fahrzeug, das in einer ausweglosen Situation vor der Entscheidung steht, seinen Fahrer, ein Kind oder eine Passantin zu überfahren. Niemand hat bisher eine plausible Lösung dieses Problems geliefert (abgesehen von der „trivialen“ Lösung, dass das Auto nur so schnell fahren darf, dass es in Sichtweite anhalten kann, s. §3, S. 4 StVO). Wie soll nun das autonome Fahrzeug reagieren? Wie soll es programmiert werden?

Logisch einfacher, aber dramatischer, ist der Einsatz autonomer militärischer Geräte (z. B. Drohnen), die im Einsatz selbst entscheiden, ob das Bild, das sie mit ihrer Kamera erfassen und intelligent auswerten. militärische Ziele oder harm- und schutzlose Unbeteiligte zeigt. Mit der Entscheidung, in einer solchen Situation das tödliche Feuer zu eröffnen, ist auch jeder „menschliche“ Kampfpilot konfrontiert – und oft überfordert.

II Wer entscheidet über die richtigen moralischen Grundsätze?

Jeder präzise und eindeutig beschreibbare Algorithmus kann im Prinzip in ein System implementiert werden, aber Moral ist nicht präzise und eindeutig beschreibbar. Entscheidungen, die für einen Menschen moralisch richtig sind, können für einen anderen moralisch falsch und verwerflich sein. Moral ist ein philosphisches Konstrukt, das sich auch mit der Zeit ändert. Wer entscheidet dann letztlich, welche Moral in die Maschine implementiert werden soll? Ein ausgewähltes Gremium von Wissenschaftlern, Philosophen, Managern, Theologen? Oder sollen etwa die Entwickler*innen alles von der Bibel bis zur Straßenverkehrsordnung interpretieren und implementieren, wie sie es für richtig halten?

Nehmen wir jetzt trotzdem einmal an, einem System ist „moralisches Handeln“ implementiert worden. Vor dem Einsatz in der „richtigen Welt“ muss es im Labor ausgiebig getestet werden, denn es wird ja unter Umständen lebenswichtige Entscheidungen fällen müssen. Hier stellt sich ein ganz ähnliches Problem wie bei der Spezifikation: Wer legt die Testfälle fest, wie vollständig sind sie, und welches Testergebnis ist „richtig“, und welches ist falsch?

III Welche Testfälle sollte man Maschinen geben?

In Systemtests arbeitet man oft mit Stichproben, weil eine vollständige Testabdeckung in aller Regel umöglich ist. In kniffligen moralischen Fragen (wie dem berühmten „Todesalgorithmus“, mit dem das autonom fahrende Fahrzeug entscheidet, wer den Unfall überlegt) sind sich die Menschen oft uneinig und können oder wollen keine verbindliche Antwort geben – was soll das KI-System in dolchen Fällen tun. Wie ist in solchen Fällen ein Testergebnis zu bewerten?

Es mag nicht möglich sein, die Unmöglichkeit eines moralisch handelnden KI-Systems logisch zu beweisen. Aber angesichts der komplexen Fragen schon zum Thema Spezifikation und Test fühlt man sich an den Turmbau zu Babel erinnert, der in einer Sprachverwirrung endete (1. Buch Mose, Kap. 11) – der Turm wurde nicht fertig.

Aus alldem folgt, dass die Schwierigkeiten, die vor „moralisch“ handelnden Maschinen liegen, enorm sind, und dass daher die Wahrscheinlichkeit, dass es in absehbarer Zeit möglich sein wird, sehr nahe bei Null ist. Ob es wünschenswert ist, ist vor diesem Hintergrund nochmal eine ganz andere Frage.

Top

Durch die weitere Nutzung der Seite stimmen Sie der Verwendung von Cookies zu. Weitere Informationen finden Sie in der Datenschutzerklärung.

Die Cookie-Einstellungen auf dieser Website sind auf "Cookies zulassen" eingestellt, um das beste Surferlebnis zu ermöglichen. Wenn du diese Website ohne Änderung der Cookie-Einstellungen verwendest oder auf "Akzeptieren" klickst, erklärst du sich damit einverstanden.

Schließen