Datenreichtum und Datenschutz kombinieren

Nutzung der Informationstechnologie

Wie mit der modernen Blockchain-Technologie unsere Privatsphäre wieder geschützt werden kann.

Von Michael Mörike

In der Internetwelt gibt es zwei gegenläufige Trends: Einerseits greifen Unternehmen mehr und mehr Daten von uns ab und verdienen damit Geld. Wir geben die Daten ziemlich freiwillig her – um nicht zu sagen ziemlich leichtfertig – ohne dafür eine angemessene Gegenleistung zu bekommen. Dabei wird unsere Privatsphäre immer kleiner. Andererseits werden immer neue gesetzliche Schutzmechanismen für unsere Privatsphäre erlassen, die wir eher als zusätzlichen Aufwand denn als wirklichen Schutz empfinden. Neuestes Beispiel in der EU ist die DSGVO. Aber auch anderswo gibt es solche Bestrebungen.

Ist uns unsere Privatsphäre so unwichtig? Wir haben uns evolutionär als – mehr oder weniger gute – Mischung aus Individualwesen und Sozialwesen entwickelt: Wir brauchen daher sowohl eine Privatsphäre (und haben also auch Eigentum), als auch Gesellschaft mit anderen Menschen (und haben daher auch starke soziale Eigenschaften und Gemeinschaftsgüter). Nun sind die Grenzen zwischen den beiden Gebieten nicht für alle Zeiten unverrückbar festgelegt. Sie sind schon heute in den verschiedenen Kulturen sehr unterschiedlich. Bringt es die Internetkultur neuerdings mit sich, dass wir unsere Privatsphäre – mehr oder weniger freiwillig – verkleinern? Schließlich wird ja auch das Teilen (Sharing) immer beliebter und die steigende Anzahl von Menschen auf unserem Globus macht es immer sinnvoller, um die uns global zur Verfügung stehenden Ressourcen zu schonen.

Bisher schien es so, als ginge beides nicht zusammen. Oder geht es etwa doch? Hoffnungsvolle Anzeichen kommen mit dem neuen Begriff der self-sovereign identity (SSI, selbstbe-stimmte Identität). Technisch wird sie möglich mit Hilfe der Blockchain und dem Sovrin-Protokoll. Sie kennen das nicht? Grob gesagt geht das so: Schon bisher gab es Trust-Center, die in CA’s betrieben wurden. Das Problem dabei war: Was ist wenn eines dieser zentral organisierten CA seinen Betrieb aufgibt oder seine Betriebsbedingungen massiv ändert? Dann waren alle damit verbürgten Vertragsverhältnisse gebrochen oder wertlos, weil z.B. nicht mehr bezahlbar. Das hat viele davon abgehalten, darauf zu vertrauen. Ein Netz von Blockchains kann diese zentralen Trustcenter ersetzen. Wenn es internetweit genauso gut verfügbar ist wie DNS, dann kann es nicht mehr beseitigt oder korrumpiert werden. Mit Hilfe von per Blockchain zertifizierten Frage-Antwort-Protokollen können dann – für jedermann erschwinglich, da kostenlos – Abfragen von Daten oder Rechten (Berechtigungen) gemacht werden, die die Identität der abgefragten Person nicht preisgeben müssen. Der Mensch dahinter bleibt anonym.

Es braucht dann auch keine Datenkraken mehr, die die Daten von vielen Menschen horten, um sie Dritten zur Auswertung weiterzugeben. Deren Vermittlerrolle entfällt und die Daten sind trotzdem im Umlauf – allerdings anonym. Die Daten werden dann auch nicht mehr gestohlen, weil dies keinen Sinn mehr macht. Datenreichtum kann dann ohne die unschönen Nebenwirkungen vom Verlust der Privatsphäre seine volle Wirkung entfalten.

Nun – bis es so weit ist, dauert es aber noch etwas. Die im Internet dafür benötigten Protokolle sind seit Mitte 2017 in Arbeit und stehen vermutlich demnächst öffentlich zur Verfügung. Dann muss sich zunächst auch noch das Netz der Blockchains aufbauen und es muss üblich werden, es zu nutzen. Und erst, wenn es intensiv genutzt wird, sterben die alten „schmutzigen“ Daten so langsam aus, indem sie im Laufe der Zeit unbrauchbar werden. Immerhin: Es gibt Aussicht auf Besserung!

Weiterführende Links:

DJ AIKI – wenn KI den DJ spielt

Unser Blogger Georg-Ludwig Verhoeven macht sich Sorgen um die Zukunft der DJs. Werden sie durch KI bald arbeitslos?

von Georg-Ludwig Verhoeven

Die Bässe wummern, die Rhythmen hämmern, die Lichteffekte erzeugen den Eindruck, man sitzt in einem ausbrechenden Vulkan. Die Fans tanzen und schreien, und hier und werden auch Substanzen eingenommen, die die Stimmung weiter anheizen. So kennen wir die Stimmung in Discos. Und wer sitzt vorne am Pult und fährt diese ganze Show? Sehen kann man von der Tanzfläche ja kaum etwas, und letztlich ist es ja auch egal – man amüsiert sich. Wer da sitzt, ist DJ AIKI, und das ist – ein KI-System, aber kein DJ aus Fleisch und Blut. Der Name DJ AIKI klingt zunächst mal japanisch, ist aber einfach die Kombination aus „Artificial Intelligence“ und „Künstliche Intelligenz“.

Geht das? Sind die aktuellen menschlichen DJs mit ihren Millionengagen eine aussterbende Spezies?

Was machen DJs? Abgesehen von denen, die selbst auch Musik produzieren, stellen sie Musik nach gewissen Kriterien zusammen und spielen sie über Stunden ab. Manchmal fügen sie noch Lightshow, eigene Ansagen oder Tanzeinlagen hinzu. Können das nicht Maschinen und/oder KI-Systeme übernehmen?

Und wie die das können: Beim Zusammenstellen von „Playlists“ lässt sich der klassische DJ von gewissen Kriterien leiten und kann aus seiner Musiksammlung die passenden Stücke in der richtigen Reinhefolge asuswählen. Solche Kriterien können sein: Der Rhythmus, das Tempo, die Tonart, die Sprache, die Besetzung (vokal und/oder instrumental), Entstehungsdatum, ethnische / nationale Herkunft, Hitparadenplatzierunge (wann?) und einige mehr. Während der Vorführung wird dann noch Lightshow und Tanz hinzugefügt– mehr oder wenig spontan oder auch automatisch.

In der Vergangenheit musste ein DJ viel Musik kennen (und tausende von Tonträgern kaufen), um solche Playlists zusammenzustellen. Bei DJ AIKI ist das nicht mehr nötig: Das System ermittelt aus sämtlichen in Netz oder Cloud verfügbaren Musikdateien die notwendigen Kriterien und stellt daraus Playlists zusammen, wiederum nach gewissen Kriterien. Die Lightshow wird aus dem akustischen Signal live erzeugt, und auch hier können bestimmte Parameter (Farben, Helligkeit, Effekte etc. ) angepasst werden. Wenn man jetzt noch – entweder nach dem Zufallsprinzip oder auch parametrisiert – Rufe und Tanzbewegungen (eines Roboters oder digitale, ggf. bearbeitete Videoaufzeichnungen und gleich auf den Monitor) dazupackt, ist die Show fertig. Ob die Show erfolgreich war, lernt DJ AIKI aus der Größe und Zusammensetzung des Publikums, Lautstärke und Wildheit der Tanzenden, dem Getränkekonsum und letztlich dem Umsatz / Gewinn der Disko an diesem Tag. Bei Bedarf wird dann nachgeregelt, bis es passt. Und dann werden die erfolgreichen Playlists noch – kostenpflichtig – vermarktet.

Keine guten Aussichten für DJ Bobo, DJ Ötzi, David Guetta und wie sie alle heißen?

Pro und Contra: Kann man Maschinen und Robotern Ethik beibringen? (3)

Vor zwei Wochen stritten unsere Blogger Michael Mörike und Georg-Ludwig Verhoeven darüber, ob Maschinen und Roboter Ethik lernen können. Heute antwortet Prof. Dr. Karsten Weber, Ko-Leiter des Instituts für Sozialforschung und Technikfolgenabschätzung an der OTH Regensburg.

Von Prof. Dr. Karsten Weber

In seinem Maßstäbe setzenden Aufsatz „Computing Machinery and Intelligence“ aus dem Jahr 1950 schlug der britische Mathematiker Alan M. Turing einen Test vor, mit dessen Hilfe entschieden werden könne, ob eine Maschine intelligent sei bzw. denken würde – allerdings muss das Wort „denken“ in diesem Kontext in Anführungszeichen gesetzt werden. Die Idee Turings ist so einfach wie genial: Gelänge es einer Maschine in diesem Test nicht als Maschine identifiziert, sondern für einen Mensch gehalten zu werden, so hätte diese Maschine den Turing-Test bestanden: Die Maschine wäre „intelligent“ oder „denkt“. „Denken“ heißt im Kontext des Tests bestimmte kommunikative Fähigkeiten zu besitzen, ohne dass damit bereits unterstellt werden würde, wie diese realisiert sein müssen. Mit dem Bestehen des Turing-Tests geht somit nicht einher, dass angenommen werden würde, dass eine Maschine genauso denke wie ein Mensch, sondern eben nur, dass es dieser Maschine gelingt, in einem Menschen die Überzeugung zu wecken, mit einem denkenden Wesen zu interagieren. Um den Turing-Test bestehen zu können, ist es also nicht wichtig, dass die Maschine tatsächlich denkt, sondern es ist wichtig, dass Menschen die Überzeugung haben, dass sie denkt. „Denken“ ist hier also eine Zuschreibung; der Unterschied zwischen „X denkt“ und „ich glaube, dass X denkt“ ist, so kann man Turing verstehen, im Grunde nicht sinnvoll zu ziehen. Mit anderen Worten: Bezüglich des Denkens ist nicht so sehr die Erste-Person-Perspektive wichtig, sondern die Dritte-Person-Perspektive.

Nun kann man diese Aussage über das Denken auch auf andere psychische Phänomene wie Emotionen, Wünsche, Ziele, Intentionen, Motive und so fort ausweiten und sagen, dass auch der Unterschied zwischen „X hat Gefühle“ und „ich glaube, dass X Gefühle hat“ oder „X hegt Überzeugungen“ und „ich glaube, dass X Überzeugungen hegt“ und vielen anderen ähnlichen psychischen Phänomenen nicht sinnvoll gezogen werden kann, da wir stets nur das beobachtbare äußere Verhalten zur Beurteilung darüber heranziehen können, ob unser Gegenüber denkt, Gefühle hat oder Überzeugungen hegt. John McCarthy hat diese Überlegung schließlich in seinen Arbeiten so zugespitzt, dass er selbst so einfachen Mechanismen wie Heizungsthermostaten das Haben von Überzeugungen zubilligte. Man kann Turing ebenso wie McCarthy so verstehen, dass zur Operationalisierung der Messung von Intelligenz oder auch von Emotionen oder gar Moralität stets nur das äußere Verhalten des jeweiligen Untersuchungsobjekts herangezogen werden kann; folgt man diesem Grundannahme, macht die Unterscheidung von „X denkt“ und „ich glaube, dass X denkt“ nun tatsächlich keinen Sinn mehr, weil wir die Aussage „X denkt“ nur auf Grundlage des äußeren Anscheins, also dem sichtbaren Verhalten, von X treffen können.

Das heißt nichts anderes, als dass es unerheblich ist, ob unser Gegenüber tatsächlich mentale Zustände hat, wirklich denkt, fühlt, glaubt, wünscht, oder ob wir nur der Überzeugung sind, dass es so sei; für unser Handeln spielt das keine Rolle, solange wir mit unseren Zuschreibungen erfolgreich sind. In der Gestaltung von Geräten und insbesondere im Bereich der Mensch-Maschine-Interaktion kann man sich dies nun erfolgreich zunutze machen. Wenn die Designer solcher Geräte es erreichen können, in den Nutzern die Überzeugung zu wecken, dass das Gerät denkt, fühlt, glaubt, wünscht – kurz: augenscheinlich etwas Ähnliches wie man selbst ist, so sind Interaktionen meist erfolgreicher.

Die moralische Frage

Designer und Hersteller von Robotern oder KI-Systemen könnten daher versucht sein Maschinen auf eine solche Weise zu gestalten, dass sie von Menschen als künstliche moralische Agenten angesehen werden. Der Ausdruck „künstlicher moralischer Agent“ soll dabei heißen, dass Menschen eher die Maschine für deren Handlungen und den Folgen dieser Handlungen verantwortlich machen als deren Designer oder Hersteller. Mit Sicherheit werden diese Agenten versagen – ganz genauso wie ordinäre Maschinen das zuweilen ebenfalls tun. Wenn dies geschieht und diese Maschinen als künstliche moralische Agenten akzeptiert werden würden, machten jene Menschen, die mit ihnen interagieren, vermutlich die Maschinen für ihre Aktionen und deren Folgen verantwortlich – zumindest bis zu einem gewissen Maß.

Das wäre moralisch aber mehr als zweifelhaft, doch derzeit existieren keine auf autonome artifizielle Agenten anwendbaren moralischen Normen. Aber eher früher als später werden solche Normen dringend benötigt: Nicht weil wir bereits in der Lage wären, künstliche moralische Agenten zu bauen, sondern weil sie durch schlichte Zuschreibung erzeugt werden – und das ist sehr einfach und ein alltäglicher Vorgang. Es ist daher naheliegend, dass entsprechende moralische und soziale Normen die Designer und Gestalter solcher Maschinen ansprechen müssen, nicht die Maschinen selbst. Denn in Bezug auf die Mensch-Maschine-Interaktion kann man sehr leicht Szenarien bspw. für den Bereich des E-Commerce entwerfen, in denen es durchaus nützlich wäre, die Überzeugung bei Menschen zu erzeugen oder zu stärken, dass das jeweilige mechanische Gegenüber ein wohlinformierter, moralisch verantwortlicher und vertrauenswürdiger Agent ist, der nur im Interesse der Menschen agiert. Um es direkt zu sagen: Autonome artifizielle Agenten könnten dazu benutzt werden, Menschen zu verführen oder gar zu betrügen.

Daher sollte folgende moralische Norm stets beachtet werden: Gestalte keine Maschinen, die die menschlichen Interaktionspartner vergessen lassen, dass sie mit Maschinen interagieren. Damit würde die Unvermeidbarkeit der Vermenschlichung von Maschinen, wie sie im vorliegenden Text beschrieben wurde, entgegengewirkt und sichergestellt, dass die Aktionen eines autonomen artifiziellen Agenten stets dessen Designern und Herstellern zugerechnet werden kann. Ähnlich argumentieren Deborah Johnson und Keith W. Miller, wenn sie schreiben: „Debate about the moral agency of computer systems takes place at a certain level of abstraction and the implication of our analysis is that discourse at this level should reflect and acknowledge the people who create, control, and use computer systems. In this way, developers, owners, and users are never let off the hook of responsibility for the consequences of system behavior.“

Anmerkung: Der vorliegende Beitrag stellt eine stark gekürzte Fassung eines vor einigen Jahren publizierten Textes mit dem Titel „Ist da jemand? Über unsere Bereitschaft und die Unvermeidbarkeit Maschinen zu vermenschlichen“. Weitere Texte des Autors zum Thema finden sich auf seiner Webseite.

Über den Autor

Prof. Dr. Weber ist Ko-Leiter des Instituts für Sozialforschung und Technikfolgenabschätzung (IST) an der Ostbayerischen Technischen Hochschule (OTH) Regensburg. Er forscht und lehrt insbesondere im Bereich der Technikfolgenabschätzung und Technikethik, ist Mitglied der Präsidiumskommission „Ethische Fragen in der Medizinischen Information, Biometrie und Epidemiologie“ und des Ethikgremiums des „Bayerischen IT Sicherheitsclusters“. Prof. Dr. Weber ist Fachbeirat der Integrata-Stiftung.

Regulierung braucht das Land

Gelöste und ungelöste Rechtsfragen des Autonomen Fahrens. Ein Gastbeitrag von Nicolas Woltmann

Die Entwicklung neuer Technologien ist ein Balanceakt: Die bestmögliche Realisierung ihres Nutzens muss in einen Ausgleich gebracht werden mit ihren Risiken. Der Weg bis zu ihrer Einführung kann sich anschließend jedoch als noch weitaus steiniger erweisen. Meint der Entwickler ein angemessenes Verhältnis zwischen Positiv- und Negativfolgen hergestellt zu haben, so muss er nun auch genügend Andere hiervon überzeugen. Dabei kann ihm bisweilen heftiger Gegenwind aus deren Richtung entgegenschlagen. Aus dem Stimmengewirr jener Skeptiker und Mahner stechen scheinbar die Juristen, denen diese Eigenschaft gerne als berufsbedingt unterstellt wird, besonders hervor.

Ein anderes Verständnis von Juristerei lässt sich jedoch mittlerweile an zahlreichen fachübergreifenden Forschungskooperationen zum Thema Künstliche Intelligenz beobachten. Unter Beteiligung von Rechtswissenschaftlern (v.a. aus dem universitären Bereich) werden hier die Chancen und Probleme des digitalen Wandels ergebnisoffen diskutiert und zu Handlungsempfehlungen an Entwickler, Hersteller, Politiker und Nutzer zusammengeführt. Eine Vorreiterstellung darf insoweit – aufgrund ihres fortgeschrittenen Alters von 8 Jahren – der Forschungsstelle RobotRecht zugesprochen werden. In Zusammenarbeit mit sämtlichen der genannten Personengruppen und unter Leitung des Würzburger Lehrstuhlinhabers Prof. Dr. Dr. Eric Hilgendorf bemüht sich das Format in einer Vielzahl abwechslungsreicher Projekte um die rechtliche Begleitung der Einführung moderner Maschinen und Software.

Deren zunehmende Autonomie stellt tradierte juristische Konzepte vor teils große Herausforderungen. Beginnend bei ihrer Zulassungsfähigkeit, über Haftung und Verantwortung, bis hin zu Datenschutz und Urheberrecht bringen diese neuen Systeme eine Menge strittiger Detail-, aber auch Grundsatzfragen mit sich. Ihr schnelles Vordringen in sämtliche Lebensbereiche verschärft die Dringlichkeit, beantworten zu müssen, wie wir als Gesellschaft uns mit den neuen Gegebenheiten arrangieren, inwieweit wir diese einer Regulierung unterziehen wollen.

Begutachtung des Einsatzes intelligenter Systeme duldet keinen Aufschub

Industrie, Landwirtschaft, Haushalt, virtuelle Welt: Den Anwendungsmöglichkeiten scheinen keine Grenzen gesetzt. Besonders exemplarisch für einen akuten Handlungsbedarf stehen Fragen der Mobilität. Das autonome Fahren hat in Form von Fahrassistenzsystemen längst Einzug in den Verkehr auf unseren Straßen gehalten und ist als Zukunftsvision vom vollkommen führerlosen KFZ inzwischen in aller Munde. Auch auf der Projektliste der Forschungsstelle RobotRecht nehmen Aktivitäten in diese Richtung daher prominente Plätze ein: Zu nennen sind hier nicht nur Kooperationen mit namhaften Partnern wie Audi, Daimler, BMW und Volkswagen, sondern auch und vor allem die Berufung von Prof. Hilgendorf in die Ethikkommission der Bundesregierung zum automatisierten und vernetzten Fahren im Jahr 2016.

Der Gesetzgeber hat erkannt, dass eine Begutachtung bestimmter Aspekte des Einsatzes intelligenter Systeme im Straßenverkehr schon heute keinen Aufschub mehr duldet. Das Autonome Fahren könnte so durchaus zum Treiber einer Regulierung der Digitalisierung werden. Neben Einberufung besagter Kommission ist ein weiteres Indiz hierfür in der Reformierung des Straßenverkehrsgesetzes (StVG) vor einem Jahr zu erblicken. Vier neue Vorschriften sollen eine Rechtsgrundlage für den Betrieb (teil)autonomer Fahrzeuge schaffen, also dessen grundsätzliche Zulässigkeit garantieren.

So erlaubt § 1a Abs. 1 StVG den Betrieb von Kraftfahrzeugen „mittels hoch- oder vollautomatisierter Fahrfunktion“, sofern letztere „bestimmungsgemäß verwendet“ wird. Damit wird dem Umstand Rechnung getragen, dass bestimmte Assistenzsysteme laut Hersteller ausschließlich unter ganz konkreten Voraussetzungen (bspw. nur auf Autobahnen) zur Anwendung gebracht werden dürfen. Der eigentliche Knackpunkt der Neuregelung ist jedoch Abs. 2 der Vorschrift, der festlegt, welche Art von Automation überhaupt unter das Regelungsobjekt des Abs. 1 fällt. Gemäß dessen Nr. 3 muss eine jederzeitige Übersteuerungsmöglichkeit der automatisierten Fahrfunktion durch den menschlichen Fahrer gegeben sein. Andere, d.h. vollkommen autonome Fahrzeuge fallen damit bereits per definitionem nicht unter den rechtlich zulässigen KFZ-Betrieb. Deren Verkehr auf deutschen Straßen bleibt nach heutiger Rechtslage damit vorerst eine Zukunftsvision.

Behält der Mensch eine übergeordnete Stellung gegenüber der Maschine?

Der Mensch behält hiermit also regelungstheoretisch seine der Maschine übergeordnete Stellung. Die damit verbundenen Pflichten des Fahrzeugführers („Führer“ ist neben demjenigen, der das Fahrzeug lenkt und in Bewegung versetzt, auch der, der automatisierte Fahrfunktionen ein- und abschaltet) bestimmt § 1b StVG: Er muss ständig in der Lage sein, die Steuerung zu übernehmen, wenn er durch das System dazu aufgefordert wird oder er einen Defekt am System feststellt. Ausdrücklich erlaubt das Gesetz ihm dabei jedoch, sich partiell vom Verkehrsgeschehen abzuwenden. Es bleibt abzuwarten, wie sich nach Sicht der Gerichte das eine mit dem anderen vereinbaren lässt.

Insbesondere ist hiermit über die Haftung für Straßenverkehrsunfälle nichts Neues gesagt. Dies entsprach aber auch nicht der Intention der Reform, sondern angestrebt wurde eine sog. „Kleine Lösung“ bestimmter einzelner Grundproblemstellungen. Dieser Ansatz verdient zweifelsohne Beifall: angesichts der unvorstellbaren Vielfalt heutiger und zukünftiger autonomer Technologie, wäre es geradezu vermessen gewesen, die Reform als Blaupause für die Beantwortung aller mit der Digitalisierung verbunden Einzelfragen heranzuziehen. Zumal das zivilrechtliche Haftungsregime im Mobilitätssektor auch auf teil- und sogar vollautonome KFZ weitestgehend problemlos anwendbar sein dürfte. Die verschuldensabhängige Haftung des Fahrzeugführers wird neben der verschuldensunabhängigen Halterhaftung insoweit einfach an Bedeutung verlieren. Für den Halter eines KFZ besteht in Deutschland eine Versicherungspflicht, sodass einem finanziellen Schadensausgleich keine Rechtslücken entgegenstehen dürften.

Weitaus schwieriger einzuschätzen ist demgegenüber die strafrechtliche Verantwortung für Verkehrsunfälle. So gut neue Technik funktionieren mag, vollständige Sicherheit wird sich auch durch sie nicht garantieren lassen. Die vieldiskutierten Dilemma-Situationen sind hierfür das klassische Beispiel: welchen Weg soll ein vollautomatisiertes Fahrzeug wählen, wenn alle Alternativen mit der Kollision von Personen und deren schwerer Verletzung oder gar deren Tod verbunden sind? Ergo: Nach welchen Maßstäben muss ein Programmierer den das Auto lenkenden Algorithmus gestalten, um nicht gegen das Recht zu verstoßen?

Nach welchen Maßstäben muss ein autonomes Auto agieren, um nicht gegen Recht zu verstoßen?

Zugegeben: Die Diskussion über derartige Dilemmata nimmt bisweilen bizarre oder gar hysterische Züge an, so etwa wenn in Medien von „Algorithmen des Todes“ gesprochen wird. Ein wesentlicher Vorteil selbstfahrender Automobile dürfte darin bestehen, dass Passagiere schneller und vor allem sicherer an ihr Ziel gelangen. Die Unfallzahlen im Straßenverkehr werden rapide sinken! Auch rechtlich können diese Erwägungen fruchtbar gemacht werden, wenn es darum geht, bestimmte Programmierungen als gesetzeskonform einzustufen.

Das Verlangen der Geschädigten oder deren Hinterbliebenen nach Satisfaktion sollte jedoch keinesfalls unterschätzt werden. Tragische (nicht vollständig vermeidbare) Schicksale mögen wir als Gesellschaft bereit sein, als unerwünschte Nebenfolge eines höheren Ganzen zu akzeptieren. Aus der Perspektive des betroffenen Individuums dürfte dies jedoch kaum gelingen. Der Fall eines Familienvaters aus Aschaffenburg, der die Tötung von Frau und Kind durch ein teilautonomes KFZ im Jahr 2012 mitansehen musste, belegt dies eindrücklich. Der Fahrer des Wagens erlitt einen Schlaganfall, sodass das Fahrzeug unter normalen Umständen, d.h. ohne weitere Lenkbewegungen, von der Fahrbahn abgekommen wäre. Das integrierte Fahrassistenzsystem jedoch hielt den Wagen innerorts bei hoher Geschwindigkeit auf der Straße und erfasste die betreffenden Personen tödlich. Das durch den Ehemann und Vater in der Folge angestrengte Strafverfahren wurde durch die zuständige Staatsanwaltschaft eingestellt; der Hersteller des Spurhalteassistenten habe alle zumutbaren Sicherheitsvorkehrungen getroffen. Rechtlich ist dieses Ergebnis nicht zu beanstanden. Dem Hinterbliebenen bleiben Fragen, die kein Staatsanwalt, Autobauer oder Politiker ihm beantworten kann.

Sie sind indes nicht die einzigen, die vor dem Hintergrund des automatisierten Fahrens bisher ungelöst bleiben. Es ließe sich noch Vieles sagen über den Datenschutz im vernetzten Straßenverkehr, die Neustrukturierung des Arbeitsmarkts, Umweltschutz und IT-Sicherheit. Wir wollen es mit diesem Beitrag jedoch fürs Erste halten wie der deutsche Gesetzgeber: Eine „Kleine Lösung“, ein Annähern an die Zukunftsvision führerloser Kraftfahrzeuge step-by-step kann zielführender sein als der weite Sprung – die Balance zwischen Nutzen und Risiko hält man so auf jeden Fall wesentlich leichter.

Über den Autor:
Nicolas Woltmann stammt aus Oberbayern und legte nach dem Studium der Rechtswissenschaften an der Universität Würzburg erfolgreich die Erste Juristische Staatsprüfung ab. Zugleich erlangte er den akademischen Grad des „Europajuristen“, den die Universität Absolventen des Begleitstudiums Europarecht verleiht. Seitdem ist er wissenschaftlicher Mitarbeiter der Forschungsstelle RobotRecht und des Lehrstuhls von Prof. Dr. Dr. Eric Hilgendorf in Würzburg. Seine Forschungsschwerpunkte umfassen zuvorderst das Straf- und Technikrecht, Rechtsgebiete, die er zugleich zum Inhalt seiner angestrebten Promotion gemacht hat. Untersucht werden hier insb. Haftungsfragen i.R. des Einsatzes selbstlernender Software.

Stuttgarter Zukunftssymposium 2018 Ethik und KI

Die Entwicklung künstlicher Intelligenz ist rasant und brisant zugleich – denn sie wirft zahlreiche ethische Fragen auf: Welche Regeln gelten zukünftig für Roboter? Wie entwickelt sich die Arbeitswelt 4.0? Wie viel Autonomie wollen wir für Maschinen? Über diese und andere Kernfragen der Digitalisierung diskutieren führende Köpfe aus Wissenschaft, Wirtschaft, Politik und Zivilgesellschaft unter dem Motto „Mensch bleiben im Maschinenraum“ am 23. und 24. November 2018 in Stuttgart.

Prof. Dr. Dr. Eric Hilgendorf lotet den schmalen Grat zwischen ethischen Bedenken und rechtlichen Fragen aus: Als Mitglied der Ethikkommission für automatisiertes Fahren berichtet er von den juristisch-ethischen Grenzen autonomer Autos. Constanze Kurz, Sprecherin des Chaos Computer Clubs und mehrfach ausgezeichnete Autorin, lotet in Ihrem Vortrag Sicherheitslücken neuer Technologien aus. Prof. Dr. Stefan Heinemann, Leiter der Forschungsgruppe „Ethik der Gesundheitswirtschaft & Medizinethik“ im ifgs Institut für Gesundheit & Soziales, definiert die Chancen und Möglichkeiten von Künstlicher Intelligenz im Bereich der Medizin. Außerdem freuen wir uns auf Prof. Dr. Matthias Bethge, der Lernmethoden von KI erklärt und Prof. Dr. Karsten Weber, der sich seit vielen Jahren mit Technikfolgenabschätzung beschäftigt.

Im Rahmen des zweitägigen Symposiums werden die Experten nicht nur den aktuellen Stand der technologischen Entwicklung in Vorträgen und Workshops beleuchten, sondern gemeinsam mit dem Plenum auch die ethischen und politischen Herausforderungen skizzieren. Begleitend zu unseren Diskussionsforen lernen die Gäste der Tagung Firmen und Institutionen kennen, die ihre digitalen Zukunftsprojekte in einer Ausstellung präsentieren.

Das diesjährige Zukunftssymposium wird veranstaltet vom Ethikverband der Deutschen Wirtschaft, der Giordano-Bruno-Stiftung, dem Weltethos-Institut an der Universität Tübingen und der Integrata-Stiftung. Hier gibt es weitere Informationen zum Programm und zur Tagung.

Top

Durch die weitere Nutzung der Seite stimmen Sie der Verwendung von Cookies zu. Weitere Informationen finden Sie in der Datenschutzerklärung.

Die Cookie-Einstellungen auf dieser Website sind auf "Cookies zulassen" eingestellt, um das beste Surferlebnis zu ermöglichen. Wenn du diese Website ohne Änderung der Cookie-Einstellungen verwendest oder auf "Akzeptieren" klickst, erklärst du sich damit einverstanden.

Schließen