ANNA – Das vernetzte Leben

Ein Projekt über Algorithmen und Künstliche Intelligenz in unser aller Alltag: Wie wir Menschen bereits heute für Anwendungen mit Künstlicher Intelligenz sensibilisieren.

Von Ludwig Reicherstorfer

Vor einigen Jahren hörte man den Satz “Das Internet wird immer wichtiger” fast täglich. Im gesellschaftlichen, politischen und im öffentlichen Diskurs in den Medien war dies eine Feststellung, die die technologische Revolution und ihre Auswirkung in alle Lebensbereiche hinein betonte.  Heute wirkt der Satz wenig visionär, denn dass wir uns in einer digitalen Gesellschaft befinden, streitet niemand mehr ab. Ähnliches wie seinerzeit das Internet, erfährt im Moment das Thema “Algorithmen und Künstliche Intelligenz”. Überall wird darüber gesprochen und geschrieben, welche zentrale Rolle diese beiden Aspekte moderner Technologie heute und in (naher) Zukunft einnehmen werden.

Auch wir von iRights widmen uns diesem Thema. Dabei nehmen wir bewusst eine Perspektive ein, die bisher – zumindest nach unserem Dafürhalten – noch zu wenig beachtet wird: die der Verbraucher*innen. Unser Anliegen ist es, gerade bei jenen Menschen, die sich zwar nicht bewusst und regelmäßig mit Themen der Digitalisierung beschäftigen, dem technologischen Fortschritt aber sehr wohl jeden Tag direkt oder indirekt begegnen, Interesse für die dahinter stehenden algorithmische Prozesse und Entwicklungen zu wecken und Wissen darüber zu vermitteln.

In unserem Projekt “ANNA – Das vernetzte Leben. Algorithmen und Künstliche Intelligenz im Verbraucheralltag” steht die fiktive Figur ANNA stellvertretend für genau diese Menschen. Wir begleiten ANNA, eine berufstätige 35-jährige Frau, bei alltäglichen Erlebnissen, deren Ausgangspunkt Technologien sind, die bereits existieren und genutzt werden. Die Geschichten aus ANNAs Alltag drehen sich um Fitness-Armbänder, Smart Homes, Sprachassistenten oder Werbetargeting und decken von vernetzter Medizin über soziales Leben verschiedene Bereiche ab, an denen wir mit Algorithmen und KI schon heute in Berührung kommen.

Es handelt sich dabei nicht um eine Dystopie, die vor unkontrollierbaren Fehlentwicklungen warnen möchte, sondern um eine Fiktion, die Chancen und Risiken zugleich thematisiert. ANNAs Geschichten zeigen, wie sehr unser aller Leben bereits im Kontext dieser Technologien stattfindet, und was man als Verbraucher*in dabei beachten sollte. Das Projekt bedient sich unterschiedlicher Wege, diese Inhalte zu vermitteln: Kurzfilme , Podcasts und geschriebene Stories erzählen Episoden aus ANNAs Leben. Sie werden begleitet von Hintergrund-Dossiers, Praxistipps und Handreichungen für den pädagogischen Einsatz der Materialien, zum Beispiel an Schulen oder in der Erwachsenenbildung.

Das Projekt wird vom Bundesministerium der Justiz und für Verbraucherschutz gefördert. Das Projekt arbeitet unabhängig, alle verfügbaren Informationen sind nach journalistischen Kriterien aufbereitet. Durchgeführt wird das Projekt durch den gemeinnützigen iRights e.V.

Über den Verein

Der iRights e.V. widmet sich der Aufklärung von Verbraucherinnen und Verbrauchern zu Themen wie Urheberrecht, Datenschutz, Datensicherheit, Algorithmen, digitales Leben u.v.m., er betreibt die Informationsplattform iRights.info, erstellt Publikationen und weitere Webangebote. Der iRights e.V. kooperiert in strategischen Fragen eng mit dem Think Tank iRights.Lab. Alle Informationen zum Projekt “ANNA – Das vernetzte Leben” finden Sie hier.

Künstliche Intelligenz, made in Europe

Künstliche Intelligenz europäisch entwickeln und zum Wohl von Gesellschaft und Umwelt gestalten: Wir brauchen KI, die auf der Grundlage europäischer Werte in Europa erforscht und entwickelt wird. Doch in Deutschland fehlt die Strategie. Ein Debattenbeitrag zum Stuttgarter Zukunftssymposium Ethik und KI.

von Dr. Anna Christmann, MdB

Künstliche Intelligenz (KI), maschinelles Lernen und autonome Systeme werden unsere Welt in den nächsten Jahren grundlegend verändern. Als Grüne wollen wir die Kraft dieser Veränderungen vor allem auch für die sozialökologische Modernisierung von Wirtschaft, Wissenschaft und Gesellschaft nutzen. Damit das gelingt, müssen Deutschland und Europa KI selbstbestimmt erforschen, entwickeln und einsetzen können. Denn nur wer KI in all ihren Facetten versteht, kann sie auch nach den eigenen gesellschaftlichen, politischen und ethischen Vorgaben souverän gestalten.

Wir dürfen uns in Europa nicht damit zufrieden geben, im Nachhinein den rechtlichen Rahmen für Innovationen zu stricken, die anderswo entwickelt wurden. Auch wenn wir damit zum Teil sehr erfolgreich sind, wie die Datenschutzgrundverordnung gezeigt hat. Trotzdem: Aus dieser defensiven Haltung müssen wir uns selbstbewusst befreien und in die Offensive kommen. Wir brauchen KI made in Europe, die auf der Grundlage europäischer Werte in Europa erforscht und entwickelt wird.

Kein blindes Wettrennen mit den USA oder China

Doch schaut man sich die globalen Forschungsausgaben an, haben andere klar die Nase vorn. Ob Tesla, Google, Nasa oder Darpa – in den USA nimmt nicht nur der Staat viel Geld in die Hand. Auch Großkonzerne investieren bedeutende Summen in die Entwicklung selbstfahrender Autos, Roboter oder lernender Algorithmen. Seit Jahren führen die USA die Weltrangliste der absoluten Forschungsausgaben an. Doch andere holen rasant auf. Allen voran China, wo der Staat seit einigen Jahren Milliarden in die Entwicklung von KI-Technologien pumpt. Insgesamt wird in Asien mittlerweile dreimal so viel in KI investiert wie in Europa, in Nordamerika sogar sechsmal.

Es darf uns nicht um ein blindes Wettrennen mit den USA oder China gehen, sondern darum, einen europäischen Weg zu entwickeln, der gesellschaftliche Gerechtigkeitsfragen, Grund- und Freiheitsrechte im Blick behält. Die europäische Einbettung der Forschungsaktivitäten und entschlossene Investitionen sind dabei die Grundvoraussetzung. Wir sprechen uns als Grüne daher für flexiblere Forschungsstrukturen aus, die es ermöglichen mit guten Gehälter, attraktiver Infrastruktur und europäischer Lebensqualität die besten KI-Forschenden nach Europa zu holen oder hier zu halten. Denn sonst werden die Rahmenbedingungen für KI anderswo gesetzt. In autoritären Staaten wie China droht durch KI die allumfassende Überwachung, in den USA ein weiterer Machtzuwachs großer Digitalkonzerne – mit all den negativen Konsequenzen, die wir heute schon erleben. Der europäische Weg muss ein anderer, ein Weg der digitalen Chancen, des fairen Marktzugang, der nachhaltigen Entwicklung und der Selbstbestimmtheit sein.

In Deutschland fehlt eine KI-Strategie

Neben einer konsequenten Vernetzung der europäischen Forschungsstandorte fehlt es in Deutschland vor allem an einer KI-Strategie, die mit mutigen Investitionen unterlegt ist und die nötigen rechtlichen Rahmenbedingungen setzt. In den letzten anderthalb Jahren haben Kanada, China, Frankreich, die USA und zahlreiche andere Staaten Strategien für die Erforschung und den Einsatz von KI vorgelegt. Fast alle mit dem Anspruch dabei weltweit führend zu sein. Während andere Länder also längst dabei sind, ihre entsprechenden Strategien umzusetzen, hinkt die Bundesregierung hinterher und droht so, den internationalen Anschluss bei dieser wichtigen Zukunftstechnologie zu verlieren.

Das einzig Gute an dieser, von der Bundesregierung verursachten Nachzüglerschaft: Die Große Koalition kann sich an den vielen bereits existierenden Strategien orientieren – und sollte das auch unbedingt tun. Die französische KI-Strategie benennt zum Beispiel ausdrücklich ökologische Potentiale von KI als eine zentrale Säule. Warum machen wir die ökologischen Anwendungen von KI nicht zu einem Schwerpunkt in Europa, zum Beispiel durch eine Innovationsstiftung für nachhaltige und soziale digitale Anwendungen (INSDA)?

Frankreich als Vorbild

Auch bei der Einbindung der Zivilgesellschaft und verschiedener Stakeholder kann Frankreich Vorbild sein. Nur durch Transparenz und Beteiligung entsteht das nötige Vertrauen, um Künstliche Intelligenz zum Wohl der Gesellschaft gestalten zu können. Auch die KI Strategie der EU hat bereits wichtige Aufgaben definiert, die auch die Bundesregierung dringend adressieren muss. Etwa müssen die absehbaren Veränderungen der Arbeitswelt weiter erforscht, breit diskutiert und die Arbeitnehmerinnen und Arbeitnehmer rechtzeitig darauf vorbereitet werden.

Bei der Gestaltung von KI egal ob national oder europäisch muss immer die Frage im Mittelpunkt stehen, wie wir die neue Technologie zum Wohle der Gesellschaft nutzen können. Diese Frage stellt sich am Ende global. Die Potenziale von KI für die Lösung wichtiger gesellschaftlicher und ökologischer Herausforderungen sind enorm. Ob verbesserte medizinische Diagnostik für die frühzeitige Erkennung von Krebs, intelligente Steuerung von Verkehrsströmen oder smarte Stromnetze für den schnellen Umstieg auf erneuerbare Energien, in zahlreichen Bereichen kann KI einen positiven Beitrag leisten. Um diese Potenziale auch zu heben, brauchen wir eine bessere Innovationsförderung, europäische Vernetzung und eine klare Strategie, die Gemeinwohl und Nachhaltigkeit von KI ins Zentrum stellt. Um globale ethische Standards zu entwickeln, sprechen wir Grünen uns für einen KI-Gipfel analog zur Klimakonferenz aus.

Über die Autorin:

2017 zog Dr. Anna Christmann in den deutschen Bundestag für den Wahlkreis Stuttgart II ein. In der Fraktion von Bündnis 90/Die Grünen ist sie als Sprecherin für die Themen Bürgerschaftliches Engagement sowie Innovations- und Technologiepolitik zuständig. Frau Dr. Christmann ist Mitglied der Enquete Kommission Künstliche Intelligenz und Gast auf dem Podium beim Stuttgarter Zukunftssymposium Ethik und KI.

Datenreichtum und Datenschutz kombinieren

Nutzung der Informationstechnologie

Wie mit der modernen Blockchain-Technologie unsere Privatsphäre wieder geschützt werden kann.

Von Michael Mörike

In der Internetwelt gibt es zwei gegenläufige Trends: Einerseits greifen Unternehmen mehr und mehr Daten von uns ab und verdienen damit Geld. Wir geben die Daten ziemlich freiwillig her – um nicht zu sagen ziemlich leichtfertig – ohne dafür eine angemessene Gegenleistung zu bekommen. Dabei wird unsere Privatsphäre immer kleiner. Andererseits werden immer neue gesetzliche Schutzmechanismen für unsere Privatsphäre erlassen, die wir eher als zusätzlichen Aufwand denn als wirklichen Schutz empfinden. Neuestes Beispiel in der EU ist die DSGVO. Aber auch anderswo gibt es solche Bestrebungen.

Ist uns unsere Privatsphäre so unwichtig? Wir haben uns evolutionär als – mehr oder weniger gute – Mischung aus Individualwesen und Sozialwesen entwickelt: Wir brauchen daher sowohl eine Privatsphäre (und haben also auch Eigentum), als auch Gesellschaft mit anderen Menschen (und haben daher auch starke soziale Eigenschaften und Gemeinschaftsgüter). Nun sind die Grenzen zwischen den beiden Gebieten nicht für alle Zeiten unverrückbar festgelegt. Sie sind schon heute in den verschiedenen Kulturen sehr unterschiedlich. Bringt es die Internetkultur neuerdings mit sich, dass wir unsere Privatsphäre – mehr oder weniger freiwillig – verkleinern? Schließlich wird ja auch das Teilen (Sharing) immer beliebter und die steigende Anzahl von Menschen auf unserem Globus macht es immer sinnvoller, um die uns global zur Verfügung stehenden Ressourcen zu schonen.

Bisher schien es so, als ginge beides nicht zusammen. Oder geht es etwa doch? Hoffnungsvolle Anzeichen kommen mit dem neuen Begriff der self-sovereign identity (SSI, selbstbe-stimmte Identität). Technisch wird sie möglich mit Hilfe der Blockchain und dem Sovrin-Protokoll. Sie kennen das nicht? Grob gesagt geht das so: Schon bisher gab es Trust-Center, die in CA’s betrieben wurden. Das Problem dabei war: Was ist wenn eines dieser zentral organisierten CA seinen Betrieb aufgibt oder seine Betriebsbedingungen massiv ändert? Dann waren alle damit verbürgten Vertragsverhältnisse gebrochen oder wertlos, weil z.B. nicht mehr bezahlbar. Das hat viele davon abgehalten, darauf zu vertrauen. Ein Netz von Blockchains kann diese zentralen Trustcenter ersetzen. Wenn es internetweit genauso gut verfügbar ist wie DNS, dann kann es nicht mehr beseitigt oder korrumpiert werden. Mit Hilfe von per Blockchain zertifizierten Frage-Antwort-Protokollen können dann – für jedermann erschwinglich, da kostenlos – Abfragen von Daten oder Rechten (Berechtigungen) gemacht werden, die die Identität der abgefragten Person nicht preisgeben müssen. Der Mensch dahinter bleibt anonym.

Es braucht dann auch keine Datenkraken mehr, die die Daten von vielen Menschen horten, um sie Dritten zur Auswertung weiterzugeben. Deren Vermittlerrolle entfällt und die Daten sind trotzdem im Umlauf – allerdings anonym. Die Daten werden dann auch nicht mehr gestohlen, weil dies keinen Sinn mehr macht. Datenreichtum kann dann ohne die unschönen Nebenwirkungen vom Verlust der Privatsphäre seine volle Wirkung entfalten.

Nun – bis es so weit ist, dauert es aber noch etwas. Die im Internet dafür benötigten Protokolle sind seit Mitte 2017 in Arbeit und stehen vermutlich demnächst öffentlich zur Verfügung. Dann muss sich zunächst auch noch das Netz der Blockchains aufbauen und es muss üblich werden, es zu nutzen. Und erst, wenn es intensiv genutzt wird, sterben die alten „schmutzigen“ Daten so langsam aus, indem sie im Laufe der Zeit unbrauchbar werden. Immerhin: Es gibt Aussicht auf Besserung!

Weiterführende Links:

DJ AIKI – wenn KI den DJ spielt

Unser Blogger Georg-Ludwig Verhoeven macht sich Sorgen um die Zukunft der DJs. Werden sie durch KI bald arbeitslos?

von Georg-Ludwig Verhoeven

Die Bässe wummern, die Rhythmen hämmern, die Lichteffekte erzeugen den Eindruck, man sitzt in einem ausbrechenden Vulkan. Die Fans tanzen und schreien, und hier und werden auch Substanzen eingenommen, die die Stimmung weiter anheizen. So kennen wir die Stimmung in Discos. Und wer sitzt vorne am Pult und fährt diese ganze Show? Sehen kann man von der Tanzfläche ja kaum etwas, und letztlich ist es ja auch egal – man amüsiert sich. Wer da sitzt, ist DJ AIKI, und das ist – ein KI-System, aber kein DJ aus Fleisch und Blut. Der Name DJ AIKI klingt zunächst mal japanisch, ist aber einfach die Kombination aus „Artificial Intelligence“ und „Künstliche Intelligenz“.

Geht das? Sind die aktuellen menschlichen DJs mit ihren Millionengagen eine aussterbende Spezies?

Was machen DJs? Abgesehen von denen, die selbst auch Musik produzieren, stellen sie Musik nach gewissen Kriterien zusammen und spielen sie über Stunden ab. Manchmal fügen sie noch Lightshow, eigene Ansagen oder Tanzeinlagen hinzu. Können das nicht Maschinen und/oder KI-Systeme übernehmen?

Und wie die das können: Beim Zusammenstellen von „Playlists“ lässt sich der klassische DJ von gewissen Kriterien leiten und kann aus seiner Musiksammlung die passenden Stücke in der richtigen Reinhefolge asuswählen. Solche Kriterien können sein: Der Rhythmus, das Tempo, die Tonart, die Sprache, die Besetzung (vokal und/oder instrumental), Entstehungsdatum, ethnische / nationale Herkunft, Hitparadenplatzierunge (wann?) und einige mehr. Während der Vorführung wird dann noch Lightshow und Tanz hinzugefügt– mehr oder wenig spontan oder auch automatisch.

In der Vergangenheit musste ein DJ viel Musik kennen (und tausende von Tonträgern kaufen), um solche Playlists zusammenzustellen. Bei DJ AIKI ist das nicht mehr nötig: Das System ermittelt aus sämtlichen in Netz oder Cloud verfügbaren Musikdateien die notwendigen Kriterien und stellt daraus Playlists zusammen, wiederum nach gewissen Kriterien. Die Lightshow wird aus dem akustischen Signal live erzeugt, und auch hier können bestimmte Parameter (Farben, Helligkeit, Effekte etc. ) angepasst werden. Wenn man jetzt noch – entweder nach dem Zufallsprinzip oder auch parametrisiert – Rufe und Tanzbewegungen (eines Roboters oder digitale, ggf. bearbeitete Videoaufzeichnungen und gleich auf den Monitor) dazupackt, ist die Show fertig. Ob die Show erfolgreich war, lernt DJ AIKI aus der Größe und Zusammensetzung des Publikums, Lautstärke und Wildheit der Tanzenden, dem Getränkekonsum und letztlich dem Umsatz / Gewinn der Disko an diesem Tag. Bei Bedarf wird dann nachgeregelt, bis es passt. Und dann werden die erfolgreichen Playlists noch – kostenpflichtig – vermarktet.

Keine guten Aussichten für DJ Bobo, DJ Ötzi, David Guetta und wie sie alle heißen?

Pro und Contra: Kann man Maschinen und Robotern Ethik beibringen? (3)

Vor zwei Wochen stritten unsere Blogger Michael Mörike und Georg-Ludwig Verhoeven darüber, ob Maschinen und Roboter Ethik lernen können. Heute antwortet Prof. Dr. Karsten Weber, Ko-Leiter des Instituts für Sozialforschung und Technikfolgenabschätzung an der OTH Regensburg.

Von Prof. Dr. Karsten Weber

In seinem Maßstäbe setzenden Aufsatz „Computing Machinery and Intelligence“ aus dem Jahr 1950 schlug der britische Mathematiker Alan M. Turing einen Test vor, mit dessen Hilfe entschieden werden könne, ob eine Maschine intelligent sei bzw. denken würde – allerdings muss das Wort „denken“ in diesem Kontext in Anführungszeichen gesetzt werden. Die Idee Turings ist so einfach wie genial: Gelänge es einer Maschine in diesem Test nicht als Maschine identifiziert, sondern für einen Mensch gehalten zu werden, so hätte diese Maschine den Turing-Test bestanden: Die Maschine wäre „intelligent“ oder „denkt“. „Denken“ heißt im Kontext des Tests bestimmte kommunikative Fähigkeiten zu besitzen, ohne dass damit bereits unterstellt werden würde, wie diese realisiert sein müssen. Mit dem Bestehen des Turing-Tests geht somit nicht einher, dass angenommen werden würde, dass eine Maschine genauso denke wie ein Mensch, sondern eben nur, dass es dieser Maschine gelingt, in einem Menschen die Überzeugung zu wecken, mit einem denkenden Wesen zu interagieren. Um den Turing-Test bestehen zu können, ist es also nicht wichtig, dass die Maschine tatsächlich denkt, sondern es ist wichtig, dass Menschen die Überzeugung haben, dass sie denkt. „Denken“ ist hier also eine Zuschreibung; der Unterschied zwischen „X denkt“ und „ich glaube, dass X denkt“ ist, so kann man Turing verstehen, im Grunde nicht sinnvoll zu ziehen. Mit anderen Worten: Bezüglich des Denkens ist nicht so sehr die Erste-Person-Perspektive wichtig, sondern die Dritte-Person-Perspektive.

Nun kann man diese Aussage über das Denken auch auf andere psychische Phänomene wie Emotionen, Wünsche, Ziele, Intentionen, Motive und so fort ausweiten und sagen, dass auch der Unterschied zwischen „X hat Gefühle“ und „ich glaube, dass X Gefühle hat“ oder „X hegt Überzeugungen“ und „ich glaube, dass X Überzeugungen hegt“ und vielen anderen ähnlichen psychischen Phänomenen nicht sinnvoll gezogen werden kann, da wir stets nur das beobachtbare äußere Verhalten zur Beurteilung darüber heranziehen können, ob unser Gegenüber denkt, Gefühle hat oder Überzeugungen hegt. John McCarthy hat diese Überlegung schließlich in seinen Arbeiten so zugespitzt, dass er selbst so einfachen Mechanismen wie Heizungsthermostaten das Haben von Überzeugungen zubilligte. Man kann Turing ebenso wie McCarthy so verstehen, dass zur Operationalisierung der Messung von Intelligenz oder auch von Emotionen oder gar Moralität stets nur das äußere Verhalten des jeweiligen Untersuchungsobjekts herangezogen werden kann; folgt man diesem Grundannahme, macht die Unterscheidung von „X denkt“ und „ich glaube, dass X denkt“ nun tatsächlich keinen Sinn mehr, weil wir die Aussage „X denkt“ nur auf Grundlage des äußeren Anscheins, also dem sichtbaren Verhalten, von X treffen können.

Das heißt nichts anderes, als dass es unerheblich ist, ob unser Gegenüber tatsächlich mentale Zustände hat, wirklich denkt, fühlt, glaubt, wünscht, oder ob wir nur der Überzeugung sind, dass es so sei; für unser Handeln spielt das keine Rolle, solange wir mit unseren Zuschreibungen erfolgreich sind. In der Gestaltung von Geräten und insbesondere im Bereich der Mensch-Maschine-Interaktion kann man sich dies nun erfolgreich zunutze machen. Wenn die Designer solcher Geräte es erreichen können, in den Nutzern die Überzeugung zu wecken, dass das Gerät denkt, fühlt, glaubt, wünscht – kurz: augenscheinlich etwas Ähnliches wie man selbst ist, so sind Interaktionen meist erfolgreicher.

Die moralische Frage

Designer und Hersteller von Robotern oder KI-Systemen könnten daher versucht sein Maschinen auf eine solche Weise zu gestalten, dass sie von Menschen als künstliche moralische Agenten angesehen werden. Der Ausdruck „künstlicher moralischer Agent“ soll dabei heißen, dass Menschen eher die Maschine für deren Handlungen und den Folgen dieser Handlungen verantwortlich machen als deren Designer oder Hersteller. Mit Sicherheit werden diese Agenten versagen – ganz genauso wie ordinäre Maschinen das zuweilen ebenfalls tun. Wenn dies geschieht und diese Maschinen als künstliche moralische Agenten akzeptiert werden würden, machten jene Menschen, die mit ihnen interagieren, vermutlich die Maschinen für ihre Aktionen und deren Folgen verantwortlich – zumindest bis zu einem gewissen Maß.

Das wäre moralisch aber mehr als zweifelhaft, doch derzeit existieren keine auf autonome artifizielle Agenten anwendbaren moralischen Normen. Aber eher früher als später werden solche Normen dringend benötigt: Nicht weil wir bereits in der Lage wären, künstliche moralische Agenten zu bauen, sondern weil sie durch schlichte Zuschreibung erzeugt werden – und das ist sehr einfach und ein alltäglicher Vorgang. Es ist daher naheliegend, dass entsprechende moralische und soziale Normen die Designer und Gestalter solcher Maschinen ansprechen müssen, nicht die Maschinen selbst. Denn in Bezug auf die Mensch-Maschine-Interaktion kann man sehr leicht Szenarien bspw. für den Bereich des E-Commerce entwerfen, in denen es durchaus nützlich wäre, die Überzeugung bei Menschen zu erzeugen oder zu stärken, dass das jeweilige mechanische Gegenüber ein wohlinformierter, moralisch verantwortlicher und vertrauenswürdiger Agent ist, der nur im Interesse der Menschen agiert. Um es direkt zu sagen: Autonome artifizielle Agenten könnten dazu benutzt werden, Menschen zu verführen oder gar zu betrügen.

Daher sollte folgende moralische Norm stets beachtet werden: Gestalte keine Maschinen, die die menschlichen Interaktionspartner vergessen lassen, dass sie mit Maschinen interagieren. Damit würde die Unvermeidbarkeit der Vermenschlichung von Maschinen, wie sie im vorliegenden Text beschrieben wurde, entgegengewirkt und sichergestellt, dass die Aktionen eines autonomen artifiziellen Agenten stets dessen Designern und Herstellern zugerechnet werden kann. Ähnlich argumentieren Deborah Johnson und Keith W. Miller, wenn sie schreiben: „Debate about the moral agency of computer systems takes place at a certain level of abstraction and the implication of our analysis is that discourse at this level should reflect and acknowledge the people who create, control, and use computer systems. In this way, developers, owners, and users are never let off the hook of responsibility for the consequences of system behavior.“

Anmerkung: Der vorliegende Beitrag stellt eine stark gekürzte Fassung eines vor einigen Jahren publizierten Textes mit dem Titel „Ist da jemand? Über unsere Bereitschaft und die Unvermeidbarkeit Maschinen zu vermenschlichen“. Weitere Texte des Autors zum Thema finden sich auf seiner Webseite.

Über den Autor

Prof. Dr. Weber ist Ko-Leiter des Instituts für Sozialforschung und Technikfolgenabschätzung (IST) an der Ostbayerischen Technischen Hochschule (OTH) Regensburg. Er forscht und lehrt insbesondere im Bereich der Technikfolgenabschätzung und Technikethik, ist Mitglied der Präsidiumskommission „Ethische Fragen in der Medizinischen Information, Biometrie und Epidemiologie“ und des Ethikgremiums des „Bayerischen IT Sicherheitsclusters“. Prof. Dr. Weber ist Fachbeirat der Integrata-Stiftung.

Top

Durch die weitere Nutzung der Seite stimmen Sie der Verwendung von Cookies zu. Weitere Informationen finden Sie in der Datenschutzerklärung.

Die Cookie-Einstellungen auf dieser Website sind auf "Cookies zulassen" eingestellt, um das beste Surferlebnis zu ermöglichen. Wenn du diese Website ohne Änderung der Cookie-Einstellungen verwendest oder auf "Akzeptieren" klickst, erklärst du sich damit einverstanden.

Schließen