<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>Qualitätssiegel &#8211; HumanIThesia: Diskussionsportal für humane Nutzung der IT</title>
	<atom:link href="https://humanithesia.org/category/themengebiet/qualitaetssiegel/feed" rel="self" type="application/rss+xml" />
	<link>https://humanithesia.org</link>
	<description>Ethik bei künstlicher Intelligenz und Robotik</description>
	<lastBuildDate>Tue, 28 May 2019 13:25:45 +0000</lastBuildDate>
	<language>de</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	<generator>https://wordpress.org/?v=6.4.5</generator>

<image>
	<url>https://humanithesia.org/wp-content/uploads/2017/11/cropped-humanithesia-logo-vektor-socia-media-32x32.png</url>
	<title>Qualitätssiegel &#8211; HumanIThesia: Diskussionsportal für humane Nutzung der IT</title>
	<link>https://humanithesia.org</link>
	<width>32</width>
	<height>32</height>
</image> 
	<item>
		<title>Pro und Contra: Kann man Maschinen und Robotern Ethik beibringen? (3) – von Prof. Dr. Karsten Weber</title>
		<link>https://humanithesia.org/kann-man-maschinen-und-robotern-ethik-und-moral-beibringen-weber</link>
		
		<dc:creator><![CDATA[Sascha Blättermann]]></dc:creator>
		<pubDate>Mon, 06 Aug 2018 13:05:37 +0000</pubDate>
				<category><![CDATA[Blog]]></category>
		<category><![CDATA[Ethik]]></category>
		<category><![CDATA[Führung und Verantwortung]]></category>
		<category><![CDATA[Gastbeiträge]]></category>
		<category><![CDATA[KI]]></category>
		<category><![CDATA[Qualitätssiegel]]></category>
		<guid isPermaLink="false">http://humanithesia.org/?p=1546</guid>

					<description><![CDATA[Vor zwei Wochen stritten unsere Blogger Michael Mörike und Georg Ludwig Verhoeven darüber, ob Maschinen und Roboter Ethik lernen können. Heute antwortet Prof. Dr. Karsten Weber, Ko-Leiter des Instituts für Sozialforschung und Technikfolgenabschätzung an der OTH Regensburg. Von Prof. Dr. Karsten &#8230;<p class="read-more"> <a class="more-link" href="https://humanithesia.org/kann-man-maschinen-und-robotern-ethik-und-moral-beibringen-weber"> <span class="screen-reader-text">Pro und Contra: Kann man Maschinen und Robotern Ethik beibringen? (3) – von Prof. Dr. Karsten Weber</span> Weiterlesen &#187;</a></p>]]></description>
										<content:encoded><![CDATA[<h4>Vor zwei Wochen stritten unsere Blogger <a href="http://humanithesia.org/pro-und-contra-kann-man-maschinen-und-robotern-ethik-beibringen">Michael Mörike</a> und <a href="http://humanithesia.org/pro-und-contra-kann-man-maschinen-und-robotern-ethik-beibringen-2">Georg Ludwig Verhoeven</a> darüber, ob Maschinen und Roboter Ethik lernen können. Heute antwortet Prof. Dr. Karsten Weber, Ko-Leiter des Instituts für Sozialforschung und Technikfolgenabschätzung an der OTH Regensburg.</h4>
<p>Von <strong>Prof. Dr. Karsten Weber</strong></p>
<p>In seinem Maßstäbe setzenden Aufsatz „Computing Machinery and Intelligence“ aus dem Jahr 1950 schlug der britische Mathematiker Alan M. Turing einen Test vor, mit dessen Hilfe entschieden werden könne, ob eine Maschine intelligent sei bzw. denken würde – allerdings muss das Wort „denken“ in diesem Kontext in Anführungszeichen gesetzt werden. Die Idee Turings ist so einfach wie genial: Gelänge es einer Maschine in diesem Test nicht als Maschine identifiziert, sondern für einen Mensch gehalten zu werden, so hätte diese Maschine den Turing-Test bestanden: Die Maschine wäre „intelligent“ oder „denkt“. „Denken“ heißt im Kontext des Tests bestimmte kommunikative Fähigkeiten zu besitzen, ohne dass damit bereits unterstellt werden würde, wie diese realisiert sein müssen. Mit dem Bestehen des Turing-Tests geht somit nicht einher, dass angenommen werden würde, dass eine Maschine genauso denke wie ein Mensch, sondern eben nur, dass es dieser Maschine gelingt, in einem Menschen die Überzeugung zu wecken, mit einem denkenden Wesen zu interagieren. Um den Turing-Test bestehen zu können, ist es also nicht wichtig, dass die Maschine tatsächlich denkt, sondern es ist wichtig, dass Menschen die Überzeugung haben, dass sie denkt. „Denken“ ist hier also eine Zuschreibung; der Unterschied zwischen „X denkt“ und „ich glaube, dass X denkt“ ist, so kann man Turing verstehen, im Grunde nicht sinnvoll zu ziehen. Mit anderen Worten: Bezüglich des Denkens ist nicht so sehr die Erste-Person-Perspektive wichtig, sondern die Dritte-Person-Perspektive.<span id="more-1546"></span></p>
<p>Nun kann man diese Aussage über das Denken auch auf andere psychische Phänomene wie Emotionen, Wünsche, Ziele, Intentionen, Motive und so fort ausweiten und sagen, dass auch der Unterschied zwischen „X hat Gefühle“ und „ich glaube, dass X Gefühle hat“ oder „X hegt Überzeugungen“ und „ich glaube, dass X Überzeugungen hegt“ und vielen anderen ähnlichen psychischen Phänomenen nicht sinnvoll gezogen werden kann, da wir stets nur das beobachtbare äußere Verhalten zur Beurteilung darüber heranziehen können, ob unser Gegenüber denkt, Gefühle hat oder Überzeugungen hegt. John McCarthy hat diese Überlegung schließlich in seinen Arbeiten so zugespitzt, dass er selbst so einfachen Mechanismen wie Heizungsthermostaten das Haben von Überzeugungen zubilligte. Man kann Turing ebenso wie McCarthy so verstehen, dass zur Operationalisierung der Messung von Intelligenz oder auch von Emotionen oder gar Moralität stets nur das äußere Verhalten des jeweiligen Untersuchungsobjekts herangezogen werden kann; folgt man diesem Grundannahme, macht die Unterscheidung von „X denkt“ und „ich glaube, dass X denkt“ nun tatsächlich keinen Sinn mehr, weil wir die Aussage „X denkt“ nur auf Grundlage des äußeren Anscheins, also dem sichtbaren Verhalten, von X treffen können.</p>
<p>Das heißt nichts anderes, als dass es unerheblich ist, ob unser Gegenüber tatsächlich mentale Zustände hat, wirklich denkt, fühlt, glaubt, wünscht, oder ob wir nur der Überzeugung sind, dass es so sei; für unser Handeln spielt das keine Rolle, solange wir mit unseren Zuschreibungen erfolgreich sind. In der Gestaltung von Geräten und insbesondere im Bereich der Mensch-Maschine-Interaktion kann man sich dies nun erfolgreich zunutze machen. Wenn die Designer solcher Geräte es erreichen können, in den Nutzern die Überzeugung zu wecken, dass das Gerät denkt, fühlt, glaubt, wünscht – kurz: augenscheinlich etwas Ähnliches wie man selbst ist, so sind Interaktionen meist erfolgreicher.</p>
<h4>Die moralische Frage</h4>
<p>Designer und Hersteller von Robotern oder KI-Systemen könnten daher versucht sein Maschinen auf eine solche Weise zu gestalten, dass sie von Menschen als künstliche moralische Agenten angesehen werden. Der Ausdruck „künstlicher moralischer Agent“ soll dabei heißen, dass Menschen eher die Maschine für deren Handlungen und den Folgen dieser Handlungen verantwortlich machen als deren Designer oder Hersteller. Mit Sicherheit werden diese Agenten versagen – ganz genauso wie ordinäre Maschinen das zuweilen ebenfalls tun. Wenn dies geschieht und diese Maschinen als künstliche moralische Agenten akzeptiert werden würden, machten jene Menschen, die mit ihnen interagieren, vermutlich die Maschinen für ihre Aktionen und deren Folgen verantwortlich – zumindest bis zu einem gewissen Maß.</p>
<p>Das wäre moralisch aber mehr als zweifelhaft, doch derzeit existieren keine auf autonome artifizielle Agenten anwendbaren moralischen Normen. Aber eher früher als später werden solche Normen dringend benötigt: Nicht weil wir bereits in der Lage wären, künstliche moralische Agenten zu bauen, sondern weil sie durch schlichte Zuschreibung erzeugt werden – und das ist sehr einfach und ein alltäglicher Vorgang. Es ist daher naheliegend, dass entsprechende moralische und soziale Normen die Designer und Gestalter solcher Maschinen ansprechen müssen, nicht die Maschinen selbst. Denn in Bezug auf die Mensch-Maschine-Interaktion kann man sehr leicht Szenarien bspw. für den Bereich des E-Commerce entwerfen, in denen es durchaus nützlich wäre, die Überzeugung bei Menschen zu erzeugen oder zu stärken, dass das jeweilige mechanische Gegenüber ein wohlinformierter, moralisch verantwortlicher und vertrauenswürdiger Agent ist, der nur im Interesse der Menschen agiert. Um es direkt zu sagen: Autonome artifizielle Agenten könnten dazu benutzt werden, Menschen zu verführen oder gar zu betrügen.</p>
<p>Daher sollte folgende moralische Norm stets beachtet werden: Gestalte keine Maschinen, die die menschlichen Interaktionspartner vergessen lassen, dass sie mit Maschinen interagieren. Damit würde die Unvermeidbarkeit der Vermenschlichung von Maschinen, wie sie im vorliegenden Text beschrieben wurde, entgegengewirkt und sichergestellt, dass die Aktionen eines autonomen artifiziellen Agenten stets dessen Designern und Herstellern zugerechnet werden kann. Ähnlich argumentieren Deborah Johnson und Keith W. Miller, wenn sie schreiben: „Debate about the moral agency of computer systems takes place at a certain level of abstraction and the implication of our analysis is that discourse at this level should reflect and acknowledge the people who create, control, and use computer systems. In this way, developers, owners, and users are never let off the hook of responsibility for the consequences of system behavior.“</p>
<p><em>Anmerkung: Der vorliegende Beitrag stellt eine stark gekürzte Fassung eines vor einigen Jahren publizierten Textes mit dem Titel „Ist da jemand? Über unsere Bereitschaft und die Unvermeidbarkeit Maschinen zu vermenschlichen“. Weitere Texte des Autors zum Thema finden sich auf seiner Webseite.</em></p>
<h4>Über den Autor</h4>
<p><em><img decoding="async" class="alignleft size-thumbnail wp-image-1547" src="https://humanithesia.org/wp-content/uploads/2018/08/Karsten_Weber_Schiff-002-150x150.jpg" alt="" width="150" height="150" />Prof. Dr. Weber ist Ko-Leiter des Instituts für Sozialforschung und Technikfolgenabschätzung (IST) an der Ostbayerischen Technischen Hochschule (OTH) Regensburg. Er forscht und lehrt insbesondere im Bereich der Technikfolgenabschätzung und Technikethik, ist Mitglied der Präsidiumskommission „Ethische Fragen in der Medizinischen Information, Biometrie und Epidemiologie“ und des Ethikgremiums des „Bayerischen IT Sicherheitsclusters“.</em></p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Pro und Contra: Kann man Maschinen und Robotern Ethik beibringen? (2)</title>
		<link>https://humanithesia.org/pro-und-contra-kann-man-maschinen-und-robotern-ethik-beibringen-2</link>
		
		<dc:creator><![CDATA[Sascha Blättermann]]></dc:creator>
		<pubDate>Mon, 23 Jul 2018 09:00:27 +0000</pubDate>
				<category><![CDATA[Blog]]></category>
		<category><![CDATA[Ethik]]></category>
		<category><![CDATA[Führung und Verantwortung]]></category>
		<category><![CDATA[KI]]></category>
		<category><![CDATA[Qualitätssiegel]]></category>
		<category><![CDATA[Uncategorized]]></category>
		<guid isPermaLink="false">http://humanithesia.org/?p=1442</guid>

					<description><![CDATA[Die HumanIThesia-Blogger Michael Mörike und Georg Ludwig Verhoeven streiten über die Frage, ob Maschinen und Roboter eines Tages auch Ethik lernen können. In der vergangenen Woche sagte Michael Mörike ja, heute sagt Georg Ludwig Verhoeven nein. Von Georg Ludwig Verhoeven &#8230;<p class="read-more"> <a class="more-link" href="https://humanithesia.org/pro-und-contra-kann-man-maschinen-und-robotern-ethik-beibringen-2"> <span class="screen-reader-text">Pro und Contra: Kann man Maschinen und Robotern Ethik beibringen? (2)</span> Weiterlesen &#187;</a></p>]]></description>
										<content:encoded><![CDATA[<p><strong>Die HumanIThesia-Blogger Michael Mörike und Georg Ludwig Verhoeven streiten über die Frage, ob Maschinen und Roboter eines Tages auch Ethik lernen können. In der vergangenen Woche sagte Michael Mörike ja, heute sagt Georg Ludwig Verhoeven nein.</strong></p>
<p>Von <strong>Georg Ludwig Verhoeven</strong></p>
<p>Menschen sollen „moralisch“ handeln. Das bedeutet, sie haben gewisse Maximen akzeptiert und richten ihr Handeln danach aus. Offensichtlich ist das aber nicht so einfach wie es klingt, denn es gibt viele Situationen, in denen ein Mensch in einer Weise handeln, die er selbst „moralisch“, andere aber „umoralisch“ finden. Aber können Maschinen auch „moralisch“ handeln?</p>
<p>Fest steht: Ihre Leistungsfähigkeit wächst exponentiell – da müsste doch irgendwann genug Leistung zusammenkommen, um neben komplexen Algorithmen auch moralische Aspekte in den Systemen unterzubringen! Aber: Ich glaube nicht, dass das möglich sein wird – nicht aus technischen oder moralischen Gründen, sondern aus logischen und praktischen. Das will ich im Folgenden begründen.</p>
<h4>I Welche Moral vermitteln wir Maschinen?</h4>
<p>Zuerst stellt sich die Frage, welche Moral wir den Maschinen beibringen sollen. Nehmen wir als eine mögliche Basis die Zehn Gebote. Sie liegen in vielen verschiedenen Versionen vor, aber betrachten wir nur eines der Gebote: „Du sollst nicht töten.“ Das ist eindeutig, und doch wird tagtäglich dagegen verstoßen – durch Menschen, denen andere Werte wichtiger sind als das Leben ihrer Mitmenschen. Das kann ein tödlicher Unfall sein, der durch rücksichtsloses Fahren verursacht wurde, eine Straftat, um sich am Eigentum eines anderen zu bereichern, eine Hinrichtung, um ihn im Namen des Gesetzes zu bestrafen, oder der ganz normale militärische Alltag im Krieg. Es kann der Verkauf von gesundheitsschädlichen Genussmitteln sein und vieles andere. Alle diese Handlungsweisen sind in der Gesellschaft präsent und mehr oder weniger akzeptiert – sollen Maschinen den gleichen Grad an „Toleranz“ besitzen?</p>
<p>Eine Möglichkeit, einer Maschine nun etwas beizubringen – zum Beispiel in Form eines Algorithmus – besteht darin, dass der Algorithmus die Konsequenzen seiner Entscheidung an vorgegebenen „Werten“ misst und dann die Entscheidung fällt zu handeln – oder eben nicht. Wenn solche wohldefinierte Zielwerte vorliegen, ist die Optimierung in aller Regel rechnerisch möglich – vom einfachen Simplex-Verfahren bis hin zum komplexen Problem des Handlungreisenden, der seine Fahrstrecke optimieren will – wo allerdings der Rechenaufwand exponentiell mit das Anzahl der Städte ansteigt und bald jede verfügbare Rechenkapazität sprengt. Aber oft gibt es noch nicht einmal einen Zielwert. Wenn nun ein intelligentes System die Konsequenzen seines Handelns im Sinne moralischer Maximen berücksichtigt, wird es schnell an seine Grenzen stoßen.</p>
<p>Ein oft zitiertes Beispiel ist das autonom fahrende Fahrzeug, das in einer ausweglosen Situation vor der Entscheidung steht, seinen Fahrer, ein Kind oder eine Passantin zu überfahren. Niemand hat bisher eine plausible Lösung dieses Problems geliefert (abgesehen von der „trivialen“ Lösung, dass das Auto nur so schnell fahren darf, dass es in Sichtweite anhalten kann, s. §3, S. 4 StVO). Wie soll nun das autonome Fahrzeug reagieren? Wie soll es programmiert werden?</p>
<p>Logisch einfacher, aber dramatischer, ist der Einsatz autonomer militärischer Geräte (z. B. Drohnen), die im Einsatz selbst entscheiden, ob das Bild, das sie mit ihrer Kamera erfassen und intelligent auswerten. militärische Ziele oder harm- und schutzlose Unbeteiligte zeigt. Mit der Entscheidung, in einer solchen Situation das tödliche Feuer zu eröffnen, ist auch jeder „menschliche“ Kampfpilot konfrontiert &#8211; und oft überfordert.</p>
<h4>II Wer entscheidet über die richtigen moralischen Grundsätze?</h4>
<p>Jeder präzise und eindeutig beschreibbare Algorithmus kann im Prinzip in ein System implementiert werden, aber Moral ist nicht präzise und eindeutig beschreibbar. Entscheidungen, die für einen Menschen moralisch richtig sind, können für einen anderen moralisch falsch und verwerflich sein. Moral ist ein philosphisches Konstrukt, das sich auch mit der Zeit ändert. Wer entscheidet dann letztlich, welche Moral in die Maschine implementiert werden soll? Ein ausgewähltes Gremium von Wissenschaftlern, Philosophen, Managern, Theologen? Oder sollen etwa die Entwickler*innen alles von der Bibel bis zur Straßenverkehrsordnung interpretieren und implementieren, wie sie es für richtig halten?</p>
<p>Nehmen wir jetzt trotzdem einmal an, einem System ist „moralisches Handeln“ implementiert worden. Vor dem Einsatz in der „richtigen Welt“ muss es im Labor ausgiebig getestet werden, denn es wird ja unter Umständen lebenswichtige Entscheidungen fällen müssen. Hier stellt sich ein ganz ähnliches Problem wie bei der Spezifikation: Wer legt die Testfälle fest, wie vollständig sind sie, und welches Testergebnis ist „richtig“, und welches ist falsch?</p>
<h4>III Welche Testfälle sollte man Maschinen geben?</h4>
<p>In Systemtests arbeitet man oft mit Stichproben, weil eine vollständige Testabdeckung in aller Regel umöglich ist. In kniffligen moralischen Fragen (wie dem berühmten „Todesalgorithmus“, mit dem das autonom fahrende Fahrzeug entscheidet, wer den Unfall überlegt) sind sich die Menschen oft uneinig und können oder wollen keine verbindliche Antwort geben – was soll das KI-System in dolchen Fällen tun. Wie ist in solchen Fällen ein Testergebnis zu bewerten?</p>
<p>Es mag nicht möglich sein, die Unmöglichkeit eines moralisch handelnden KI-Systems logisch zu beweisen. Aber angesichts der komplexen Fragen schon zum Thema Spezifikation und Test fühlt man sich an den Turmbau zu Babel erinnert, der in einer Sprachverwirrung endete (1. Buch Mose, Kap. 11) – der Turm wurde nicht fertig.</p>
<p>Aus alldem folgt, dass die Schwierigkeiten, die vor „moralisch“ handelnden Maschinen liegen, enorm sind, und dass daher die Wahrscheinlichkeit, dass es in absehbarer Zeit möglich sein wird, sehr nahe bei Null ist. Ob es wünschenswert ist, ist vor diesem Hintergrund nochmal eine ganz andere Frage.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Pro und Contra: Kann man Maschinen und Robotern Ethik beibringen?</title>
		<link>https://humanithesia.org/pro-und-contra-kann-man-maschinen-und-robotern-ethik-beibringen</link>
		
		<dc:creator><![CDATA[Sascha Blättermann]]></dc:creator>
		<pubDate>Sun, 15 Jul 2018 08:45:14 +0000</pubDate>
				<category><![CDATA[Blog]]></category>
		<category><![CDATA[Ethik]]></category>
		<category><![CDATA[Führung und Verantwortung]]></category>
		<category><![CDATA[KI]]></category>
		<category><![CDATA[Qualitätssiegel]]></category>
		<category><![CDATA[Uncategorized]]></category>
		<guid isPermaLink="false">http://humanithesia.org/?p=1439</guid>

					<description><![CDATA[Die HumanIThesia-Blogger Michael Mörike und Georg-Ludwig Verhoeven streiten über die Frage, ob Maschinen und Roboter eines Tages auch Ethik lernen können. In dieser Woche sagt Michael Mörike ja, in der kommenden Woche sagt Georg Ludwig-Verhoeven nein. Von Michael Mörike Es &#8230;<p class="read-more"> <a class="more-link" href="https://humanithesia.org/pro-und-contra-kann-man-maschinen-und-robotern-ethik-beibringen"> <span class="screen-reader-text">Pro und Contra: Kann man Maschinen und Robotern Ethik beibringen?</span> Weiterlesen &#187;</a></p>]]></description>
										<content:encoded><![CDATA[<p><strong>Die HumanIThesia-Blogger Michael Mörike und Georg-Ludwig Verhoeven streiten über die Frage, ob Maschinen und Roboter eines Tages auch Ethik lernen können. In dieser Woche sagt Michael Mörike ja, in der kommenden Woche sagt Georg Ludwig-Verhoeven nein.</strong></p>
<p>Von <strong>Michael Mörike</strong></p>
<p>Es ist unstrittig, dass schon in naher Zukunft mehr und mehr Roboter und Maschinen mehr oder weniger autonome Entscheidungen treffen und daraus entsprechende Handlungen ableiten werden. Diese Entscheidungen treffen sie aufgrund dessen, was sie gelernt haben. Sie haben dazu viele Sensoren: Beim autonomen Auto sind dies zum Beispiel Kamera, Mikrofon, Abstandsradar, GPS, Tacho, Sensor für Querkräfte, Helligkeit, Belastung, Tankfüllstand und viele andere mehr. Die Sensoren übermitteln die Eingabedaten für die eingebaute KI. Als Ausgabe gibt die KI Anweisungen an die Aktoren &#8211; beim autonomen Auto sind dies dann zum Beispiel Bremse, Gas, Lenkrad, Lichtschalter, Blinker, Hupe, Scheibenwischer, Klimaanlage und so weiter.</p>
<p>Die KI in Mitten dieser Sensoren hat gelernt, die passenden Entscheidungen zu treffen. Beim Lernen wurden ihr dafür viele Situationen vorgelegt und die daraus zu treffenden Aktionen. Hier hat die KI das Ziel, die richtigen Entscheidungen zu finden. In den meisten Situationen wird keine Ethik benötigt, um richtige Aktionen zu erzeugen. Bei Handlungen aber, die Menschen betreffen, kann dies durchaus der Fall sein. Wenn im Lernprogramm implizit ethische Ziele enthalten sind, wird sie lernen, auch die zugehörigen ethischen Entscheidungen zu treffen. Man kann der Maschine auch nur ethische Ziele als Lernmaterial vorzugeben. Warum sollte es eine KI nicht lernen können?</p>
<p>Sicher: Ethik ist komplex und außerdem kulturell verschieden. Deswegen müsste man das Lernmaterial für das Ethik-Modul für jede Kultur verschieden anlegen. Außerdem hängen die ethischen Ziele von der jeweiligen Situation ab, was die Sache kompliziert macht. Wie wäre es, unsere menschliche Ethik als allgemein verfügbares Lernmaterial zur Verfügung zu stellen und eine KI dies lernen zu lassen? Geschieht im Ethikunterricht in der Schule nicht genau das? Gewiss, es ist aufwändig. Aber vielleicht lohnt es sich ja? Würde man eine so trainierte KI in jeden Roboter einbauen, und diesem beibringen, immer vor jeder Handlung gegenüber Menschen erst dieses Ethik-Modul abzufragen, wären wir soweit, wie oben behauptet.</p>
<p>Es ist also möglich.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Welche KI muss in den Giftschrank?</title>
		<link>https://humanithesia.org/welche-ki-muss-in-den-giftschrank</link>
		
		<dc:creator><![CDATA[Sascha Blättermann]]></dc:creator>
		<pubDate>Fri, 20 Apr 2018 09:41:08 +0000</pubDate>
				<category><![CDATA[Arbeit und Erwerb]]></category>
		<category><![CDATA[Blog]]></category>
		<category><![CDATA[Ethik]]></category>
		<category><![CDATA[Führung und Verantwortung]]></category>
		<category><![CDATA[KI]]></category>
		<category><![CDATA[Qualitätssiegel]]></category>
		<guid isPermaLink="false">http://humanithesia.org/?p=1406</guid>

					<description><![CDATA[Künstliche Intelligenz wird heute bereits von Herstellern zum Download angeboten. Und niemand weiß, wie diese Systeme tatsächlich lernen. von Georg-Ludwig Verhoeven Im oft hochgesicherten „Giftschrank“ werden üblicherweise Gegenstände aufbewahrt, von denen eine Bedrohung ausgeht, wenn sie in die falschen Hände &#8230;<p class="read-more"> <a class="more-link" href="https://humanithesia.org/welche-ki-muss-in-den-giftschrank"> <span class="screen-reader-text">Welche KI muss in den Giftschrank?</span> Weiterlesen &#187;</a></p>]]></description>
										<content:encoded><![CDATA[<p><strong>Künstliche Intelligenz wird heute bereits von Herstellern zum Download angeboten. Und niemand weiß, wie diese Systeme tatsächlich lernen.</strong></p>
<p>von <strong>Georg-Ludwig Verhoeven</strong></p>
<p><img fetchpriority="high" decoding="async" class="size-medium wp-image-202 alignleft" src="https://humanithesia.org/wp-content/uploads/2014/09/internet-search-engine-1519471_640-300x200.jpg" alt="" width="300" height="200" />Im oft hochgesicherten „Giftschrank“ werden üblicherweise Gegenstände aufbewahrt, von denen eine Bedrohung ausgeht, wenn sie in die falschen Hände geraten. Gifte, die in der richtigen Dosis heilen, in der falschen töten, aber auch andere gefährliche Substanzen und Gegenstände wie Viren, radioaktive Präparate oder Bücher und Dokumente, die einem bestimmten Personenkreis gefährlich werden können, wenn sie an die Öffentlichkeit geraten. Nur mit besonderer Qualifikation, oft mit behördlicher Genehmigung und nach ausgiebiger Überprüfung, hat man Zugang zu den Inhalten des Giftschranks.</p>
<p>Wenn wir heute lesen, was KI alles anrichten kann, wenn sie „freigelassen“ wird, dann läuft uns ein Schauer über den Rücken: KI steuert Autos, die im Zweifelsfall selbständig entscheiden, wer bei einem Unfall getötet wird; KI wertet Personalakten aus, die über den Arbeitsvertrag und damit die Zukunft eines Menschen entscheiden, KI klassifiziert Fotos von Menschen nach Merkmalen (Hautfarbe, Alter, sexuelle Orientierung), die in einer Kriminalfahndung zur Verhaftung und zu einem Anfangsverdacht führen können. In letzter Konsequenz nimmt KI unsere Arbeitsplätze weg und übernimmt die Herrschaft über den Menschen. Prominente reden davon, dass KI eine größere Gefahr als die Atomkraft darstellt.</p>
<p>Die andere Seite ist, dass Hersteller von KI ihre Werkzeuge und Systeme auf dem Markt frei anbieten, teilweise sogar bereits angelernt. Kunden können diese Komponenten benutzen, teilweise sogar frei herunterladen und in ihre eigenen Systeme einbauen. Niemand weiß, wie die KI-Systeme genau funktionieren, wie sie angelernt wurden und wie sie entscheiden werden.</p>
<p>Soviel ist sicher: Mit der Entwicklung und dem Einsatz von KI stehen uns extrem leistungsfähige Systeme zur Verfügung, deren Potenzial, aber auch deren Gefahren wir heute allenfalls erahnen. Wer an der Entwicklung dieser Technologie teilnimmt, muss sich dessen bewusst sein und Verantwortung für das übernehmen, was hier auf die Menschheit losgelassen wird. Und das, bevor es verbreitet und letztlich aus dem Einflussbereich des Herstellers entlassen wird. „Be safe, not sorry!“ Solange KI-Systeme LKWs für Verkehrszeichen halten und Fotos von Menschen auf der Basis alter Vorurteile auswerten und klassifizieren, sind sie nicht geeignet, in der Alltagswelt eingesetzt zu werden.</p>
<p>Und gehören in den „Giftschrank“, nicht in den Downloadbereich des Herstellers.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>bwcon macht Künstliche Intelligenz zum Thema</title>
		<link>https://humanithesia.org/bwcon-macht-kuenstliche-intelligenz-zum-thema</link>
		
		<dc:creator><![CDATA[Sascha Blättermann]]></dc:creator>
		<pubDate>Thu, 15 Feb 2018 12:34:54 +0000</pubDate>
				<category><![CDATA[Blog]]></category>
		<category><![CDATA[Ethik]]></category>
		<category><![CDATA[KI]]></category>
		<category><![CDATA[Link]]></category>
		<category><![CDATA[Qualitätssiegel]]></category>
		<category><![CDATA[Uncategorized]]></category>
		<guid isPermaLink="false">http://humanithesia.org/?p=1378</guid>

					<description><![CDATA[KI zählt zu den zentralen Zukunftsthemen. Die technologischen Entwicklungen haben in den letzten Jahren rasant an Fahrt aufgenommen und nehmen Einfluss auf immer mehr Lebensbereiche. Die scheinbar unbegrenzten neuen Möglichkeiten werden dabei auch begleitet von technischen, sozialen, rechtlichen und nicht &#8230;<p class="read-more"> <a class="more-link" href="https://humanithesia.org/bwcon-macht-kuenstliche-intelligenz-zum-thema"> <span class="screen-reader-text">bwcon macht Künstliche Intelligenz zum Thema</span> Weiterlesen &#187;</a></p>]]></description>
										<content:encoded><![CDATA[<p>KI zählt zu den zentralen Zukunftsthemen. Die technologischen Entwicklungen haben in den letzten Jahren rasant an Fahrt aufgenommen und nehmen Einfluss auf immer mehr Lebensbereiche. Die scheinbar unbegrenzten neuen Möglichkeiten werden dabei auch begleitet von technischen, sozialen, rechtlichen und nicht zuletzt ethischen Herausforderungen. Diese Dimensionen wird der Verband bwcon nun mit der Integrata-Stiftung in einer neuen „Special Interest Group Künstliche Intelligenz“ thematisieren. Gerade im Südwesten gibt es zahlreiche Unternehmen, die sich mit Möglichkeiten der KI beschäftigen oder diese bereits einsetzen. Die SIG KI möchte den institutionellen Austausch im Rahmen der bwcon zwischen Unternehmensvertretern verschiedener Branchen ermöglichen und fördern. Für Mitglieder der bwcon ist die Veranstaltung kostenfrei.</p>
<p><strong>Weiterführende Links<br />
</strong></p>
<ul>
<li><a href="https://integrata-stiftung.de/neue-special-interest-group-ki-in-stuttgart">Neue Special Interest Group KI in Stuttgart</a></li>
<li><a href="https://www.facebook.com/events/603213263403899/">Veranstaltung auf Facebook</a></li>
</ul>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Qualitätssiegel Humane IT: Wer ein Interesse hat und wer nicht</title>
		<link>https://humanithesia.org/qualitaetssiegel-humane-it-wer-ein-interesse-hat-wer-nicht</link>
		
		<dc:creator><![CDATA[Egon Scherer]]></dc:creator>
		<pubDate>Wed, 16 Aug 2017 10:01:09 +0000</pubDate>
				<category><![CDATA[Beitragstyp]]></category>
		<category><![CDATA[Blog]]></category>
		<category><![CDATA[Qualitätssiegel]]></category>
		<category><![CDATA[Big Data]]></category>
		<category><![CDATA[Gütesiegel]]></category>
		<guid isPermaLink="false">http://humanithesia.org/?p=1088</guid>

					<description><![CDATA[Die Tübinger Integrata-Stiftung plant ein Qualitätssiegel für den humanen Einsatz der IT. Doch die aktuellen Entwicklungen werfen neue Fragen an dieses Siegel auf. Von Egon Scherer Die chinesische Regierung plant bis zum Jahr 2020 das „System für Soziale Vertrauenswürdigkeit“. Das &#8230;<p class="read-more"> <a class="more-link" href="https://humanithesia.org/qualitaetssiegel-humane-it-wer-ein-interesse-hat-wer-nicht"> <span class="screen-reader-text">Qualitätssiegel Humane IT: Wer ein Interesse hat und wer nicht</span> Weiterlesen &#187;</a></p>]]></description>
										<content:encoded><![CDATA[<p><strong>Die Tübinger Integrata-Stiftung plant ein Qualitätssiegel für den humanen Einsatz der IT. Doch die aktuellen Entwicklungen werfen neue Fragen an dieses Siegel auf.</strong></p>
<p>Von <strong>Egon Scherer</strong></p>
<p>Die chinesische Regierung plant bis zum Jahr 2020 das „System für Soziale Vertrauenswürdigkeit“. Das Ziel: „Die Vertrauenswürdigen sollen frei unter dem Himmel umherschweifen können, den Vertrauensbrechern aber soll kein einziger Schritt mehr möglich sein“. Ein System mit einem allwissenden und allsehenden digitalen Mechanismus, der mehr weiß über die Bürger, als sie selbst.</p>
<p>Realisiert wird dieses System mittels einer App und Big Data, natürlich nach den Vorstellungen der Partei. Eine digitale Diktatur? Schrecklich dieser inhumane Einsatz der IT, werden wir in Deutschland sagen, aber wie weit sind wir eigentlich davon entfernt oder sind wir sogar schon weiter? Die chinesische Regierung kann derzeit noch weitestgehend ungestört, da ohne spürbare Opposition, über ihre digitalen Pläne und Ziele kommunizieren. Sicherlich ist man auch überzeugt, dass dies alles zum Wohle des Menschen, also human, ist.</p>
<p>Für das angestrebte „Qualitätssiegel Humane IT“ der Integrata-Stiftung ergeben sich nicht nur unter diesem Aspekt für mich einige grundlegende Fragen:</p>
<ul>
<li>Für welches Staatgebiet bzw. welchen Wirtschaftsraum soll dieses Gütesiegel gelten? Deutschland, EU?</li>
<li>Wird dieses Gütesiegel im Kontext einer offenen demokratischen Gesellschaft definiert werden?</li>
<li>Wer hat daran tatsächlich ein nachhaltiges Interesse?</li>
</ul>
<p>Die Regierungen und Wirtschaftskonzerne von Staaten wie China, Saudi-Arabien, Polen, Ungarn, Russland, Türkei und &#8211; vermutlich muss ich auch die USA nennen &#8211; haben kein Interesse an einem funktionierenden Rechtsstaat und an einer offenen Gesellschaft, wie viele das in Deutschland und in einigen EU-Ländern anstreben. Ein Gütesiegel für Softwareprodukte und „digitale Produkte“ (IOTs) ist in diesen Ländern vermutlich nicht gewollt und wird deshalb nicht akzeptiert werden. Wie groß ist dann tatsächlich das Interesse von global agierenden deutschen Konzernen?</p>
<p>Fakt ist: Immer mehr Menschen sind mit dem Umgang ihrer persönlichen Daten nicht mehr einverstanden, die Akzeptanz für humane IT-Produkte wird in den nächsten Jahren steigen. Aus meiner Sicht könnte dies eine Chance für mittelständische Unternehmen mit „lokalem Vertriebsgebiet“ sein, sich zu differenzieren und eine nachhaltige Akzeptanz bei den Kunden erreichen. Wenn wir es ernst meinen mit Menschen- und Bürgerrechten ist ein humaner Einsatz von IT zwingend notwendig, wird aber auf erheblichen Widerstand in Teilen der Wirtschaft und Politik stoßen. Diesen Widerstand müssen wir aber akzeptieren und als Herausforderung annehmen. Hierzu ist es notwendig, die humanen Grenzwerte für die IT-Systeme zu definieren, um dann beurteilen zu können, ob etwas tolerabel ist oder nicht.</p>
<p>Aus meiner Sicht haben wir in vielen Bereichen der Politik eine starke Tendenz zur Generalüberwachung, die ganz elementar mittels IT realisiert wird. Diese Überwachung muss im Kontext einer offenen Gesellschaft, der Menschen- und Bürgerrechte analysiert werden, diese Ergebnisse können dann zur Definition von ersten Grenzwerten dienen. Ganz generelle Aspekte zur Definition von Grenzwerten sind sicherlich sinnvoll und erforderlich, müssen jedoch praxisnah und in gewisser Weise messbar sein.</p>
<p>Das Ignorieren von negativen wirtschaftlichen Entwicklungen, wie geplante Obsoleszenz, die Generierung von Bedürfnissen und damit verbundenem massivem Ressourcenverbrauch, die durch Einsatz von IT befördert wird, ist schon sehr weit fortgeschritten, es wird allerhöchste Zeit hier gegenzusteuern.</p>
<p>&nbsp;</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Welche Regeln sollten für Roboter gelten?</title>
		<link>https://humanithesia.org/kuenstliche-intelligenz-welche-regeln-sollten-fuer-roboter-gelten</link>
		
		<dc:creator><![CDATA[Sascha Blättermann]]></dc:creator>
		<pubDate>Mon, 03 Jul 2017 10:30:04 +0000</pubDate>
				<category><![CDATA[Arbeit und Erwerb]]></category>
		<category><![CDATA[Bildung und Ausbildung]]></category>
		<category><![CDATA[Blog]]></category>
		<category><![CDATA[KI]]></category>
		<category><![CDATA[Qualitätssiegel]]></category>
		<category><![CDATA[Roboter]]></category>
		<guid isPermaLink="false">http://humanithesia.org/?p=412</guid>

					<description><![CDATA[Haushaltsroboter unterstützen uns bald bei der täglichen Arbeit. Dafür brauchen sie Regeln. Aber welche? Diskutieren Sie mit uns! Von Michael Mörike Am Institut for Artificial Intelligence in Bremen werden momentan humanoide Roboter entwickelt, die kochen können. Noch ist es viel, &#8230;<p class="read-more"> <a class="more-link" href="https://humanithesia.org/kuenstliche-intelligenz-welche-regeln-sollten-fuer-roboter-gelten"> <span class="screen-reader-text">Welche Regeln sollten für Roboter gelten?</span> Weiterlesen &#187;</a></p>]]></description>
										<content:encoded><![CDATA[<p><strong>Haushaltsroboter unterstützen uns bald bei der täglichen Arbeit. Dafür brauchen sie Regeln. Aber welche? Diskutieren Sie mit uns!</strong></p>
<p>Von <strong>Michael Mörike</strong></p>
<p>Am Institut for Artificial Intelligence in Bremen werden momentan humanoide Roboter entwickelt, die kochen können. Noch ist es viel, was sie lernen müssen: Backen, Pizza zubereiten, Popcorn herstellen, Kaffee servieren, Tisch decken. Aber die Entwicklung und der Lernprozess dieser Haushaltsroboter geht mit großen Schritten voran: Wenn einer von ihnen etwas gelernt hat, können es im Handumdrehen auch die anderen, denn das Wissen und das Können wird einfach vom einen Roboter auf den anderen kopiert. Sobald die einfachen Handgriffe bei den blechernen Haushaltshilfen klappen, können sie lernen, ein 3-Sterne-Menü zuzubereiten und zu servieren.</p>
<p>Doch nicht nur in Bremen arbeitet man an solchen Robotern. Der Markt ist riesig, zumal in vielen Haushalten täglich gekocht wird. Wenn Haushaltsroboter für jeden Einzelnen erschwinglich werden, werden in vielen Küchen bald nicht mehr die Menschen kochen. Sie werden allerdings nur dann brauchbar sein, wenn jeder Käufer ihnen seine inidividuelle Umgebung und seine spezielle Art, wie der Haushalt gemacht werden soll, beibringen kann. Dafür müssen die Roboter auch nach dem Kauf lernfähig bleiben. Auch hier braucht es noch einige Zeit, bis die Technik diese Flexibilität zeigt. Dennoch: Bald werden wir lernfähige humanoide Roboter kaufen können, denen wir unsere individuellen Wünsche beibringen können – damit sie uns viel Arbeit abnehmen werden.</p>
<p>Aber man kann diesen Haushaltsrobotern dann auch Unsinn oder Bosheiten beibringen, ihre Lernfähigkeit missbrauchen. Wenn sie einmal Bosheiten gelernt haben, wer schützt uns vor ihnen? Was machen wir, wenn sie sich dagegen wehren, wenn wir versuchen, sie an etwas zu hindern? Wie stellen wir sicher, dass wir unsere Haushaltshilfen wie einen Besen wieder in die Ecke stellen können? Wie muss eine Notbremse für solche Fälle funktionieren? Was müssen die Hersteller der Roboter beachten?</p>
<p>Und wer stellt eigentlich die Regeln dafür auf?</p>
<p>Helfen Sie mit, solche Regeln zu formulieren! Schreiben Sie uns:</p>
<ul>
<li>Schreiben Sie Ihre Regelvorschläge als Kommentar unter unseren Blogbeitrag (Registrierung erforderlich)!</li>
<li><a href="https://www.facebook.com/Humanithesia-1107426236040438/">Diskutieren Sie mit uns auf Facebook!</a></li>
</ul>
<p>Wir freuen uns auf Ihre Meinungen!</p>
<p><strong>Weiterführende Links:</strong></p>
<ul>
<li><a href="https://www.heise.de/newsticker/meldung/Kochkurse-fuer-Maschinen-Kochende-Roboter-auf-dem-Weg-aus-dem-Labor-3650449.html">Artikel bei heise online</a></li>
<li><a href="http://humanithesia.org/koennen-roboter-ethische-rahmen-stecken">Kommentar: Können Roboter ethische Rahmen stecken?</a></li>
</ul>
]]></content:encoded>
					
		
		
			</item>
	</channel>
</rss>
