<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>Sascha Blättermann &#8211; HumanIThesia: Diskussionsportal für humane Nutzung der IT</title>
	<atom:link href="https://humanithesia.org/author/blswp/feed" rel="self" type="application/rss+xml" />
	<link>https://humanithesia.org</link>
	<description>Ethik bei künstlicher Intelligenz und Robotik</description>
	<lastBuildDate>Wed, 29 May 2019 08:09:05 +0000</lastBuildDate>
	<language>de</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	<generator>https://wordpress.org/?v=6.4.5</generator>

<image>
	<url>https://humanithesia.org/wp-content/uploads/2017/11/cropped-humanithesia-logo-vektor-socia-media-32x32.png</url>
	<title>Sascha Blättermann &#8211; HumanIThesia: Diskussionsportal für humane Nutzung der IT</title>
	<link>https://humanithesia.org</link>
	<width>32</width>
	<height>32</height>
</image> 
	<item>
		<title>ANNA: Das vernetzte Leben – von Ludwig Reicherstorfer</title>
		<link>https://humanithesia.org/anna-das-vernetzte-leben</link>
		
		<dc:creator><![CDATA[Sascha Blättermann]]></dc:creator>
		<pubDate>Mon, 12 Nov 2018 08:43:55 +0000</pubDate>
				<category><![CDATA[Gastbeiträge]]></category>
		<category><![CDATA[Stuttgarter Zukunftssymposium]]></category>
		<category><![CDATA[Uncategorized]]></category>
		<guid isPermaLink="false">http://humanithesia.org/?p=1592</guid>

					<description><![CDATA[Ein Projekt über Algorithmen und Künstliche Intelligenz in unser aller Alltag: Wie wir Menschen bereits heute für Anwendungen mit Künstlicher Intelligenz sensibilisieren. Von Ludwig Reicherstorfer Vor einigen Jahren hörte man den Satz “Das Internet wird immer wichtiger” fast täglich. Im &#8230;<p class="read-more"> <a class="more-link" href="https://humanithesia.org/anna-das-vernetzte-leben"> <span class="screen-reader-text">ANNA: Das vernetzte Leben – von Ludwig Reicherstorfer</span> Weiterlesen &#187;</a></p>]]></description>
										<content:encoded><![CDATA[<h4>Ein Projekt über Algorithmen und Künstliche Intelligenz in unser aller Alltag: Wie wir Menschen bereits heute für Anwendungen mit Künstlicher Intelligenz sensibilisieren.</h4>
<p>Von <strong>Ludwig Reicherstorfer</strong></p>
<p>Vor einigen Jahren hörte man den Satz “Das Internet wird immer wichtiger” fast täglich. Im gesellschaftlichen, politischen und im öffentlichen Diskurs in den Medien war dies eine Feststellung, die die technologische Revolution und ihre Auswirkung in alle Lebensbereiche hinein betonte.  Heute wirkt der Satz wenig visionär, denn dass wir uns in einer digitalen Gesellschaft befinden, streitet niemand mehr ab. Ähnliches wie seinerzeit das Internet, erfährt im Moment das Thema “Algorithmen und Künstliche Intelligenz”. Überall wird darüber gesprochen und geschrieben, welche zentrale Rolle diese beiden Aspekte moderner Technologie heute und in (naher) Zukunft einnehmen werden.</p>
<p>Auch wir von iRights widmen uns diesem Thema. Dabei nehmen wir bewusst eine Perspektive ein, die bisher &#8211; zumindest nach unserem Dafürhalten &#8211; noch zu wenig beachtet wird: die der Verbraucher*innen. <span id="more-1592"></span>Unser Anliegen ist es, gerade bei jenen Menschen, die sich zwar nicht bewusst und regelmäßig mit Themen der Digitalisierung beschäftigen, dem technologischen Fortschritt aber sehr wohl jeden Tag direkt oder indirekt begegnen, Interesse für die dahinter stehenden algorithmische Prozesse und Entwicklungen zu wecken und Wissen darüber zu vermitteln.</p>
<p>In unserem Projekt “ANNA &#8211; Das vernetzte Leben. Algorithmen und Künstliche Intelligenz im Verbraucheralltag” steht die fiktive Figur ANNA stellvertretend für genau diese Menschen. Wir begleiten ANNA, eine berufstätige 35-jährige Frau, bei alltäglichen Erlebnissen, deren Ausgangspunkt Technologien sind, die bereits existieren und genutzt werden. Die Geschichten aus ANNAs Alltag drehen sich um Fitness-Armbänder, Smart Homes, Sprachassistenten oder Werbetargeting und decken von vernetzter Medizin über soziales Leben verschiedene Bereiche ab, an denen wir mit Algorithmen und KI schon heute in Berührung kommen.</p>
<p>Es handelt sich dabei nicht um eine Dystopie, die vor unkontrollierbaren Fehlentwicklungen warnen möchte, sondern um eine Fiktion, die Chancen und Risiken zugleich thematisiert. ANNAs Geschichten zeigen, wie sehr unser aller Leben bereits im Kontext dieser Technologien stattfindet, und was man als Verbraucher*in dabei beachten sollte. Das Projekt bedient sich unterschiedlicher Wege, diese Inhalte zu vermitteln: Kurzfilme , Podcasts und geschriebene Stories erzählen Episoden aus ANNAs Leben. Sie werden begleitet von Hintergrund-Dossiers, Praxistipps und Handreichungen für den pädagogischen Einsatz der Materialien, zum Beispiel an Schulen oder in der Erwachsenenbildung.</p>
<p>Das Projekt wird vom Bundesministerium der Justiz und für Verbraucherschutz gefördert. Das Projekt arbeitet unabhängig, alle verfügbaren Informationen sind nach journalistischen Kriterien aufbereitet. Durchgeführt wird das Projekt durch den gemeinnützigen iRights e.V.</p>
<h4>Über den Verein</h4>
<p><em>Der iRights e.V. widmet sich der Aufklärung von Verbraucherinnen und Verbrauchern zu Themen wie Urheberrecht, Datenschutz, Datensicherheit, Algorithmen, digitales Leben u.v.m., er betreibt die Informationsplattform iRights.info, erstellt Publikationen und weitere Webangebote. Der iRights e.V. kooperiert in strategischen Fragen eng mit dem Think Tank iRights.Lab. </em><em>Alle Informationen zum Projekt “ANNA &#8211; Das vernetzte Leben” <a href="http://www.annasleben.de">finden Sie hier</a>.</em></p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Künstliche Intelligenz, made in Europe – von Dr. Anna Christmann</title>
		<link>https://humanithesia.org/anna-christmann-kuenstliche-intelligenz-made-in-europe</link>
		
		<dc:creator><![CDATA[Sascha Blättermann]]></dc:creator>
		<pubDate>Tue, 06 Nov 2018 09:07:10 +0000</pubDate>
				<category><![CDATA[Ethik]]></category>
		<category><![CDATA[Gastbeiträge]]></category>
		<category><![CDATA[KI]]></category>
		<category><![CDATA[Stuttgarter Zukunftssymposium]]></category>
		<guid isPermaLink="false">http://humanithesia.org/?p=1585</guid>

					<description><![CDATA[Künstliche Intelligenz europäisch entwickeln und zum Wohl von Gesellschaft und Umwelt gestalten: Wir brauchen KI, die auf der Grundlage europäischer Werte in Europa erforscht und entwickelt wird. Doch in Deutschland fehlt die Strategie. Ein Debattenbeitrag zum Stuttgarter Zukunftssymposium Ethik und &#8230;<p class="read-more"> <a class="more-link" href="https://humanithesia.org/anna-christmann-kuenstliche-intelligenz-made-in-europe"> <span class="screen-reader-text">Künstliche Intelligenz, made in Europe – von Dr. Anna Christmann</span> Weiterlesen &#187;</a></p>]]></description>
										<content:encoded><![CDATA[<h4>Künstliche Intelligenz europäisch entwickeln und zum Wohl von Gesellschaft und Umwelt gestalten: Wir brauchen KI, die auf der Grundlage europäischer Werte in Europa erforscht und entwickelt wird. Doch in Deutschland fehlt die Strategie. Ein Debattenbeitrag zum Stuttgarter Zukunftssymposium Ethik und KI.</h4>
<p>von <strong>Dr.</strong> <strong>Anna Christmann, MdB</strong></p>
<p>Künstliche Intelligenz (KI), maschinelles Lernen und autonome Systeme werden unsere Welt in den nächsten Jahren grundlegend verändern. Als Grüne wollen wir die Kraft dieser Veränderungen vor allem auch für die sozialökologische Modernisierung von Wirtschaft, Wissenschaft und Gesellschaft nutzen. Damit das gelingt, müssen Deutschland und Europa KI selbstbestimmt erforschen, entwickeln und einsetzen können. Denn nur wer KI in all ihren Facetten versteht, kann sie auch nach den eigenen gesellschaftlichen, politischen und ethischen Vorgaben souverän gestalten. <span id="more-1585"></span></p>
<p>Wir dürfen uns in Europa nicht damit zufrieden geben, im Nachhinein den rechtlichen Rahmen für Innovationen zu stricken, die anderswo entwickelt wurden. Auch wenn wir damit zum Teil sehr erfolgreich sind, wie die Datenschutzgrundverordnung gezeigt hat. Trotzdem: Aus dieser defensiven Haltung müssen wir uns selbstbewusst befreien und in die Offensive kommen. Wir brauchen KI made in Europe, die auf der Grundlage europäischer Werte in Europa erforscht und entwickelt wird.</p>
<h4><strong>Kein blindes Wettrennen mit den USA oder China</strong></h4>
<p>Doch schaut man sich die globalen Forschungsausgaben an, haben andere klar die Nase vorn. Ob Tesla, Google, Nasa oder Darpa – in den USA nimmt nicht nur der Staat viel Geld in die Hand. Auch Großkonzerne investieren bedeutende Summen in die Entwicklung selbstfahrender Autos, Roboter oder lernender Algorithmen. Seit Jahren führen die USA die Weltrangliste der absoluten Forschungsausgaben an. Doch andere holen rasant auf. Allen voran China, wo der Staat seit einigen Jahren Milliarden in die Entwicklung von KI-Technologien pumpt. Insgesamt wird in Asien mittlerweile dreimal so viel in KI investiert wie in Europa, in Nordamerika sogar sechsmal.</p>
<p>Es darf uns nicht um ein blindes Wettrennen mit den USA oder China gehen, sondern darum, einen europäischen Weg zu entwickeln, der gesellschaftliche Gerechtigkeitsfragen, Grund- und Freiheitsrechte im Blick behält. Die europäische Einbettung der Forschungsaktivitäten und entschlossene Investitionen sind dabei die Grundvoraussetzung. Wir sprechen uns als Grüne daher für flexiblere Forschungsstrukturen aus, die es ermöglichen mit guten Gehälter, attraktiver Infrastruktur und europäischer Lebensqualität die besten KI-Forschenden nach Europa zu holen oder hier zu halten. Denn sonst werden die Rahmenbedingungen für KI anderswo gesetzt. In autoritären Staaten wie China droht durch KI die allumfassende Überwachung, in den USA ein weiterer Machtzuwachs großer Digitalkonzerne &#8211; mit all den negativen Konsequenzen, die wir heute schon erleben. Der europäische Weg muss ein anderer, ein Weg der digitalen Chancen, des fairen Marktzugang, der nachhaltigen Entwicklung und der Selbstbestimmtheit sein.</p>
<h4><strong>In Deutschland fehlt eine KI-Strategie</strong></h4>
<p>Neben einer konsequenten Vernetzung der europäischen Forschungsstandorte fehlt es in Deutschland vor allem an einer KI-Strategie, die mit mutigen Investitionen unterlegt ist und die nötigen rechtlichen Rahmenbedingungen setzt. In den letzten anderthalb Jahren haben Kanada, China, Frankreich, die USA und zahlreiche andere Staaten Strategien für die Erforschung und den Einsatz von KI vorgelegt. Fast alle mit dem Anspruch dabei weltweit führend zu sein. Während andere Länder also längst dabei sind, ihre entsprechenden Strategien umzusetzen, hinkt die Bundesregierung hinterher und droht so, den internationalen Anschluss bei dieser wichtigen Zukunftstechnologie zu verlieren.</p>
<p>Das einzig Gute an dieser, von der Bundesregierung verursachten Nachzüglerschaft: Die Große Koalition kann sich an den vielen bereits existierenden Strategien orientieren – und sollte das auch unbedingt tun. Die französische KI-Strategie benennt zum Beispiel ausdrücklich ökologische Potentiale von KI als eine zentrale Säule. Warum machen wir die ökologischen Anwendungen von KI nicht zu einem Schwerpunkt in Europa, zum Beispiel durch eine Innovationsstiftung für nachhaltige und soziale digitale Anwendungen (INSDA)?</p>
<h4>Frankreich als Vorbild</h4>
<p>Auch bei der Einbindung der Zivilgesellschaft und verschiedener Stakeholder kann Frankreich Vorbild sein. Nur durch Transparenz und Beteiligung entsteht das nötige Vertrauen, um Künstliche Intelligenz zum Wohl der Gesellschaft gestalten zu können. Auch die KI Strategie der EU hat bereits wichtige Aufgaben definiert, die auch die Bundesregierung dringend adressieren muss. Etwa müssen die absehbaren Veränderungen der Arbeitswelt weiter erforscht, breit diskutiert und die Arbeitnehmerinnen und Arbeitnehmer rechtzeitig darauf vorbereitet werden.</p>
<p>Bei der Gestaltung von KI egal ob national oder europäisch muss immer die Frage im Mittelpunkt stehen, wie wir die neue Technologie zum Wohle der Gesellschaft nutzen können. Diese Frage stellt sich am Ende global. Die Potenziale von KI für die Lösung wichtiger gesellschaftlicher und ökologischer Herausforderungen sind enorm. Ob verbesserte medizinische Diagnostik für die frühzeitige Erkennung von Krebs, intelligente Steuerung von Verkehrsströmen oder smarte Stromnetze für den schnellen Umstieg auf erneuerbare Energien, in zahlreichen Bereichen kann KI einen positiven Beitrag leisten. Um diese Potenziale auch zu heben, brauchen wir eine bessere Innovationsförderung, europäische Vernetzung und eine klare Strategie, die Gemeinwohl und Nachhaltigkeit von KI ins Zentrum stellt. Um globale ethische Standards zu entwickeln, sprechen wir Grünen uns für einen KI-Gipfel analog zur Klimakonferenz aus.</p>
<h4>Über die Autorin:</h4>
<p><em>2017 zog Dr. Anna Christmann in den deutschen Bundestag für den Wahlkreis Stuttgart II ein. In der Fraktion von Bündnis 90/Die Grünen ist sie als Sprecherin für die Themen Bürgerschaftliches Engagement sowie Innovations- und Technologiepolitik zuständig. Frau Dr. Christmann ist Mitglied der Enquete Kommission Künstliche Intelligenz und Gast auf dem Podium beim <a href="http://www.stuttgarter-zukunftssymposium.de">Stuttgarter Zukunftssymposium Ethik und KI</a>.<br />
</em></p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Datenreichtum und Datenschutz kombinieren – von Michael Mörike</title>
		<link>https://humanithesia.org/mit-hilfe-von-blockchain-datenreichtum-und-datenschutz-kombinieren</link>
		
		<dc:creator><![CDATA[Sascha Blättermann]]></dc:creator>
		<pubDate>Sun, 19 Aug 2018 20:00:03 +0000</pubDate>
				<category><![CDATA[Arbeit und Erwerb]]></category>
		<category><![CDATA[Blog]]></category>
		<category><![CDATA[Führung und Verantwortung]]></category>
		<category><![CDATA[KI]]></category>
		<category><![CDATA[Ethik]]></category>
		<guid isPermaLink="false">http://humanithesia.org/?p=1568</guid>

					<description><![CDATA[Wie mit der modernen Blockchain-Technologie unsere Privatsphäre wieder geschützt werden kann. Von Michael Mörike In der Internetwelt gibt es zwei gegenläufige Trends: Einerseits greifen Unternehmen mehr und mehr Daten von uns ab und verdienen damit Geld. Wir geben die Daten &#8230;<p class="read-more"> <a class="more-link" href="https://humanithesia.org/mit-hilfe-von-blockchain-datenreichtum-und-datenschutz-kombinieren"> <span class="screen-reader-text">Datenreichtum und Datenschutz kombinieren – von Michael Mörike</span> Weiterlesen &#187;</a></p>]]></description>
										<content:encoded><![CDATA[<h4><img fetchpriority="high" decoding="async" class="alignnone size-medium wp-image-173" src="https://humanithesia.org/wp-content/uploads/2017/01/keyboard-886462_640-300x169.jpg" alt="Nutzung der Informationstechnologie" width="300" height="169" /></h4>
<h4>Wie mit der modernen Blockchain-Technologie unsere Privatsphäre wieder geschützt werden kann.</h4>
<p>Von <strong>Michael Mörike</strong></p>
<p>In der Internetwelt gibt es zwei gegenläufige Trends: Einerseits greifen Unternehmen mehr und mehr Daten von uns ab und verdienen damit Geld. Wir geben die Daten ziemlich freiwillig her – um nicht zu sagen ziemlich leichtfertig – ohne dafür eine angemessene Gegenleistung zu bekommen. Dabei wird unsere Privatsphäre immer kleiner. Andererseits werden immer neue gesetzliche Schutzmechanismen für unsere Privatsphäre erlassen, die wir eher als zusätzlichen Aufwand denn als wirklichen Schutz empfinden. Neuestes Beispiel in der EU ist die DSGVO. Aber auch anderswo gibt es solche Bestrebungen.</p>
<p>Ist uns unsere Privatsphäre so unwichtig? <span id="more-1568"></span>Wir haben uns evolutionär als – mehr oder weniger gute – Mischung aus Individualwesen und Sozialwesen entwickelt: Wir brauchen daher sowohl eine Privatsphäre (und haben also auch Eigentum), als auch Gesellschaft mit anderen Menschen (und haben daher auch starke soziale Eigenschaften und Gemeinschaftsgüter). Nun sind die Grenzen zwischen den beiden Gebieten nicht für alle Zeiten unverrückbar festgelegt. Sie sind schon heute in den verschiedenen Kulturen sehr unterschiedlich. Bringt es die Internetkultur neuerdings mit sich, dass wir unsere Privatsphäre – mehr oder weniger freiwillig – verkleinern? Schließlich wird ja auch das Teilen (Sharing) immer beliebter und die steigende Anzahl von Menschen auf unserem Globus macht es immer sinnvoller, um die uns global zur Verfügung stehenden Ressourcen zu schonen.</p>
<p>Bisher schien es so, als ginge beides nicht zusammen. Oder geht es etwa doch? Hoffnungsvolle Anzeichen kommen mit dem neuen Begriff der <em>self-sovereign identity</em> (SSI, selbstbe-stimmte Identität). Technisch wird sie möglich mit Hilfe der Blockchain und dem Sovrin-Protokoll. Sie kennen das nicht? Grob gesagt geht das so: Schon bisher gab es Trust-Center, die in CA’s betrieben wurden. Das Problem dabei war: Was ist wenn eines dieser zentral organisierten CA seinen Betrieb aufgibt oder seine Betriebsbedingungen massiv ändert? Dann waren alle damit verbürgten Vertragsverhältnisse gebrochen oder wertlos, weil z.B. nicht mehr bezahlbar. Das hat viele davon abgehalten, darauf zu vertrauen. Ein Netz von Blockchains kann diese zentralen Trustcenter ersetzen. Wenn es internetweit genauso gut verfügbar ist wie DNS, dann kann es nicht mehr beseitigt oder korrumpiert werden. Mit Hilfe von per Blockchain zertifizierten Frage-Antwort-Protokollen können dann &#8211; für jedermann erschwinglich, da kostenlos – Abfragen von Daten oder Rechten (Berechtigungen) gemacht werden, die die Identität der abgefragten Person nicht preisgeben müssen. Der Mensch dahinter bleibt anonym.</p>
<p>Es braucht dann auch keine Datenkraken mehr, die die Daten von vielen Menschen horten, um sie Dritten zur Auswertung weiterzugeben. Deren Vermittlerrolle entfällt und die Daten sind trotzdem im Umlauf – allerdings anonym. Die Daten werden dann auch nicht mehr gestohlen, weil dies keinen Sinn mehr macht. Datenreichtum kann dann ohne die unschönen Nebenwirkungen vom Verlust der Privatsphäre seine volle Wirkung entfalten.</p>
<p>Nun – bis es so weit ist, dauert es aber noch etwas. Die im Internet dafür benötigten Protokolle sind seit Mitte 2017 in Arbeit und stehen vermutlich demnächst öffentlich zur Verfügung. Dann muss sich zunächst auch noch das Netz der Blockchains aufbauen und es muss üblich werden, es zu nutzen. Und erst, wenn es intensiv genutzt wird, sterben die alten „schmutzigen“ Daten so langsam aus, indem sie im Laufe der Zeit unbrauchbar werden. Immerhin: Es gibt Aussicht auf Besserung!</p>
<h4>Weiterführende Links:</h4>
<ul>
<li><a href="https://www.heise.de/newsticker/meldung/id4me-Identity-Management-ohne-Google-Facebook-Twitter-3978885.html">heise online: Identity-Management ohne Google, Facebook und Twitter</a></li>
</ul>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>DJ AIKI:  wenn KI den DJ spielt – von Georg-Ludwig Verhoeven</title>
		<link>https://humanithesia.org/dj-aiki-wenn-ki-den-dj-spielt</link>
		
		<dc:creator><![CDATA[Sascha Blättermann]]></dc:creator>
		<pubDate>Mon, 13 Aug 2018 07:15:38 +0000</pubDate>
				<category><![CDATA[Arbeit und Erwerb]]></category>
		<category><![CDATA[Bildung und Ausbildung]]></category>
		<category><![CDATA[Blog]]></category>
		<category><![CDATA[KI]]></category>
		<category><![CDATA[Ethik]]></category>
		<category><![CDATA[Musik]]></category>
		<guid isPermaLink="false">http://humanithesia.org/?p=1550</guid>

					<description><![CDATA[Unser Blogger Georg-Ludwig Verhoeven macht sich Sorgen um die Zukunft der DJs. Werden sie durch KI bald arbeitslos? von Georg-Ludwig Verhoeven Die Bässe wummern, die Rhythmen hämmern, die Lichteffekte erzeugen den Eindruck, man sitzt in einem ausbrechenden Vulkan. Die Fans &#8230;<p class="read-more"> <a class="more-link" href="https://humanithesia.org/dj-aiki-wenn-ki-den-dj-spielt"> <span class="screen-reader-text">DJ AIKI:  wenn KI den DJ spielt – von Georg-Ludwig Verhoeven</span> Weiterlesen &#187;</a></p>]]></description>
										<content:encoded><![CDATA[<h4><strong>Unser Blogger Georg-Ludwig Verhoeven macht sich Sorgen um die Zukunft der DJs. Werden sie durch KI bald arbeitslos?</strong></h4>
<p>von <strong>Georg-Ludwig Verhoeven</strong></p>
<p>Die Bässe wummern, die Rhythmen hämmern, die Lichteffekte erzeugen den Eindruck, man sitzt in einem ausbrechenden Vulkan. Die Fans tanzen und schreien, und hier und werden auch Substanzen eingenommen, die die Stimmung weiter anheizen. So kennen wir die Stimmung in Discos. Und wer sitzt vorne am Pult und fährt diese ganze Show? Sehen kann man von der Tanzfläche ja kaum etwas, und letztlich ist es ja auch egal – man amüsiert sich. Wer da sitzt, ist DJ AIKI, und das ist – ein KI-System, aber kein DJ aus Fleisch und Blut. Der Name DJ AIKI klingt zunächst mal japanisch, ist aber einfach die Kombination aus „Artificial Intelligence“ und „Künstliche Intelligenz“.</p>
<p>Geht das? Sind die aktuellen menschlichen DJs mit ihren Millionengagen eine aussterbende Spezies?<span id="more-1550"></span></p>
<p>Was machen DJs? Abgesehen von denen, die selbst auch Musik produzieren, stellen sie Musik nach gewissen Kriterien zusammen und spielen sie über Stunden ab. Manchmal fügen sie noch Lightshow, eigene Ansagen oder Tanzeinlagen hinzu. Können das nicht Maschinen und/oder KI-Systeme übernehmen?</p>
<p>Und wie die das können: Beim Zusammenstellen von „Playlists“ lässt sich der klassische DJ von gewissen Kriterien leiten und kann aus seiner Musiksammlung die passenden Stücke in der richtigen Reinhefolge asuswählen. Solche Kriterien können sein: Der Rhythmus, das Tempo, die Tonart, die Sprache, die Besetzung (vokal und/oder instrumental), Entstehungsdatum, ethnische / nationale Herkunft, Hitparadenplatzierunge (wann?) und einige mehr. Während der Vorführung wird dann noch Lightshow und Tanz hinzugefügt– mehr oder wenig spontan oder auch automatisch.</p>
<p>In der Vergangenheit musste ein DJ viel Musik kennen (und tausende von Tonträgern kaufen), um solche Playlists zusammenzustellen. Bei DJ AIKI ist das nicht mehr nötig: Das System ermittelt aus sämtlichen in Netz oder Cloud verfügbaren Musikdateien die notwendigen Kriterien und stellt daraus Playlists zusammen, wiederum nach gewissen Kriterien. Die Lightshow wird aus dem akustischen Signal live erzeugt, und auch hier können bestimmte Parameter (Farben, Helligkeit, Effekte etc. ) angepasst werden. Wenn man jetzt noch – entweder nach dem Zufallsprinzip oder auch parametrisiert – Rufe und Tanzbewegungen (eines Roboters oder digitale, ggf. bearbeitete Videoaufzeichnungen und gleich auf den Monitor) dazupackt, ist die Show fertig. Ob die Show erfolgreich war, lernt DJ AIKI aus der Größe und Zusammensetzung des Publikums, Lautstärke und Wildheit der Tanzenden, dem Getränkekonsum und letztlich dem Umsatz / Gewinn der Disko an diesem Tag. Bei Bedarf wird dann nachgeregelt, bis es passt. Und dann werden die erfolgreichen Playlists noch – kostenpflichtig – vermarktet.</p>
<p>Keine guten Aussichten für DJ Bobo, DJ Ötzi, David Guetta und wie sie alle heißen?</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Pro und Contra: Kann man Maschinen und Robotern Ethik beibringen? (3) – von Prof. Dr. Karsten Weber</title>
		<link>https://humanithesia.org/kann-man-maschinen-und-robotern-ethik-und-moral-beibringen-weber</link>
		
		<dc:creator><![CDATA[Sascha Blättermann]]></dc:creator>
		<pubDate>Mon, 06 Aug 2018 13:05:37 +0000</pubDate>
				<category><![CDATA[Blog]]></category>
		<category><![CDATA[Ethik]]></category>
		<category><![CDATA[Führung und Verantwortung]]></category>
		<category><![CDATA[Gastbeiträge]]></category>
		<category><![CDATA[KI]]></category>
		<category><![CDATA[Qualitätssiegel]]></category>
		<guid isPermaLink="false">http://humanithesia.org/?p=1546</guid>

					<description><![CDATA[Vor zwei Wochen stritten unsere Blogger Michael Mörike und Georg Ludwig Verhoeven darüber, ob Maschinen und Roboter Ethik lernen können. Heute antwortet Prof. Dr. Karsten Weber, Ko-Leiter des Instituts für Sozialforschung und Technikfolgenabschätzung an der OTH Regensburg. Von Prof. Dr. Karsten &#8230;<p class="read-more"> <a class="more-link" href="https://humanithesia.org/kann-man-maschinen-und-robotern-ethik-und-moral-beibringen-weber"> <span class="screen-reader-text">Pro und Contra: Kann man Maschinen und Robotern Ethik beibringen? (3) – von Prof. Dr. Karsten Weber</span> Weiterlesen &#187;</a></p>]]></description>
										<content:encoded><![CDATA[<h4>Vor zwei Wochen stritten unsere Blogger <a href="http://humanithesia.org/pro-und-contra-kann-man-maschinen-und-robotern-ethik-beibringen">Michael Mörike</a> und <a href="http://humanithesia.org/pro-und-contra-kann-man-maschinen-und-robotern-ethik-beibringen-2">Georg Ludwig Verhoeven</a> darüber, ob Maschinen und Roboter Ethik lernen können. Heute antwortet Prof. Dr. Karsten Weber, Ko-Leiter des Instituts für Sozialforschung und Technikfolgenabschätzung an der OTH Regensburg.</h4>
<p>Von <strong>Prof. Dr. Karsten Weber</strong></p>
<p>In seinem Maßstäbe setzenden Aufsatz „Computing Machinery and Intelligence“ aus dem Jahr 1950 schlug der britische Mathematiker Alan M. Turing einen Test vor, mit dessen Hilfe entschieden werden könne, ob eine Maschine intelligent sei bzw. denken würde – allerdings muss das Wort „denken“ in diesem Kontext in Anführungszeichen gesetzt werden. Die Idee Turings ist so einfach wie genial: Gelänge es einer Maschine in diesem Test nicht als Maschine identifiziert, sondern für einen Mensch gehalten zu werden, so hätte diese Maschine den Turing-Test bestanden: Die Maschine wäre „intelligent“ oder „denkt“. „Denken“ heißt im Kontext des Tests bestimmte kommunikative Fähigkeiten zu besitzen, ohne dass damit bereits unterstellt werden würde, wie diese realisiert sein müssen. Mit dem Bestehen des Turing-Tests geht somit nicht einher, dass angenommen werden würde, dass eine Maschine genauso denke wie ein Mensch, sondern eben nur, dass es dieser Maschine gelingt, in einem Menschen die Überzeugung zu wecken, mit einem denkenden Wesen zu interagieren. Um den Turing-Test bestehen zu können, ist es also nicht wichtig, dass die Maschine tatsächlich denkt, sondern es ist wichtig, dass Menschen die Überzeugung haben, dass sie denkt. „Denken“ ist hier also eine Zuschreibung; der Unterschied zwischen „X denkt“ und „ich glaube, dass X denkt“ ist, so kann man Turing verstehen, im Grunde nicht sinnvoll zu ziehen. Mit anderen Worten: Bezüglich des Denkens ist nicht so sehr die Erste-Person-Perspektive wichtig, sondern die Dritte-Person-Perspektive.<span id="more-1546"></span></p>
<p>Nun kann man diese Aussage über das Denken auch auf andere psychische Phänomene wie Emotionen, Wünsche, Ziele, Intentionen, Motive und so fort ausweiten und sagen, dass auch der Unterschied zwischen „X hat Gefühle“ und „ich glaube, dass X Gefühle hat“ oder „X hegt Überzeugungen“ und „ich glaube, dass X Überzeugungen hegt“ und vielen anderen ähnlichen psychischen Phänomenen nicht sinnvoll gezogen werden kann, da wir stets nur das beobachtbare äußere Verhalten zur Beurteilung darüber heranziehen können, ob unser Gegenüber denkt, Gefühle hat oder Überzeugungen hegt. John McCarthy hat diese Überlegung schließlich in seinen Arbeiten so zugespitzt, dass er selbst so einfachen Mechanismen wie Heizungsthermostaten das Haben von Überzeugungen zubilligte. Man kann Turing ebenso wie McCarthy so verstehen, dass zur Operationalisierung der Messung von Intelligenz oder auch von Emotionen oder gar Moralität stets nur das äußere Verhalten des jeweiligen Untersuchungsobjekts herangezogen werden kann; folgt man diesem Grundannahme, macht die Unterscheidung von „X denkt“ und „ich glaube, dass X denkt“ nun tatsächlich keinen Sinn mehr, weil wir die Aussage „X denkt“ nur auf Grundlage des äußeren Anscheins, also dem sichtbaren Verhalten, von X treffen können.</p>
<p>Das heißt nichts anderes, als dass es unerheblich ist, ob unser Gegenüber tatsächlich mentale Zustände hat, wirklich denkt, fühlt, glaubt, wünscht, oder ob wir nur der Überzeugung sind, dass es so sei; für unser Handeln spielt das keine Rolle, solange wir mit unseren Zuschreibungen erfolgreich sind. In der Gestaltung von Geräten und insbesondere im Bereich der Mensch-Maschine-Interaktion kann man sich dies nun erfolgreich zunutze machen. Wenn die Designer solcher Geräte es erreichen können, in den Nutzern die Überzeugung zu wecken, dass das Gerät denkt, fühlt, glaubt, wünscht – kurz: augenscheinlich etwas Ähnliches wie man selbst ist, so sind Interaktionen meist erfolgreicher.</p>
<h4>Die moralische Frage</h4>
<p>Designer und Hersteller von Robotern oder KI-Systemen könnten daher versucht sein Maschinen auf eine solche Weise zu gestalten, dass sie von Menschen als künstliche moralische Agenten angesehen werden. Der Ausdruck „künstlicher moralischer Agent“ soll dabei heißen, dass Menschen eher die Maschine für deren Handlungen und den Folgen dieser Handlungen verantwortlich machen als deren Designer oder Hersteller. Mit Sicherheit werden diese Agenten versagen – ganz genauso wie ordinäre Maschinen das zuweilen ebenfalls tun. Wenn dies geschieht und diese Maschinen als künstliche moralische Agenten akzeptiert werden würden, machten jene Menschen, die mit ihnen interagieren, vermutlich die Maschinen für ihre Aktionen und deren Folgen verantwortlich – zumindest bis zu einem gewissen Maß.</p>
<p>Das wäre moralisch aber mehr als zweifelhaft, doch derzeit existieren keine auf autonome artifizielle Agenten anwendbaren moralischen Normen. Aber eher früher als später werden solche Normen dringend benötigt: Nicht weil wir bereits in der Lage wären, künstliche moralische Agenten zu bauen, sondern weil sie durch schlichte Zuschreibung erzeugt werden – und das ist sehr einfach und ein alltäglicher Vorgang. Es ist daher naheliegend, dass entsprechende moralische und soziale Normen die Designer und Gestalter solcher Maschinen ansprechen müssen, nicht die Maschinen selbst. Denn in Bezug auf die Mensch-Maschine-Interaktion kann man sehr leicht Szenarien bspw. für den Bereich des E-Commerce entwerfen, in denen es durchaus nützlich wäre, die Überzeugung bei Menschen zu erzeugen oder zu stärken, dass das jeweilige mechanische Gegenüber ein wohlinformierter, moralisch verantwortlicher und vertrauenswürdiger Agent ist, der nur im Interesse der Menschen agiert. Um es direkt zu sagen: Autonome artifizielle Agenten könnten dazu benutzt werden, Menschen zu verführen oder gar zu betrügen.</p>
<p>Daher sollte folgende moralische Norm stets beachtet werden: Gestalte keine Maschinen, die die menschlichen Interaktionspartner vergessen lassen, dass sie mit Maschinen interagieren. Damit würde die Unvermeidbarkeit der Vermenschlichung von Maschinen, wie sie im vorliegenden Text beschrieben wurde, entgegengewirkt und sichergestellt, dass die Aktionen eines autonomen artifiziellen Agenten stets dessen Designern und Herstellern zugerechnet werden kann. Ähnlich argumentieren Deborah Johnson und Keith W. Miller, wenn sie schreiben: „Debate about the moral agency of computer systems takes place at a certain level of abstraction and the implication of our analysis is that discourse at this level should reflect and acknowledge the people who create, control, and use computer systems. In this way, developers, owners, and users are never let off the hook of responsibility for the consequences of system behavior.“</p>
<p><em>Anmerkung: Der vorliegende Beitrag stellt eine stark gekürzte Fassung eines vor einigen Jahren publizierten Textes mit dem Titel „Ist da jemand? Über unsere Bereitschaft und die Unvermeidbarkeit Maschinen zu vermenschlichen“. Weitere Texte des Autors zum Thema finden sich auf seiner Webseite.</em></p>
<h4>Über den Autor</h4>
<p><em><img decoding="async" class="alignleft size-thumbnail wp-image-1547" src="https://humanithesia.org/wp-content/uploads/2018/08/Karsten_Weber_Schiff-002-150x150.jpg" alt="" width="150" height="150" />Prof. Dr. Weber ist Ko-Leiter des Instituts für Sozialforschung und Technikfolgenabschätzung (IST) an der Ostbayerischen Technischen Hochschule (OTH) Regensburg. Er forscht und lehrt insbesondere im Bereich der Technikfolgenabschätzung und Technikethik, ist Mitglied der Präsidiumskommission „Ethische Fragen in der Medizinischen Information, Biometrie und Epidemiologie“ und des Ethikgremiums des „Bayerischen IT Sicherheitsclusters“.</em></p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Regulierung braucht das Land</title>
		<link>https://humanithesia.org/regulierung-braucht-das-land</link>
		
		<dc:creator><![CDATA[Sascha Blättermann]]></dc:creator>
		<pubDate>Sun, 29 Jul 2018 12:00:24 +0000</pubDate>
				<category><![CDATA[Blog]]></category>
		<category><![CDATA[Ethik]]></category>
		<category><![CDATA[Gastbeiträge]]></category>
		<category><![CDATA[KI]]></category>
		<guid isPermaLink="false">http://humanithesia.org/?p=1526</guid>

					<description><![CDATA[Gelöste und ungelöste Rechtsfragen des Autonomen Fahrens. Ein Gastbeitrag von Nicolas Woltmann Die Entwicklung neuer Technologien ist ein Balanceakt: Die bestmögliche Realisierung ihres Nutzens muss in einen Ausgleich gebracht werden mit ihren Risiken. Der Weg bis zu ihrer Einführung kann &#8230;<p class="read-more"> <a class="more-link" href="https://humanithesia.org/regulierung-braucht-das-land"> <span class="screen-reader-text">Regulierung braucht das Land</span> Weiterlesen &#187;</a></p>]]></description>
										<content:encoded><![CDATA[<h4><strong>Gelöste und ungelöste Rechtsfragen des Autonomen Fahrens. Ein Gastbeitrag von</strong> <strong>Nicolas Woltmann</strong></h4>
<p>Die Entwicklung neuer Technologien ist ein Balanceakt: Die bestmögliche Realisierung ihres Nutzens muss in einen Ausgleich gebracht werden mit ihren Risiken. Der Weg bis zu ihrer Einführung kann sich anschließend jedoch als noch weitaus steiniger erweisen. Meint der Entwickler ein angemessenes Verhältnis zwischen Positiv- und Negativfolgen hergestellt zu haben, so muss er nun auch genügend Andere hiervon überzeugen. Dabei kann ihm bisweilen heftiger Gegenwind aus deren Richtung entgegenschlagen. Aus dem Stimmengewirr jener Skeptiker und Mahner stechen scheinbar die Juristen, denen diese Eigenschaft gerne als berufsbedingt unterstellt wird, besonders hervor.</p>
<p>Ein anderes Verständnis von Juristerei lässt sich jedoch mittlerweile an zahlreichen fachübergreifenden Forschungskooperationen zum Thema Künstliche Intelligenz beobachten. Unter Beteiligung von Rechtswissenschaftlern (v.a. aus dem universitären Bereich) werden hier die Chancen und Probleme des digitalen Wandels ergebnisoffen diskutiert und zu Handlungsempfehlungen an Entwickler, Hersteller, Politiker und Nutzer zusammengeführt. Eine Vorreiterstellung darf insoweit – aufgrund ihres fortgeschrittenen Alters von 8 Jahren – der Forschungsstelle RobotRecht zugesprochen werden. In Zusammenarbeit mit sämtlichen der genannten Personengruppen und unter Leitung des Würzburger Lehrstuhlinhabers Prof. Dr. Dr. Eric Hilgendorf bemüht sich das Format in einer Vielzahl abwechslungsreicher Projekte um die rechtliche Begleitung der Einführung moderner Maschinen und Software.</p>
<p>Deren zunehmende Autonomie stellt tradierte juristische Konzepte vor teils große Herausforderungen. Beginnend bei ihrer Zulassungsfähigkeit, über Haftung und Verantwortung, bis hin zu Datenschutz und Urheberrecht bringen diese neuen Systeme eine Menge strittiger Detail-, aber auch Grundsatzfragen mit sich. Ihr schnelles Vordringen in sämtliche Lebensbereiche verschärft die Dringlichkeit, beantworten zu müssen, wie wir als Gesellschaft uns mit den neuen Gegebenheiten arrangieren, inwieweit wir diese einer Regulierung unterziehen wollen.</p>
<h4>Begutachtung des Einsatzes intelligenter Systeme duldet keinen Aufschub</h4>
<p>Industrie, Landwirtschaft, Haushalt, virtuelle Welt: Den Anwendungsmöglichkeiten scheinen keine Grenzen gesetzt. Besonders exemplarisch für einen akuten Handlungsbedarf stehen Fragen der Mobilität. Das autonome Fahren hat in Form von Fahrassistenzsystemen längst Einzug in den Verkehr auf unseren Straßen gehalten und ist als Zukunftsvision vom vollkommen führerlosen KFZ inzwischen in aller Munde. Auch auf der Projektliste der Forschungsstelle RobotRecht nehmen Aktivitäten in diese Richtung daher prominente Plätze ein: Zu nennen sind hier nicht nur Kooperationen mit namhaften Partnern wie Audi, Daimler, BMW und Volkswagen, sondern auch und vor allem die Berufung von Prof. Hilgendorf in die Ethikkommission der Bundesregierung zum automatisierten und vernetzten Fahren im Jahr 2016.</p>
<p>Der Gesetzgeber hat erkannt, dass eine Begutachtung bestimmter Aspekte des Einsatzes intelligenter Systeme im Straßenverkehr schon heute keinen Aufschub mehr duldet. Das Autonome Fahren könnte so durchaus zum Treiber einer Regulierung der Digitalisierung werden. Neben Einberufung besagter Kommission ist ein weiteres Indiz hierfür in der Reformierung des Straßenverkehrsgesetzes (StVG) vor einem Jahr zu erblicken. Vier neue Vorschriften sollen eine Rechtsgrundlage für den Betrieb (teil)autonomer Fahrzeuge schaffen, also dessen grundsätzliche Zulässigkeit garantieren.</p>
<p>So erlaubt § 1a Abs. 1 StVG den Betrieb von Kraftfahrzeugen „mittels hoch- oder vollautomatisierter Fahrfunktion“, sofern letztere „bestimmungsgemäß verwendet“ wird. Damit wird dem Umstand Rechnung getragen, dass bestimmte Assistenzsysteme laut Hersteller ausschließlich unter ganz konkreten Voraussetzungen (bspw. nur auf Autobahnen) zur Anwendung gebracht werden dürfen. Der eigentliche Knackpunkt der Neuregelung ist jedoch Abs. 2 der Vorschrift, der festlegt, welche Art von Automation überhaupt unter das Regelungsobjekt des Abs. 1 fällt. Gemäß dessen Nr. 3 muss eine jederzeitige Übersteuerungsmöglichkeit der automatisierten Fahrfunktion durch den menschlichen Fahrer gegeben sein. Andere, d.h. vollkommen autonome Fahrzeuge fallen damit bereits per definitionem nicht unter den rechtlich zulässigen KFZ-Betrieb. Deren Verkehr auf deutschen Straßen bleibt nach heutiger Rechtslage damit vorerst eine Zukunftsvision.</p>
<h4>Behält der Mensch eine übergeordnete Stellung gegenüber der Maschine?</h4>
<p>Der Mensch behält hiermit also regelungstheoretisch seine der Maschine übergeordnete Stellung. Die damit verbundenen Pflichten des Fahrzeugführers („Führer“ ist neben demjenigen, der das Fahrzeug lenkt und in Bewegung versetzt, auch der, der automatisierte Fahrfunktionen ein- und abschaltet) bestimmt § 1b StVG: Er muss ständig in der Lage sein, die Steuerung zu übernehmen, wenn er durch das System dazu aufgefordert wird oder er einen Defekt am System feststellt. Ausdrücklich erlaubt das Gesetz ihm dabei jedoch, sich partiell vom Verkehrsgeschehen abzuwenden. Es bleibt abzuwarten, wie sich nach Sicht der Gerichte das eine mit dem anderen vereinbaren lässt.</p>
<p>Insbesondere ist hiermit über die Haftung für Straßenverkehrsunfälle nichts Neues gesagt. Dies entsprach aber auch nicht der Intention der Reform, sondern angestrebt wurde eine sog. „Kleine Lösung“ bestimmter einzelner Grundproblemstellungen. Dieser Ansatz verdient zweifelsohne Beifall: angesichts der unvorstellbaren Vielfalt heutiger und zukünftiger autonomer Technologie, wäre es geradezu vermessen gewesen, die Reform als Blaupause für die Beantwortung aller mit der Digitalisierung verbunden Einzelfragen heranzuziehen. Zumal das zivilrechtliche Haftungsregime im Mobilitätssektor auch auf teil- und sogar vollautonome KFZ weitestgehend problemlos anwendbar sein dürfte. Die verschuldensabhängige Haftung des Fahrzeugführers wird neben der verschuldensunabhängigen Halterhaftung insoweit einfach an Bedeutung verlieren. Für den Halter eines KFZ besteht in Deutschland eine Versicherungspflicht, sodass einem finanziellen Schadensausgleich keine Rechtslücken entgegenstehen dürften.</p>
<p>Weitaus schwieriger einzuschätzen ist demgegenüber die strafrechtliche Verantwortung für Verkehrsunfälle. So gut neue Technik funktionieren mag, vollständige Sicherheit wird sich auch durch sie nicht garantieren lassen. Die vieldiskutierten Dilemma-Situationen sind hierfür das klassische Beispiel: welchen Weg soll ein vollautomatisiertes Fahrzeug wählen, wenn alle Alternativen mit der Kollision von Personen und deren schwerer Verletzung oder gar deren Tod verbunden sind? Ergo: Nach welchen Maßstäben muss ein Programmierer den das Auto lenkenden Algorithmus gestalten, um nicht gegen das Recht zu verstoßen?</p>
<h4>Nach welchen Maßstäben muss ein autonomes Auto agieren, um nicht gegen Recht zu verstoßen?</h4>
<p>Zugegeben: Die Diskussion über derartige Dilemmata nimmt bisweilen bizarre oder gar hysterische Züge an, so etwa wenn in Medien von „Algorithmen des Todes“ gesprochen wird. Ein wesentlicher Vorteil selbstfahrender Automobile dürfte darin bestehen, dass Passagiere schneller und vor allem sicherer an ihr Ziel gelangen. Die Unfallzahlen im Straßenverkehr werden rapide sinken! Auch rechtlich können diese Erwägungen fruchtbar gemacht werden, wenn es darum geht, bestimmte Programmierungen als gesetzeskonform einzustufen.</p>
<p>Das Verlangen der Geschädigten oder deren Hinterbliebenen nach Satisfaktion sollte jedoch keinesfalls unterschätzt werden. Tragische (nicht vollständig vermeidbare) Schicksale mögen wir als Gesellschaft bereit sein, als unerwünschte Nebenfolge eines höheren Ganzen zu akzeptieren. Aus der Perspektive des betroffenen Individuums dürfte dies jedoch kaum gelingen. Der Fall eines Familienvaters aus Aschaffenburg, der die Tötung von Frau und Kind durch ein teilautonomes KFZ im Jahr 2012 mitansehen musste, belegt dies eindrücklich. Der Fahrer des Wagens erlitt einen Schlaganfall, sodass das Fahrzeug unter normalen Umständen, d.h. ohne weitere Lenkbewegungen, von der Fahrbahn abgekommen wäre. Das integrierte Fahrassistenzsystem jedoch hielt den Wagen innerorts bei hoher Geschwindigkeit auf der Straße und erfasste die betreffenden Personen tödlich. Das durch den Ehemann und Vater in der Folge angestrengte Strafverfahren wurde durch die zuständige Staatsanwaltschaft eingestellt; der Hersteller des Spurhalteassistenten habe alle zumutbaren Sicherheitsvorkehrungen getroffen. Rechtlich ist dieses Ergebnis nicht zu beanstanden. Dem Hinterbliebenen bleiben Fragen, die kein Staatsanwalt, Autobauer oder Politiker ihm beantworten kann.</p>
<p>Sie sind indes nicht die einzigen, die vor dem Hintergrund des automatisierten Fahrens bisher ungelöst bleiben. Es ließe sich noch Vieles sagen über den Datenschutz im vernetzten Straßenverkehr, die Neustrukturierung des Arbeitsmarkts, Umweltschutz und IT-Sicherheit. Wir wollen es mit diesem Beitrag jedoch fürs Erste halten wie der deutsche Gesetzgeber: Eine „Kleine Lösung“, ein Annähern an die Zukunftsvision führerloser Kraftfahrzeuge step-by-step kann zielführender sein als der weite Sprung – die Balance zwischen Nutzen und Risiko hält man so auf jeden Fall wesentlich leichter.</p>
<p><strong><img decoding="async" class="alignleft size-thumbnail wp-image-1527" src="https://humanithesia.org/wp-content/uploads/2018/07/fullsizeoutput_2c2-150x150.jpeg" alt="" width="150" height="150" />Über den Autor:<br />
</strong><em>Nicolas Woltmann stammt aus Oberbayern und legte nach dem Studium der Rechtswissenschaften an der Universität Würzburg erfolgreich die Erste Juristische Staatsprüfung ab. Zugleich erlangte er den akademischen Grad des &#8222;Europajuristen&#8220;, den die Universität Absolventen des Begleitstudiums Europarecht verleiht. Seitdem ist er wissenschaftlicher Mitarbeiter der Forschungsstelle RobotRecht und des Lehrstuhls von Prof. Dr. Dr. Eric Hilgendorf in Würzburg. Seine Forschungsschwerpunkte umfassen zuvorderst das Straf- und Technikrecht, Rechtsgebiete, die er zugleich zum Inhalt seiner angestrebten Promotion gemacht hat. Untersucht werden hier insb. Haftungsfragen i.R. des Einsatzes selbstlernender Software.</em></p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Stuttgarter Zukunftssymposium 2018 Ethik und KI</title>
		<link>https://humanithesia.org/stuttgarter-zukunftssymposium-2018-ethik-und-ki</link>
		
		<dc:creator><![CDATA[Sascha Blättermann]]></dc:creator>
		<pubDate>Thu, 26 Jul 2018 07:12:20 +0000</pubDate>
				<category><![CDATA[Blog]]></category>
		<category><![CDATA[Ethik]]></category>
		<category><![CDATA[KI]]></category>
		<category><![CDATA[Stuttgarter Zukunftssymposium]]></category>
		<category><![CDATA[Themenübergreifende Links]]></category>
		<guid isPermaLink="false">http://humanithesia.org/?p=1535</guid>

					<description><![CDATA[Die Entwicklung künstlicher Intelligenz ist rasant und brisant zugleich – denn sie wirft zahlreiche ethische Fragen auf: Welche Regeln gelten zukünftig für Roboter? Wie entwickelt sich die Arbeitswelt 4.0? Wie viel Autonomie wollen wir für Maschinen? Über diese und andere &#8230;<p class="read-more"> <a class="more-link" href="https://humanithesia.org/stuttgarter-zukunftssymposium-2018-ethik-und-ki"> <span class="screen-reader-text">Stuttgarter Zukunftssymposium 2018 Ethik und KI</span> Weiterlesen &#187;</a></p>]]></description>
										<content:encoded><![CDATA[<p>Die Entwicklung künstlicher Intelligenz ist rasant und brisant zugleich – denn sie wirft zahlreiche ethische Fragen auf: Welche Regeln gelten zukünftig für Roboter? Wie entwickelt sich die Arbeitswelt 4.0? Wie viel Autonomie wollen wir für Maschinen? Über diese und andere Kernfragen der Digitalisierung diskutieren führende Köpfe aus Wissenschaft, Wirtschaft, Politik und Zivilgesellschaft unter dem Motto „Mensch bleiben im Maschinenraum“ am 23. und 24. November 2018 in Stuttgart.</p>
<p>Prof. Dr. Dr. Eric Hilgendorf lotet den schmalen Grat zwischen ethischen Bedenken und rechtlichen Fragen aus: Als Mitglied der Ethikkommission für automatisiertes Fahren berichtet er von den juristisch-ethischen Grenzen autonomer Autos. Constanze Kurz, Sprecherin des Chaos Computer Clubs und mehrfach ausgezeichnete Autorin, lotet in Ihrem Vortrag Sicherheitslücken neuer Technologien aus. Prof. Dr. Stefan Heinemann, Leiter der Forschungsgruppe „Ethik der Gesundheitswirtschaft &amp; Medizinethik“ im ifgs Institut für Gesundheit &amp; Soziales, definiert die Chancen und Möglichkeiten von Künstlicher Intelligenz im Bereich der Medizin. Außerdem freuen wir uns auf Prof. Dr. Matthias Bethge, der Lernmethoden von KI erklärt und Prof. Dr. Karsten Weber, der sich seit vielen Jahren mit Technikfolgenabschätzung beschäftigt.</p>
<p>Im Rahmen des zweitägigen Symposiums werden die Experten nicht nur den aktuellen Stand der technologischen Entwicklung in Vorträgen und Workshops beleuchten, sondern gemeinsam mit dem Plenum auch die ethischen und politischen Herausforderungen skizzieren. Begleitend zu unseren Diskussionsforen lernen die Gäste der Tagung Firmen und Institutionen kennen, die ihre digitalen Zukunftsprojekte in einer Ausstellung präsentieren.</p>
<p>Das diesjährige Zukunftssymposium wird veranstaltet vom Ethikverband der Deutschen Wirtschaft, der Giordano-Bruno-Stiftung, dem Weltethos-Institut an der Universität Tübingen und der Integrata-Stiftung. <a href="https://stuttgarter-zukunftssymposium.de/">Hier gibt es weitere Informationen zum Programm und zur Tagung.</a></p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Pro und Contra: Kann man Maschinen und Robotern Ethik beibringen? (2)</title>
		<link>https://humanithesia.org/pro-und-contra-kann-man-maschinen-und-robotern-ethik-beibringen-2</link>
		
		<dc:creator><![CDATA[Sascha Blättermann]]></dc:creator>
		<pubDate>Mon, 23 Jul 2018 09:00:27 +0000</pubDate>
				<category><![CDATA[Blog]]></category>
		<category><![CDATA[Ethik]]></category>
		<category><![CDATA[Führung und Verantwortung]]></category>
		<category><![CDATA[KI]]></category>
		<category><![CDATA[Qualitätssiegel]]></category>
		<category><![CDATA[Uncategorized]]></category>
		<guid isPermaLink="false">http://humanithesia.org/?p=1442</guid>

					<description><![CDATA[Die HumanIThesia-Blogger Michael Mörike und Georg Ludwig Verhoeven streiten über die Frage, ob Maschinen und Roboter eines Tages auch Ethik lernen können. In der vergangenen Woche sagte Michael Mörike ja, heute sagt Georg Ludwig Verhoeven nein. Von Georg Ludwig Verhoeven &#8230;<p class="read-more"> <a class="more-link" href="https://humanithesia.org/pro-und-contra-kann-man-maschinen-und-robotern-ethik-beibringen-2"> <span class="screen-reader-text">Pro und Contra: Kann man Maschinen und Robotern Ethik beibringen? (2)</span> Weiterlesen &#187;</a></p>]]></description>
										<content:encoded><![CDATA[<p><strong>Die HumanIThesia-Blogger Michael Mörike und Georg Ludwig Verhoeven streiten über die Frage, ob Maschinen und Roboter eines Tages auch Ethik lernen können. In der vergangenen Woche sagte Michael Mörike ja, heute sagt Georg Ludwig Verhoeven nein.</strong></p>
<p>Von <strong>Georg Ludwig Verhoeven</strong></p>
<p>Menschen sollen „moralisch“ handeln. Das bedeutet, sie haben gewisse Maximen akzeptiert und richten ihr Handeln danach aus. Offensichtlich ist das aber nicht so einfach wie es klingt, denn es gibt viele Situationen, in denen ein Mensch in einer Weise handeln, die er selbst „moralisch“, andere aber „umoralisch“ finden. Aber können Maschinen auch „moralisch“ handeln?</p>
<p>Fest steht: Ihre Leistungsfähigkeit wächst exponentiell – da müsste doch irgendwann genug Leistung zusammenkommen, um neben komplexen Algorithmen auch moralische Aspekte in den Systemen unterzubringen! Aber: Ich glaube nicht, dass das möglich sein wird – nicht aus technischen oder moralischen Gründen, sondern aus logischen und praktischen. Das will ich im Folgenden begründen.</p>
<h4>I Welche Moral vermitteln wir Maschinen?</h4>
<p>Zuerst stellt sich die Frage, welche Moral wir den Maschinen beibringen sollen. Nehmen wir als eine mögliche Basis die Zehn Gebote. Sie liegen in vielen verschiedenen Versionen vor, aber betrachten wir nur eines der Gebote: „Du sollst nicht töten.“ Das ist eindeutig, und doch wird tagtäglich dagegen verstoßen – durch Menschen, denen andere Werte wichtiger sind als das Leben ihrer Mitmenschen. Das kann ein tödlicher Unfall sein, der durch rücksichtsloses Fahren verursacht wurde, eine Straftat, um sich am Eigentum eines anderen zu bereichern, eine Hinrichtung, um ihn im Namen des Gesetzes zu bestrafen, oder der ganz normale militärische Alltag im Krieg. Es kann der Verkauf von gesundheitsschädlichen Genussmitteln sein und vieles andere. Alle diese Handlungsweisen sind in der Gesellschaft präsent und mehr oder weniger akzeptiert – sollen Maschinen den gleichen Grad an „Toleranz“ besitzen?</p>
<p>Eine Möglichkeit, einer Maschine nun etwas beizubringen – zum Beispiel in Form eines Algorithmus – besteht darin, dass der Algorithmus die Konsequenzen seiner Entscheidung an vorgegebenen „Werten“ misst und dann die Entscheidung fällt zu handeln – oder eben nicht. Wenn solche wohldefinierte Zielwerte vorliegen, ist die Optimierung in aller Regel rechnerisch möglich – vom einfachen Simplex-Verfahren bis hin zum komplexen Problem des Handlungreisenden, der seine Fahrstrecke optimieren will – wo allerdings der Rechenaufwand exponentiell mit das Anzahl der Städte ansteigt und bald jede verfügbare Rechenkapazität sprengt. Aber oft gibt es noch nicht einmal einen Zielwert. Wenn nun ein intelligentes System die Konsequenzen seines Handelns im Sinne moralischer Maximen berücksichtigt, wird es schnell an seine Grenzen stoßen.</p>
<p>Ein oft zitiertes Beispiel ist das autonom fahrende Fahrzeug, das in einer ausweglosen Situation vor der Entscheidung steht, seinen Fahrer, ein Kind oder eine Passantin zu überfahren. Niemand hat bisher eine plausible Lösung dieses Problems geliefert (abgesehen von der „trivialen“ Lösung, dass das Auto nur so schnell fahren darf, dass es in Sichtweite anhalten kann, s. §3, S. 4 StVO). Wie soll nun das autonome Fahrzeug reagieren? Wie soll es programmiert werden?</p>
<p>Logisch einfacher, aber dramatischer, ist der Einsatz autonomer militärischer Geräte (z. B. Drohnen), die im Einsatz selbst entscheiden, ob das Bild, das sie mit ihrer Kamera erfassen und intelligent auswerten. militärische Ziele oder harm- und schutzlose Unbeteiligte zeigt. Mit der Entscheidung, in einer solchen Situation das tödliche Feuer zu eröffnen, ist auch jeder „menschliche“ Kampfpilot konfrontiert &#8211; und oft überfordert.</p>
<h4>II Wer entscheidet über die richtigen moralischen Grundsätze?</h4>
<p>Jeder präzise und eindeutig beschreibbare Algorithmus kann im Prinzip in ein System implementiert werden, aber Moral ist nicht präzise und eindeutig beschreibbar. Entscheidungen, die für einen Menschen moralisch richtig sind, können für einen anderen moralisch falsch und verwerflich sein. Moral ist ein philosphisches Konstrukt, das sich auch mit der Zeit ändert. Wer entscheidet dann letztlich, welche Moral in die Maschine implementiert werden soll? Ein ausgewähltes Gremium von Wissenschaftlern, Philosophen, Managern, Theologen? Oder sollen etwa die Entwickler*innen alles von der Bibel bis zur Straßenverkehrsordnung interpretieren und implementieren, wie sie es für richtig halten?</p>
<p>Nehmen wir jetzt trotzdem einmal an, einem System ist „moralisches Handeln“ implementiert worden. Vor dem Einsatz in der „richtigen Welt“ muss es im Labor ausgiebig getestet werden, denn es wird ja unter Umständen lebenswichtige Entscheidungen fällen müssen. Hier stellt sich ein ganz ähnliches Problem wie bei der Spezifikation: Wer legt die Testfälle fest, wie vollständig sind sie, und welches Testergebnis ist „richtig“, und welches ist falsch?</p>
<h4>III Welche Testfälle sollte man Maschinen geben?</h4>
<p>In Systemtests arbeitet man oft mit Stichproben, weil eine vollständige Testabdeckung in aller Regel umöglich ist. In kniffligen moralischen Fragen (wie dem berühmten „Todesalgorithmus“, mit dem das autonom fahrende Fahrzeug entscheidet, wer den Unfall überlegt) sind sich die Menschen oft uneinig und können oder wollen keine verbindliche Antwort geben – was soll das KI-System in dolchen Fällen tun. Wie ist in solchen Fällen ein Testergebnis zu bewerten?</p>
<p>Es mag nicht möglich sein, die Unmöglichkeit eines moralisch handelnden KI-Systems logisch zu beweisen. Aber angesichts der komplexen Fragen schon zum Thema Spezifikation und Test fühlt man sich an den Turmbau zu Babel erinnert, der in einer Sprachverwirrung endete (1. Buch Mose, Kap. 11) – der Turm wurde nicht fertig.</p>
<p>Aus alldem folgt, dass die Schwierigkeiten, die vor „moralisch“ handelnden Maschinen liegen, enorm sind, und dass daher die Wahrscheinlichkeit, dass es in absehbarer Zeit möglich sein wird, sehr nahe bei Null ist. Ob es wünschenswert ist, ist vor diesem Hintergrund nochmal eine ganz andere Frage.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Pro und Contra: Kann man Maschinen und Robotern Ethik beibringen?</title>
		<link>https://humanithesia.org/pro-und-contra-kann-man-maschinen-und-robotern-ethik-beibringen</link>
		
		<dc:creator><![CDATA[Sascha Blättermann]]></dc:creator>
		<pubDate>Sun, 15 Jul 2018 08:45:14 +0000</pubDate>
				<category><![CDATA[Blog]]></category>
		<category><![CDATA[Ethik]]></category>
		<category><![CDATA[Führung und Verantwortung]]></category>
		<category><![CDATA[KI]]></category>
		<category><![CDATA[Qualitätssiegel]]></category>
		<category><![CDATA[Uncategorized]]></category>
		<guid isPermaLink="false">http://humanithesia.org/?p=1439</guid>

					<description><![CDATA[Die HumanIThesia-Blogger Michael Mörike und Georg-Ludwig Verhoeven streiten über die Frage, ob Maschinen und Roboter eines Tages auch Ethik lernen können. In dieser Woche sagt Michael Mörike ja, in der kommenden Woche sagt Georg Ludwig-Verhoeven nein. Von Michael Mörike Es &#8230;<p class="read-more"> <a class="more-link" href="https://humanithesia.org/pro-und-contra-kann-man-maschinen-und-robotern-ethik-beibringen"> <span class="screen-reader-text">Pro und Contra: Kann man Maschinen und Robotern Ethik beibringen?</span> Weiterlesen &#187;</a></p>]]></description>
										<content:encoded><![CDATA[<p><strong>Die HumanIThesia-Blogger Michael Mörike und Georg-Ludwig Verhoeven streiten über die Frage, ob Maschinen und Roboter eines Tages auch Ethik lernen können. In dieser Woche sagt Michael Mörike ja, in der kommenden Woche sagt Georg Ludwig-Verhoeven nein.</strong></p>
<p>Von <strong>Michael Mörike</strong></p>
<p>Es ist unstrittig, dass schon in naher Zukunft mehr und mehr Roboter und Maschinen mehr oder weniger autonome Entscheidungen treffen und daraus entsprechende Handlungen ableiten werden. Diese Entscheidungen treffen sie aufgrund dessen, was sie gelernt haben. Sie haben dazu viele Sensoren: Beim autonomen Auto sind dies zum Beispiel Kamera, Mikrofon, Abstandsradar, GPS, Tacho, Sensor für Querkräfte, Helligkeit, Belastung, Tankfüllstand und viele andere mehr. Die Sensoren übermitteln die Eingabedaten für die eingebaute KI. Als Ausgabe gibt die KI Anweisungen an die Aktoren &#8211; beim autonomen Auto sind dies dann zum Beispiel Bremse, Gas, Lenkrad, Lichtschalter, Blinker, Hupe, Scheibenwischer, Klimaanlage und so weiter.</p>
<p>Die KI in Mitten dieser Sensoren hat gelernt, die passenden Entscheidungen zu treffen. Beim Lernen wurden ihr dafür viele Situationen vorgelegt und die daraus zu treffenden Aktionen. Hier hat die KI das Ziel, die richtigen Entscheidungen zu finden. In den meisten Situationen wird keine Ethik benötigt, um richtige Aktionen zu erzeugen. Bei Handlungen aber, die Menschen betreffen, kann dies durchaus der Fall sein. Wenn im Lernprogramm implizit ethische Ziele enthalten sind, wird sie lernen, auch die zugehörigen ethischen Entscheidungen zu treffen. Man kann der Maschine auch nur ethische Ziele als Lernmaterial vorzugeben. Warum sollte es eine KI nicht lernen können?</p>
<p>Sicher: Ethik ist komplex und außerdem kulturell verschieden. Deswegen müsste man das Lernmaterial für das Ethik-Modul für jede Kultur verschieden anlegen. Außerdem hängen die ethischen Ziele von der jeweiligen Situation ab, was die Sache kompliziert macht. Wie wäre es, unsere menschliche Ethik als allgemein verfügbares Lernmaterial zur Verfügung zu stellen und eine KI dies lernen zu lassen? Geschieht im Ethikunterricht in der Schule nicht genau das? Gewiss, es ist aufwändig. Aber vielleicht lohnt es sich ja? Würde man eine so trainierte KI in jeden Roboter einbauen, und diesem beibringen, immer vor jeder Handlung gegenüber Menschen erst dieses Ethik-Modul abzufragen, wären wir soweit, wie oben behauptet.</p>
<p>Es ist also möglich.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Alexa, zeige mir den Weg zurück ins Leben!</title>
		<link>https://humanithesia.org/alexa-zeige-mir-den-weg-zurueck-ins-leben</link>
		
		<dc:creator><![CDATA[Sascha Blättermann]]></dc:creator>
		<pubDate>Mon, 09 Jul 2018 09:00:34 +0000</pubDate>
				<category><![CDATA[Blog]]></category>
		<category><![CDATA[Ethik]]></category>
		<category><![CDATA[Gastbeiträge]]></category>
		<category><![CDATA[KI]]></category>
		<category><![CDATA[Uncategorized]]></category>
		<guid isPermaLink="false">http://humanithesia.org/?p=1433</guid>

					<description><![CDATA[Wie KI in der Suizidprävention helfen kann. Ein Gastbeitrag von Astrid Fischer Was für eine seltsame Vorstellung, dass künstliche Intelligenz uns Menschen dabei helfen soll, den Weg zurück ins Leben zu finden. Die Rede ist von Suizidprävention mittels Facebook, Google &#8230;<p class="read-more"> <a class="more-link" href="https://humanithesia.org/alexa-zeige-mir-den-weg-zurueck-ins-leben"> <span class="screen-reader-text">Alexa, zeige mir den Weg zurück ins Leben!</span> Weiterlesen &#187;</a></p>]]></description>
										<content:encoded><![CDATA[<p><strong>Wie KI in der Suizidprävention helfen kann. Ein Gastbeitrag von Astrid Fischer<br />
</strong></p>
<p>Was für eine seltsame Vorstellung, dass künstliche Intelligenz uns Menschen dabei helfen soll, den Weg zurück ins Leben zu finden. Die Rede ist von Suizidprävention mittels Facebook, Google und Co. und es zeigt sich bei näherer Betrachtung, dass lange nicht alle Ideen ethisch schlecht sein müssen und dass manche Überlegungen große Potenziale mit sich bringen.</p>
<p>Tatsächlich arbeiten die Riesen aus Silicon Valley schon seit einer Weile an digitaler Unterstützung in der Suizidprävention. So gab Facebook im Herbst 2017 den amerikanischen Rollout eines Algorithmus bekannt, der in der Lage ist, die Stimmung eines Menschen anhand seiner geposteten Fotos und Texte einzuschätzen. Hat der Algorithmus eine Person als vermeintlich suizidal erkannt, wird ein Hinweis auf Hilfsangebote ausgespielt. <a href="https://www.cnbc.com/2018/02/21/how-facebook-uses-ai-for-suicide-prevention.html">Laut einem Bericht von CNBC</a> hat Facebook seit dem Start des Algorithmus‘ diesen Hinweis doppelt so häufig ausgegeben, als zuvor.</p>
<p>Was für uns in Europa schon aus datenschutzrechtlichen Gründen undenkbar wäre, findet aber auch in Amerika nicht nur Anerkennung. So wird auch dort befürchtet, dass die betroffenen Personen in ihren Posts vorsichtiger werden und sich nicht mehr trauen, ihre Gefühle zu äußern, wenn sie realisieren, dass Facebook permanent mithört.</p>
<h4>Warten, bis der User sich äußert</h4>
<p>Google Home, Alexa oder Siri gehen in Deutschland einen anderen Weg. Sie warten bis der User sich selbst äußert und beispielsweise nach einer schmerzfreien und effektiven Selbsttötungsmethode sucht. Als Antwort wird nicht etwa die Anleitung zum Sprung von der Brücke gegeben, sondern die Nummer der TelefonSeelsorge ausgespielt, die der Nutzer dann selbst kontaktieren kann, wenn er oder sie möchte. Während die erste Methode von Facebook bedenklich ist und der User unfreiwillig mit Suizidalität in Verbindung gebracht wird, bringt der User im zweiten Beispiel das Thema selbst ein. Der Sprachassistent reagiert also nur und belässt es der Selbstbestimmung des Users, ob er oder sie sich aktiv auseinandersetzen möchte.</p>
<p>Schon seit einigen Jahrzehnten ist bekannt, dass Menschen, die über eine Selbsttötung nachdenken, sich oft minderwertig und nicht anerkannt fühlen. Daher ist es besonders wichtig, respektvoll mit den Personen umzugehen und ihre Gefühlslage als normale menschliche Regung anzuerkennen. Bei rund 10.000 erfolgreichen Suiziden jährlich in Deutschland (doppelt so viel wie Verkehrs- und Drogentoten zusammengenommen) darf angenommen werden, dass Gedanken an einen Freitod keine Seltenheit sind.</p>
<h4>Digitalkonzernen die Ausarbeitung von Lösungen zu überlassen, wäre zu kurz gedacht</h4>
<p>Es wird deutlich, dass die Problematik der Suizidalität in einer Zeit, in der die Vermischung von digitalem und analogem Raum immer selbstverständlicher wird, auch die kommerziell agierenden Unternehmen in eine Haltung zwingt, die nicht unbedingt auf ethischen Grundsätzen fußt. Den Digitalkonzernen die Ausarbeitung von Lösungen zu überlassen, wäre demnach zu kurz gedacht. Verschiedene Anbieter suchen somit aktiv nach Angeboten, die einen Mehrwert zum analogen Angebot sind. Beispielsweise informiert die Enke-App über Suizidalität und die analogen Hilfsangebote. Darüber hinaus bietet sie einen Selbsttest. Der Nutzer oder die Nutzerin ist somit in der Lage, eine erste Selbsteinschätzung zu machen und kann unmittelbar anschließend das Hilfsangebot nutzen. Auch hier wird die anwendende Person in ihrem Wesen nicht angefasst und alle Entscheidung bleibt bei ihr. Das ist mitfühlend und respektvoll. Ethische Bedenken gibt es nicht.</p>
<p>Die App Daylio geht schon einen Schritt weiter und bietet eine tagesaktuelle Stimmungsanalyse. Ein Reminder erinnert daran, die Einschätzung zu machen. So kann ein lückenloses Stimmungsprofil über Wochen und Monate hinweg entstehen. Besonders spannend dabei: Es werden auch die Tagesaktivitäten erfragt, sodass positive und negative Auswirkungen von Aktivitäten auf die Stimmung erkennbar sind. Die App kommt gut an und wird sicher nicht als unethisch gelten können, weil auch sie lediglich die Absicht verfolgt, eine depressive oder suizidale Person zu unterstützen. Aber was ist mit dem Datenschutz, werden nun viele sagen. Die mitgegebenen Informationen sind stark vereinfacht, teils anonymisiert und bieten Außenstehenden eher wenig Einblicke in das Seelenleben einer Person.</p>
<h4>Digitale Assistenz kann Lücken schließen</h4>
<p>Wagen wir ein Gedankenexperiment für die Zukunft und suchen nach einer Lösung, die ethisch ideal wäre: Was muss also berücksichtigt werden? Der menschliche Kontakt ist in der Suizidprävention unverzichtbar. Darum also kann es nicht gehen. Vielmehr kann die digitale Assistenz jedoch die Lücken schließen, die durch mangelnde Fachkräfte oder nicht vorgesehene Betreuung entstehen.</p>
<p>Bekannt ist beispielsweise, dass suizidale Menschen gerade nach einem Aufenthalt in einer Klinik besonders gefährdet sind, weil sie keine Vollzeitbetreuung mehr erfahren. Die wäre in der Nachbetreuung angesichts von Fachkräftemangel und Wirtschaftsfaktoren überhaupt nicht denkbar. Ein Sprachassistent, der bei der Tagesstrukturierung behilflich ist und so eine Stabilität von suizidalen Menschen unterstützt, könnte die Lösung sein. Beispiel: eine suizidale Person erlaubt dem Sprachassistenten interaktiv tätig zu werden. Die Erlaubnis und das Wollen sind ganz wesentlich für die ethische Anwendung des Sprachassistenten.</p>
<p>Der Assistent könnte schon morgens mit einer selbst gewählten Melodie oder dem Radio wecken und anschließend beispielsweise einen Dialog starten, der mit „Wie geht es Dir?“ beginnt. Der Anwender oder die Anwenderin würde entsprechend der Gemütslage antworten. Eine künstliche Intelligenz wäre in der Lage, anhand der Stimmauswertung und der gegebenen Antwort angemessen zu reagieren und immer weiter durch den Tag zu leiten. So könnte der eine animiert werden, Kaffee zu kochen und einen Schritt nach dem nächsten anzugehen, der andere würde den Vorschlag erhalten, heute einmal einen langen Spaziergang zu machen und dem Dritten würde geraten, sich an den betreffenden Betreuer oder die TelefonSeelsorge zu wenden. Begleitend durch den Tag würde das Gerät Anker setzen, die es leichter machen, schwierige Phasen zu überstehen. Die menschliche Unterstützung wäre niemals außen vor, sondern stets die Option in kritischen Zeiten. Idealerweise würden die Daten nicht an kommerzielle Konzerne weitergegeben, sondern auf Servern gespeichert, die ausschließlich für das Gesundheitswesen zuständig sind. Selbstverständlich anonymisiert und nur nach Einverständnis des Anwenders einzusehen. Sofern eine Person das Einverständnis erteilt, könnte ein Arzt auf mehr Informationen zugreifen, als er bislang verfügbar hat und besser einschätzen, wie die Lage ist. Wenn all diese Komponenten zusammenkämen, dann wäre die Lösung ethisch sauber und ein riesiger Gewinn für unsere Gesellschaft gemacht.</p>
<h4>Über die Autorin</h4>
<p>Astrid Fischer hat Sprachen und Recht in Bonn, Köln und Tilburg studiert. Sie arbeitet als selbständige Beraterin für digitale Kommunikation und ist Referentin für Kommunikation und Medien der TelefonSeelsorge. In ihrer Freizeit studiert sie Sozialinformatik.</p>
]]></content:encoded>
					
		
		
			</item>
	</channel>
</rss>
