<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>Führung und Verantwortung &#8211; HumanIThesia: Diskussionsportal für humane Nutzung der IT</title>
	<atom:link href="https://humanithesia.org/category/lebensbereich/fuehrung-verantwortung/feed" rel="self" type="application/rss+xml" />
	<link>https://humanithesia.org</link>
	<description>Ethik bei künstlicher Intelligenz und Robotik</description>
	<lastBuildDate>Thu, 03 Aug 2023 11:51:46 +0000</lastBuildDate>
	<language>de</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	<generator>https://wordpress.org/?v=6.4.5</generator>

<image>
	<url>https://humanithesia.org/wp-content/uploads/2017/11/cropped-humanithesia-logo-vektor-socia-media-32x32.png</url>
	<title>Führung und Verantwortung &#8211; HumanIThesia: Diskussionsportal für humane Nutzung der IT</title>
	<link>https://humanithesia.org</link>
	<width>32</width>
	<height>32</height>
</image> 
	<item>
		<title>Führen im digitalen Zeitalter</title>
		<link>https://humanithesia.org/fuehren-im-digitalen-zeitalter</link>
		
		<dc:creator><![CDATA[Barbara Liebermeister]]></dc:creator>
		<pubDate>Mon, 15 Mar 2021 22:23:20 +0000</pubDate>
				<category><![CDATA[Blog]]></category>
		<category><![CDATA[Führung und Verantwortung]]></category>
		<category><![CDATA[Gastbeiträge]]></category>
		<category><![CDATA[Uncategorized]]></category>
		<category><![CDATA[Digitalisierung]]></category>
		<category><![CDATA[Erwerb]]></category>
		<category><![CDATA[Führung]]></category>
		<category><![CDATA[IT]]></category>
		<category><![CDATA[KI]]></category>
		<category><![CDATA[künstliche Intelligenz]]></category>
		<category><![CDATA[Verantwortung]]></category>
		<guid isPermaLink="false">http://humanithesia.org/?p=2124</guid>

					<description><![CDATA[Digitalisierung hin oder her: Auch künftig werden Führungskräfte Menschen führen &#8211; und keine Maschinen oder Algorithmen. Das sollten sie sich immer wieder ins Bewusstsein rufen. Barbara Liebermeister, Leiterin des Institut für Führungskultur im digitalen Zeitalter (IFIDZ), zeigt in 12 Thesen, wie &#8230;<p class="read-more"> <a class="more-link" href="https://humanithesia.org/fuehren-im-digitalen-zeitalter"> <span class="screen-reader-text">Führen im digitalen Zeitalter</span> Weiterlesen &#187;</a></p>]]></description>
										<content:encoded><![CDATA[
<h5>Digitalisierung hin oder her: Auch künftig werden Führungskräfte Menschen führen &#8211; und keine Maschinen oder Algorithmen. Das sollten sie sich immer wieder ins Bewusstsein rufen. Barbara Liebermeister, Leiterin des Institut für Führungskultur im digitalen Zeitalter (IFIDZ), zeigt in 12 Thesen, wie es klappt.</h5>
<p><span id="more-2124"></span></p>
<h5>1. Persönlichkeit lässt sich nicht digitalisieren</h5>
<p>Menschen bleiben Menschen, daran ändern auch die inno- vativsten Informations- und Kommunikationstechnologien nichts. Deshalb erfordert die zunehmende Digitalisierung sogar ein Mehr an Sozialkompetenz und Empathie in den Unternehmen – denn den Mitarbeitern fehlen in der von permanenter Veränderung und geringer Planbarkeit gepräg- ten VUCA-Welt zunehmend der gewünschte Halt und die benötigte Orientierung.</p>
<h5>2. Menschen können nur durch Menschen geführt werden</h5>
<p>Skype, iPhone und Co. vereinfachen zwar häufig unser Leben – jedoch ersetzt kein Computerpro- gramm der Welt agile Führungspersönlichkeiten,die für die Menschen in ihrem Umfeld Impuls- und Ideengeber sowie Motivatoren sind.</p>
<h5>3. Führungskraft &#8211; lieber Menschenkenner als Fachexperte</h5>
<p>Führungskräfte haben immer seltener ei- nen Wissensvorsprung vor ihren Mitarbeitern. Sie müssen auf deren Expertise undLoyalität vertrauen. Stattdessen wird es zu einer Kernaufgabe von Führung, Spezialisten be- ziehungsweise Mitarbeiter mitSpezialwissen in Teams ein- zubinden und deren individuelle Stärken zu fördern.</p>
<h5>4. Kreativität ist nicht programmierbar</h5>
<p>Kreativität ist eine Voraussetzung für Innovation und eine der zentralen Fähigkeiten, die uns Menschen von Maschinen unterscheidet. „Teamspirit entwickeln“, „Konflikte lösen“ und „Identifikation mit dem Job schaffen“ – bei diesen Auf- gaben helfen nur agile Führungspersönlichkeiten undkeine Nullen und Einsen.</p>
<h5>5. Fachexperte</h5>
<p>Führungskräfte haben immer seltener einen Wissensvorsprung vor ihren Mitarbeitern. Sie müssen auf deren Expertise und Loyalität vertrauen.Stattdessen wird es zu einer Kernaufgabe von Führung, Spezialisten be- ziehungsweise Mitarbeiter mit Spezialwissen in Teams ein- zubinden undderen individuelle Stärken zu fördern.</p>
<h5>6. Das Prinzip von Befehl und Gehorsam hat ausgedient</h5>
<p>Moderne Führungskräfte sind keine Alles-besser- Wisser – und Anweisungen wie „Tue dies oder das, dann haben wir Erfolg“ sind heutzutage nichtmehr zielführend. Führungskräfte und ihre Mitarbeiter müssen sich vielmehr auf Augenhöhe begegnen und gemeinsam im Prozess er- mitteln, welcheLösungen zielführend sind.</p>
<h5>7. Die Antwort auf die Technisierung lautet: Mehr emotionale Intelligenz</h5>
<p>Je mehr emotions- und seelenlose Technik in den Unternehmen und ihrem Umfeld zum Einsatz kommt, umso bewusster müssen wir denpersönlichen, emotionalen Umgang miteinander su- chen und gestalten. Deshalb steigt die Bedeutung von emo- tionaler Intelligenz für den Führungserfolg.</p>
<h5>8. Führung muss Orientierung, Halt und Sicherheit geben</h5>
<p>Je diffuser, instabiler und von Veränderung geprägter das Unternehmensumfeld ist, desto stärker seh- nen sich die Mitarbeiter nach Orientierung und Halt sowie Sicherheit. Dieses Bedürfnis können letztlich nur ihre Füh- rungskräfte  befriedigen,  wenn  sonst  alles  im  Umfeld „schwankt“. Das setzt einen vertrauensvollen und wert- schätzenden Umgang miteinander voraus.</p>
<h5>9. Führung heißt, Menschen erreichen und Sinn stiften</h5>
<p>Die „digital natives“ der Generation Y lassen sich durch die Aussicht auf Prestige und Status im Job kaum beeindrucken und emotional binden. Vielmehrstehen für die Leistungsträger von morgen Sinnsuche und Selbstverwirkli- chung im Vordergrund. Ähnlich ist dies bei den Leistungs- trägern von heute, dieoft „digital immigrants“ sind. Auch sie wollen bei Vorhaben wissen: „Warum?“, und fragen sich: „Was bedeutet das für mich – beruflich und privat?“ Gefragtsind deshalb kreative Führungsmethoden, die die individuellen, persönlichen Bedürfnisse berücksichtigen.</p>
<h5>10. Führung ist Beziehung &#8211; Leader aus Fleisch und Blut sind gefragt</h5>
<p>Sich als Chef  kurz Zeit nehmen, sich zusammensetzen und Probleme und Verbesserungsvorschläge gemeinsam erörtern ist allemal besser als eine emotionslose E-Mail zu senden – denn hierbei sind die Führungskraft und der Mitarbeiter nicht als Mensch erfahr- bar. Körpersprache und Tonalität, Mimik undGestik gehen verloren. Missverstände sind somit vorprogrammiert, die sich negativ auf die Beziehungsqualität auswirken.</p>
<h5>11. Führungskräfte müssen zu einer &#8222;Marke&#8220; werden</h5>
<p>Führungskräfte sollten sich ihrer Werte, Überzeu- gungen und Stärken bewusst sein und diese kommunizie- ren, damit sie für ihre Mitarbeiter zu einer unverwechsel- baren „Marke“ werden. Denn nur wer authentisch ist und erkennbar zu seinen Werten und Überzeugungen steht, gewinnt das Vertrauen von Menschen – also auch das der Mitarbeiter.</p>
<h5>12. Ohne Vernetzung läuft nichts</h5>
<p>1.000 Facebook-Freunde kann jeder haben und notfalls kaufen. Sich offline zu vernetzen ist wesentlich aufwendiger, jedoch erfolgsent- scheidend. Kontakte und Beziehungen können zwar online angebahnt werden, doch Vertrauen setzt persönliche Begeg- nung voraus. Professionelles Netzwerken erfordert dasBes- te aus beiden Welten.</p>
<p><strong>Über die Autorin: </strong>Barbara Liebermeister leitet das Institut für Führungskultur im digitalen Zeitalter (IFIDZ), Frankfurt, und ist Autorin von „Digital ist egal: Mensch bleibt Mensch – Führung entscheidet“.</p>
<p> </p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Digital Natives und Immigrants führen</title>
		<link>https://humanithesia.org/digital-natives-und-immigrants-fuehren</link>
		
		<dc:creator><![CDATA[Barbara Liebermeister]]></dc:creator>
		<pubDate>Tue, 28 Jan 2020 13:39:13 +0000</pubDate>
				<category><![CDATA[Blog]]></category>
		<category><![CDATA[Führung und Verantwortung]]></category>
		<category><![CDATA[Uncategorized]]></category>
		<category><![CDATA[Arbeit]]></category>
		<category><![CDATA[Digitalisierung]]></category>
		<category><![CDATA[Erwerb]]></category>
		<category><![CDATA[Führung]]></category>
		<category><![CDATA[Gesellschaft]]></category>
		<category><![CDATA[IT]]></category>
		<category><![CDATA[Verantwortung]]></category>
		<guid isPermaLink="false">http://humanithesia.org/?p=1738</guid>

					<description><![CDATA[In dieser „Fortsetzungsgeschichte“ beschäftigt sich Barbara Liebermeister mit den Herausforderungen, die sich aus der Altersstruktur in heutigen Betrieben für die Führungskräfte ergeben. Sie stellt darin die heutige Situation dar, analysiert, wie sie entstanden ist und gibt Hinweise, wie die Führungskräfte &#8230;<p class="read-more"> <a class="more-link" href="https://humanithesia.org/digital-natives-und-immigrants-fuehren"> <span class="screen-reader-text">Digital Natives und Immigrants führen</span> Weiterlesen &#187;</a></p>]]></description>
										<content:encoded><![CDATA[
<h4><span style="font-family: Arial, sans-serif;"><span style="font-size: medium;"><b>In dieser „Fortsetzungsgeschichte“ beschäftigt sich Barbara Liebermeister mit den Herausforderungen, die sich aus der Altersstruktur in heutigen Betrieben für die Führungskräfte ergeben. Sie stellt darin die heutige Situation dar, analysiert, wie sie entstanden ist und gibt Hinweise, wie die Führungskräfte damit konstruktiv und kreativ umgehen können.</b></span></span></h4>
<p><span id="more-1738"></span></p>
<p><span style="font-family: Arial, sans-serif;"><span style="font-size: medium;"><b>In vielen Betrieben beträgt der Altersunterschied zwischen den Mitarbeitern bis zu 50 Jahre. Entsprechend unterschiedlich sind oft deren Bedürfnisse und Lebensstile sowie ihre jeweilige Art, Aufgaben anzugehen. Das stellt die Führungskräfte nicht selten vor eine große Herausforderung.</b></span></span></p>
<p>„<span style="font-family: Arial, sans-serif;"><span style="font-size: medium;">Oh, diese Digital Natives, die lassen sich nur schwer führen und ins Team integrieren. Von denen macht jeder sein eigenes Ding.“ Solche Klagen hört man als Berater von Führungskräften oft. Und fragt man nach, wen die Führungskräfte mit den sogenannten „Digital Natives“ überhaupt meinen, dann zeigt meist: die jungen Mitarbeiter bis Ende 20 – also die Mitarbeiter, die nach 1990 geboren wurden, mit den digitalen Technologien aufwuchsen und deshalb sie mit ihnen vertraut sind.</span></span></p>
<p><span style="font-family: Arial, sans-serif;"><span style="font-size: medium;">Von ihnen werden in der Regel die Digital Immigrants abgegrenzt, die vor 1990 geboren wurden – also bevor mit den PCs und Handys der Siegeszug der digitalen Technologien auf breiter Front begann. Deshalb mussten sie den Umgang mit dieser Technik oft noch im Erwachsenenalter erlernen, weshalb sie diesbezüglich nicht selten recht unsicher und zuweilen sogar ängstlich sind. </span></span></p>
<p><span style="font-family: Arial, sans-serif;"><span style="font-size: medium;"><b>Begriffe werden schnell zur Schublade</b></span></span></p>
<p><span style="font-family: Arial, sans-serif;"><span style="font-size: medium;">Den „Digital Natives“ wird oft unterstellt, sie mäßen der work-life-balance eine höhere Bedeutung bei als die „Digital Immigrants“. Es gehe ihnen weniger um das Karrieremachen als um das Erfahren von Sinn bei der Arbeit, da ein „er-fülltes“ statt „ge-fülltes“ Leben ihnen wichtig sei. So legten zum Beispiel junge Mütter dieser Generation oft mehr Wert auf einen firmeneigenen Kindergarten und flexible Arbeitszeiten als auf ein höheres Gehalt. Und manch Mitt- oder End-Zwanziger, der ein passionierter Marathon-Läufer sei? Er bevorzuge es, Teilzeit zu arbeiten, damit er genug Zeit fürs Training habe.</span></span></p>
<p><span style="font-family: Arial, sans-serif;"><span style="font-size: medium;">Erschwert wird die Diskussion darüber, was die Digital Natives von den Digital Immigrants unterscheidet, dadurch, dass diese sich in verschiedenen Lebensphasen befinden, weshalb sie sozusagen automatisch unterschiedliche Bedürfnisse haben. Hinzu kommt: Neben den Begriffen Digital Natives und Immigrants geistern weitere Begriffe durch die Diskussion – Begriffe wie „Generation X / Y / Z“. </span></span></p>
<p><span style="font-family: Arial, sans-serif;"><span style="font-size: medium;">In der öffentlichen Debatte werden die Digital Natives oft mit der „Generation Y“ gleichgesetzt. Dabei zählen die Soziologen hierzu nicht nur die ab 1990, sondern alle ab 1980 geborenen Personen. Diese Gleichsetzung ist Nonsens. Das zeigt schon die Tatsache, dass zur Generation Y auch die heute 30- bis 38-Jährigen zählen, die nicht selten bereits seit Jahren Schlüsselpositionen in den Unternehmen innehaben und nicht nur leistungsfähig und -bereit sind, sondern auch Karriere machen möchten – wenn auch eventuell nicht um jeden Preis. Entsprechend vorsichtig sollte man die Begriffe „Generation X / Y / Z“ gebrauchen – auch um nicht alle Angehörigen einer Altersgruppe über einen Kamm zu scheren. Denn diese waren schon immer verschieden und sind es auch heute. </span></span></p>
<p><span style="font-family: Arial, sans-serif;"><span style="font-size: medium;">Fortsetzung folgt: Die nächsten Blogbeiträge hierzu lauten „Gesellschaftlicher Wandel beeinflusst Haltungen“ – „Bis zu fünf Generationen im Team“ – „Die Diversität der Denk- und Arbeitsstile nutzen“ – „Die generationenübergreifende Zusammenarbeit fördern“ – „Führung erfordert Persönlichkeiten“. Spannende Themen, bleiben Sie dran, schauen Sie wieder rein, und schicken Sie uns Ihre Kommentare!</span></span></p>
<p><span style="font-family: Arial, sans-serif;"><span style="font-size: small;"><b>Zur Autorin: </b></span></span><span style="font-family: Arial, sans-serif;"><span style="font-size: small;">Barbara Liebermeister </span></span><span style="font-family: Arial, sans-serif;"><span style="font-size: small;">leitet das Institut für Führungskultur im digitalen Zeitalter (IFIDZ), Frankfurt, das Unternehmen dabei unterstützt, ihren Mitarbeitern die Kompetenzen zu vermitteln, die sie im digitalen Zeitalter brauchen (www.ifidz.de). Sie ist u.a. Autorin des </span></span><span style="font-family: Arial, sans-serif;"><span style="font-size: small;">Buchs „Digital ist egal: Mensch bleibt Mensch – Führung entscheidet“. </span></span></p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Datenreichtum und Datenschutz kombinieren – von Michael Mörike</title>
		<link>https://humanithesia.org/mit-hilfe-von-blockchain-datenreichtum-und-datenschutz-kombinieren</link>
		
		<dc:creator><![CDATA[Sascha Blättermann]]></dc:creator>
		<pubDate>Sun, 19 Aug 2018 20:00:03 +0000</pubDate>
				<category><![CDATA[Arbeit und Erwerb]]></category>
		<category><![CDATA[Blog]]></category>
		<category><![CDATA[Führung und Verantwortung]]></category>
		<category><![CDATA[KI]]></category>
		<category><![CDATA[Ethik]]></category>
		<guid isPermaLink="false">http://humanithesia.org/?p=1568</guid>

					<description><![CDATA[Wie mit der modernen Blockchain-Technologie unsere Privatsphäre wieder geschützt werden kann. Von Michael Mörike In der Internetwelt gibt es zwei gegenläufige Trends: Einerseits greifen Unternehmen mehr und mehr Daten von uns ab und verdienen damit Geld. Wir geben die Daten &#8230;<p class="read-more"> <a class="more-link" href="https://humanithesia.org/mit-hilfe-von-blockchain-datenreichtum-und-datenschutz-kombinieren"> <span class="screen-reader-text">Datenreichtum und Datenschutz kombinieren – von Michael Mörike</span> Weiterlesen &#187;</a></p>]]></description>
										<content:encoded><![CDATA[<h4><img fetchpriority="high" decoding="async" class="alignnone size-medium wp-image-173" src="https://humanithesia.org/wp-content/uploads/2017/01/keyboard-886462_640-300x169.jpg" alt="Nutzung der Informationstechnologie" width="300" height="169" /></h4>
<h4>Wie mit der modernen Blockchain-Technologie unsere Privatsphäre wieder geschützt werden kann.</h4>
<p>Von <strong>Michael Mörike</strong></p>
<p>In der Internetwelt gibt es zwei gegenläufige Trends: Einerseits greifen Unternehmen mehr und mehr Daten von uns ab und verdienen damit Geld. Wir geben die Daten ziemlich freiwillig her – um nicht zu sagen ziemlich leichtfertig – ohne dafür eine angemessene Gegenleistung zu bekommen. Dabei wird unsere Privatsphäre immer kleiner. Andererseits werden immer neue gesetzliche Schutzmechanismen für unsere Privatsphäre erlassen, die wir eher als zusätzlichen Aufwand denn als wirklichen Schutz empfinden. Neuestes Beispiel in der EU ist die DSGVO. Aber auch anderswo gibt es solche Bestrebungen.</p>
<p>Ist uns unsere Privatsphäre so unwichtig? <span id="more-1568"></span>Wir haben uns evolutionär als – mehr oder weniger gute – Mischung aus Individualwesen und Sozialwesen entwickelt: Wir brauchen daher sowohl eine Privatsphäre (und haben also auch Eigentum), als auch Gesellschaft mit anderen Menschen (und haben daher auch starke soziale Eigenschaften und Gemeinschaftsgüter). Nun sind die Grenzen zwischen den beiden Gebieten nicht für alle Zeiten unverrückbar festgelegt. Sie sind schon heute in den verschiedenen Kulturen sehr unterschiedlich. Bringt es die Internetkultur neuerdings mit sich, dass wir unsere Privatsphäre – mehr oder weniger freiwillig – verkleinern? Schließlich wird ja auch das Teilen (Sharing) immer beliebter und die steigende Anzahl von Menschen auf unserem Globus macht es immer sinnvoller, um die uns global zur Verfügung stehenden Ressourcen zu schonen.</p>
<p>Bisher schien es so, als ginge beides nicht zusammen. Oder geht es etwa doch? Hoffnungsvolle Anzeichen kommen mit dem neuen Begriff der <em>self-sovereign identity</em> (SSI, selbstbe-stimmte Identität). Technisch wird sie möglich mit Hilfe der Blockchain und dem Sovrin-Protokoll. Sie kennen das nicht? Grob gesagt geht das so: Schon bisher gab es Trust-Center, die in CA’s betrieben wurden. Das Problem dabei war: Was ist wenn eines dieser zentral organisierten CA seinen Betrieb aufgibt oder seine Betriebsbedingungen massiv ändert? Dann waren alle damit verbürgten Vertragsverhältnisse gebrochen oder wertlos, weil z.B. nicht mehr bezahlbar. Das hat viele davon abgehalten, darauf zu vertrauen. Ein Netz von Blockchains kann diese zentralen Trustcenter ersetzen. Wenn es internetweit genauso gut verfügbar ist wie DNS, dann kann es nicht mehr beseitigt oder korrumpiert werden. Mit Hilfe von per Blockchain zertifizierten Frage-Antwort-Protokollen können dann &#8211; für jedermann erschwinglich, da kostenlos – Abfragen von Daten oder Rechten (Berechtigungen) gemacht werden, die die Identität der abgefragten Person nicht preisgeben müssen. Der Mensch dahinter bleibt anonym.</p>
<p>Es braucht dann auch keine Datenkraken mehr, die die Daten von vielen Menschen horten, um sie Dritten zur Auswertung weiterzugeben. Deren Vermittlerrolle entfällt und die Daten sind trotzdem im Umlauf – allerdings anonym. Die Daten werden dann auch nicht mehr gestohlen, weil dies keinen Sinn mehr macht. Datenreichtum kann dann ohne die unschönen Nebenwirkungen vom Verlust der Privatsphäre seine volle Wirkung entfalten.</p>
<p>Nun – bis es so weit ist, dauert es aber noch etwas. Die im Internet dafür benötigten Protokolle sind seit Mitte 2017 in Arbeit und stehen vermutlich demnächst öffentlich zur Verfügung. Dann muss sich zunächst auch noch das Netz der Blockchains aufbauen und es muss üblich werden, es zu nutzen. Und erst, wenn es intensiv genutzt wird, sterben die alten „schmutzigen“ Daten so langsam aus, indem sie im Laufe der Zeit unbrauchbar werden. Immerhin: Es gibt Aussicht auf Besserung!</p>
<h4>Weiterführende Links:</h4>
<ul>
<li><a href="https://www.heise.de/newsticker/meldung/id4me-Identity-Management-ohne-Google-Facebook-Twitter-3978885.html">heise online: Identity-Management ohne Google, Facebook und Twitter</a></li>
</ul>
<p></p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Pro und Contra: Kann man Maschinen und Robotern Ethik beibringen? (3) – von Prof. Dr. Karsten Weber</title>
		<link>https://humanithesia.org/kann-man-maschinen-und-robotern-ethik-und-moral-beibringen-weber</link>
		
		<dc:creator><![CDATA[Sascha Blättermann]]></dc:creator>
		<pubDate>Mon, 06 Aug 2018 13:05:37 +0000</pubDate>
				<category><![CDATA[Blog]]></category>
		<category><![CDATA[Ethik]]></category>
		<category><![CDATA[Führung und Verantwortung]]></category>
		<category><![CDATA[Gastbeiträge]]></category>
		<category><![CDATA[KI]]></category>
		<category><![CDATA[Qualitätssiegel]]></category>
		<guid isPermaLink="false">http://humanithesia.org/?p=1546</guid>

					<description><![CDATA[Vor zwei Wochen stritten unsere Blogger Michael Mörike und Georg Ludwig Verhoeven darüber, ob Maschinen und Roboter Ethik lernen können. Heute antwortet Prof. Dr. Karsten Weber, Ko-Leiter des Instituts für Sozialforschung und Technikfolgenabschätzung an der OTH Regensburg. Von Prof. Dr. Karsten &#8230;<p class="read-more"> <a class="more-link" href="https://humanithesia.org/kann-man-maschinen-und-robotern-ethik-und-moral-beibringen-weber"> <span class="screen-reader-text">Pro und Contra: Kann man Maschinen und Robotern Ethik beibringen? (3) – von Prof. Dr. Karsten Weber</span> Weiterlesen &#187;</a></p>]]></description>
										<content:encoded><![CDATA[<h4>Vor zwei Wochen stritten unsere Blogger <a href="http://humanithesia.org/pro-und-contra-kann-man-maschinen-und-robotern-ethik-beibringen">Michael Mörike</a> und <a href="http://humanithesia.org/pro-und-contra-kann-man-maschinen-und-robotern-ethik-beibringen-2">Georg Ludwig Verhoeven</a> darüber, ob Maschinen und Roboter Ethik lernen können. Heute antwortet Prof. Dr. Karsten Weber, Ko-Leiter des Instituts für Sozialforschung und Technikfolgenabschätzung an der OTH Regensburg.</h4>
<p>Von <strong>Prof. Dr. Karsten Weber</strong></p>
<p>In seinem Maßstäbe setzenden Aufsatz „Computing Machinery and Intelligence“ aus dem Jahr 1950 schlug der britische Mathematiker Alan M. Turing einen Test vor, mit dessen Hilfe entschieden werden könne, ob eine Maschine intelligent sei bzw. denken würde – allerdings muss das Wort „denken“ in diesem Kontext in Anführungszeichen gesetzt werden. Die Idee Turings ist so einfach wie genial: Gelänge es einer Maschine in diesem Test nicht als Maschine identifiziert, sondern für einen Mensch gehalten zu werden, so hätte diese Maschine den Turing-Test bestanden: Die Maschine wäre „intelligent“ oder „denkt“. „Denken“ heißt im Kontext des Tests bestimmte kommunikative Fähigkeiten zu besitzen, ohne dass damit bereits unterstellt werden würde, wie diese realisiert sein müssen. Mit dem Bestehen des Turing-Tests geht somit nicht einher, dass angenommen werden würde, dass eine Maschine genauso denke wie ein Mensch, sondern eben nur, dass es dieser Maschine gelingt, in einem Menschen die Überzeugung zu wecken, mit einem denkenden Wesen zu interagieren. Um den Turing-Test bestehen zu können, ist es also nicht wichtig, dass die Maschine tatsächlich denkt, sondern es ist wichtig, dass Menschen die Überzeugung haben, dass sie denkt. „Denken“ ist hier also eine Zuschreibung; der Unterschied zwischen „X denkt“ und „ich glaube, dass X denkt“ ist, so kann man Turing verstehen, im Grunde nicht sinnvoll zu ziehen. Mit anderen Worten: Bezüglich des Denkens ist nicht so sehr die Erste-Person-Perspektive wichtig, sondern die Dritte-Person-Perspektive.<span id="more-1546"></span></p>
<p>Nun kann man diese Aussage über das Denken auch auf andere psychische Phänomene wie Emotionen, Wünsche, Ziele, Intentionen, Motive und so fort ausweiten und sagen, dass auch der Unterschied zwischen „X hat Gefühle“ und „ich glaube, dass X Gefühle hat“ oder „X hegt Überzeugungen“ und „ich glaube, dass X Überzeugungen hegt“ und vielen anderen ähnlichen psychischen Phänomenen nicht sinnvoll gezogen werden kann, da wir stets nur das beobachtbare äußere Verhalten zur Beurteilung darüber heranziehen können, ob unser Gegenüber denkt, Gefühle hat oder Überzeugungen hegt. John McCarthy hat diese Überlegung schließlich in seinen Arbeiten so zugespitzt, dass er selbst so einfachen Mechanismen wie Heizungsthermostaten das Haben von Überzeugungen zubilligte. Man kann Turing ebenso wie McCarthy so verstehen, dass zur Operationalisierung der Messung von Intelligenz oder auch von Emotionen oder gar Moralität stets nur das äußere Verhalten des jeweiligen Untersuchungsobjekts herangezogen werden kann; folgt man diesem Grundannahme, macht die Unterscheidung von „X denkt“ und „ich glaube, dass X denkt“ nun tatsächlich keinen Sinn mehr, weil wir die Aussage „X denkt“ nur auf Grundlage des äußeren Anscheins, also dem sichtbaren Verhalten, von X treffen können.</p>
<p>Das heißt nichts anderes, als dass es unerheblich ist, ob unser Gegenüber tatsächlich mentale Zustände hat, wirklich denkt, fühlt, glaubt, wünscht, oder ob wir nur der Überzeugung sind, dass es so sei; für unser Handeln spielt das keine Rolle, solange wir mit unseren Zuschreibungen erfolgreich sind. In der Gestaltung von Geräten und insbesondere im Bereich der Mensch-Maschine-Interaktion kann man sich dies nun erfolgreich zunutze machen. Wenn die Designer solcher Geräte es erreichen können, in den Nutzern die Überzeugung zu wecken, dass das Gerät denkt, fühlt, glaubt, wünscht – kurz: augenscheinlich etwas Ähnliches wie man selbst ist, so sind Interaktionen meist erfolgreicher.</p>
<h4>Die moralische Frage</h4>
<p>Designer und Hersteller von Robotern oder KI-Systemen könnten daher versucht sein Maschinen auf eine solche Weise zu gestalten, dass sie von Menschen als künstliche moralische Agenten angesehen werden. Der Ausdruck „künstlicher moralischer Agent“ soll dabei heißen, dass Menschen eher die Maschine für deren Handlungen und den Folgen dieser Handlungen verantwortlich machen als deren Designer oder Hersteller. Mit Sicherheit werden diese Agenten versagen – ganz genauso wie ordinäre Maschinen das zuweilen ebenfalls tun. Wenn dies geschieht und diese Maschinen als künstliche moralische Agenten akzeptiert werden würden, machten jene Menschen, die mit ihnen interagieren, vermutlich die Maschinen für ihre Aktionen und deren Folgen verantwortlich – zumindest bis zu einem gewissen Maß.</p>
<p>Das wäre moralisch aber mehr als zweifelhaft, doch derzeit existieren keine auf autonome artifizielle Agenten anwendbaren moralischen Normen. Aber eher früher als später werden solche Normen dringend benötigt: Nicht weil wir bereits in der Lage wären, künstliche moralische Agenten zu bauen, sondern weil sie durch schlichte Zuschreibung erzeugt werden – und das ist sehr einfach und ein alltäglicher Vorgang. Es ist daher naheliegend, dass entsprechende moralische und soziale Normen die Designer und Gestalter solcher Maschinen ansprechen müssen, nicht die Maschinen selbst. Denn in Bezug auf die Mensch-Maschine-Interaktion kann man sehr leicht Szenarien bspw. für den Bereich des E-Commerce entwerfen, in denen es durchaus nützlich wäre, die Überzeugung bei Menschen zu erzeugen oder zu stärken, dass das jeweilige mechanische Gegenüber ein wohlinformierter, moralisch verantwortlicher und vertrauenswürdiger Agent ist, der nur im Interesse der Menschen agiert. Um es direkt zu sagen: Autonome artifizielle Agenten könnten dazu benutzt werden, Menschen zu verführen oder gar zu betrügen.</p>
<p>Daher sollte folgende moralische Norm stets beachtet werden: Gestalte keine Maschinen, die die menschlichen Interaktionspartner vergessen lassen, dass sie mit Maschinen interagieren. Damit würde die Unvermeidbarkeit der Vermenschlichung von Maschinen, wie sie im vorliegenden Text beschrieben wurde, entgegengewirkt und sichergestellt, dass die Aktionen eines autonomen artifiziellen Agenten stets dessen Designern und Herstellern zugerechnet werden kann. Ähnlich argumentieren Deborah Johnson und Keith W. Miller, wenn sie schreiben: „Debate about the moral agency of computer systems takes place at a certain level of abstraction and the implication of our analysis is that discourse at this level should reflect and acknowledge the people who create, control, and use computer systems. In this way, developers, owners, and users are never let off the hook of responsibility for the consequences of system behavior.“</p>
<p><em>Anmerkung: Der vorliegende Beitrag stellt eine stark gekürzte Fassung eines vor einigen Jahren publizierten Textes mit dem Titel „Ist da jemand? Über unsere Bereitschaft und die Unvermeidbarkeit Maschinen zu vermenschlichen“. Weitere Texte des Autors zum Thema finden sich auf seiner Webseite.</em></p>
<h4>Über den Autor</h4>
<p><em><img decoding="async" class="alignleft size-thumbnail wp-image-1547" src="https://humanithesia.org/wp-content/uploads/2018/08/Karsten_Weber_Schiff-002-150x150.jpg" alt="" width="150" height="150" />Prof. Dr. Weber ist Ko-Leiter des Instituts für Sozialforschung und Technikfolgenabschätzung (IST) an der Ostbayerischen Technischen Hochschule (OTH) Regensburg. Er forscht und lehrt insbesondere im Bereich der Technikfolgenabschätzung und Technikethik, ist Mitglied der Präsidiumskommission „Ethische Fragen in der Medizinischen Information, Biometrie und Epidemiologie“ und des Ethikgremiums des „Bayerischen IT Sicherheitsclusters“.</em></p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Pro und Contra: Kann man Maschinen und Robotern Ethik beibringen? (2)</title>
		<link>https://humanithesia.org/pro-und-contra-kann-man-maschinen-und-robotern-ethik-beibringen-2</link>
		
		<dc:creator><![CDATA[Sascha Blättermann]]></dc:creator>
		<pubDate>Mon, 23 Jul 2018 09:00:27 +0000</pubDate>
				<category><![CDATA[Blog]]></category>
		<category><![CDATA[Ethik]]></category>
		<category><![CDATA[Führung und Verantwortung]]></category>
		<category><![CDATA[KI]]></category>
		<category><![CDATA[Qualitätssiegel]]></category>
		<category><![CDATA[Uncategorized]]></category>
		<guid isPermaLink="false">http://humanithesia.org/?p=1442</guid>

					<description><![CDATA[Die HumanIThesia-Blogger Michael Mörike und Georg Ludwig Verhoeven streiten über die Frage, ob Maschinen und Roboter eines Tages auch Ethik lernen können. In der vergangenen Woche sagte Michael Mörike ja, heute sagt Georg Ludwig Verhoeven nein. Von Georg Ludwig Verhoeven &#8230;<p class="read-more"> <a class="more-link" href="https://humanithesia.org/pro-und-contra-kann-man-maschinen-und-robotern-ethik-beibringen-2"> <span class="screen-reader-text">Pro und Contra: Kann man Maschinen und Robotern Ethik beibringen? (2)</span> Weiterlesen &#187;</a></p>]]></description>
										<content:encoded><![CDATA[<p><strong>Die HumanIThesia-Blogger Michael Mörike und Georg Ludwig Verhoeven streiten über die Frage, ob Maschinen und Roboter eines Tages auch Ethik lernen können. In der vergangenen Woche sagte Michael Mörike ja, heute sagt Georg Ludwig Verhoeven nein.</strong></p>
<p>Von <strong>Georg Ludwig Verhoeven</strong></p>
<p>Menschen sollen „moralisch“ handeln. Das bedeutet, sie haben gewisse Maximen akzeptiert und richten ihr Handeln danach aus. Offensichtlich ist das aber nicht so einfach wie es klingt, denn es gibt viele Situationen, in denen ein Mensch in einer Weise handeln, die er selbst „moralisch“, andere aber „umoralisch“ finden. Aber können Maschinen auch „moralisch“ handeln?</p>
<p>Fest steht: Ihre Leistungsfähigkeit wächst exponentiell – da müsste doch irgendwann genug Leistung zusammenkommen, um neben komplexen Algorithmen auch moralische Aspekte in den Systemen unterzubringen! Aber: Ich glaube nicht, dass das möglich sein wird – nicht aus technischen oder moralischen Gründen, sondern aus logischen und praktischen. Das will ich im Folgenden begründen.</p>
<h4>I Welche Moral vermitteln wir Maschinen?</h4>
<p>Zuerst stellt sich die Frage, welche Moral wir den Maschinen beibringen sollen. Nehmen wir als eine mögliche Basis die Zehn Gebote. Sie liegen in vielen verschiedenen Versionen vor, aber betrachten wir nur eines der Gebote: „Du sollst nicht töten.“ Das ist eindeutig, und doch wird tagtäglich dagegen verstoßen – durch Menschen, denen andere Werte wichtiger sind als das Leben ihrer Mitmenschen. Das kann ein tödlicher Unfall sein, der durch rücksichtsloses Fahren verursacht wurde, eine Straftat, um sich am Eigentum eines anderen zu bereichern, eine Hinrichtung, um ihn im Namen des Gesetzes zu bestrafen, oder der ganz normale militärische Alltag im Krieg. Es kann der Verkauf von gesundheitsschädlichen Genussmitteln sein und vieles andere. Alle diese Handlungsweisen sind in der Gesellschaft präsent und mehr oder weniger akzeptiert – sollen Maschinen den gleichen Grad an „Toleranz“ besitzen?</p>
<p>Eine Möglichkeit, einer Maschine nun etwas beizubringen – zum Beispiel in Form eines Algorithmus – besteht darin, dass der Algorithmus die Konsequenzen seiner Entscheidung an vorgegebenen „Werten“ misst und dann die Entscheidung fällt zu handeln – oder eben nicht. Wenn solche wohldefinierte Zielwerte vorliegen, ist die Optimierung in aller Regel rechnerisch möglich – vom einfachen Simplex-Verfahren bis hin zum komplexen Problem des Handlungreisenden, der seine Fahrstrecke optimieren will – wo allerdings der Rechenaufwand exponentiell mit das Anzahl der Städte ansteigt und bald jede verfügbare Rechenkapazität sprengt. Aber oft gibt es noch nicht einmal einen Zielwert. Wenn nun ein intelligentes System die Konsequenzen seines Handelns im Sinne moralischer Maximen berücksichtigt, wird es schnell an seine Grenzen stoßen.</p>
<p>Ein oft zitiertes Beispiel ist das autonom fahrende Fahrzeug, das in einer ausweglosen Situation vor der Entscheidung steht, seinen Fahrer, ein Kind oder eine Passantin zu überfahren. Niemand hat bisher eine plausible Lösung dieses Problems geliefert (abgesehen von der „trivialen“ Lösung, dass das Auto nur so schnell fahren darf, dass es in Sichtweite anhalten kann, s. §3, S. 4 StVO). Wie soll nun das autonome Fahrzeug reagieren? Wie soll es programmiert werden?</p>
<p>Logisch einfacher, aber dramatischer, ist der Einsatz autonomer militärischer Geräte (z. B. Drohnen), die im Einsatz selbst entscheiden, ob das Bild, das sie mit ihrer Kamera erfassen und intelligent auswerten. militärische Ziele oder harm- und schutzlose Unbeteiligte zeigt. Mit der Entscheidung, in einer solchen Situation das tödliche Feuer zu eröffnen, ist auch jeder „menschliche“ Kampfpilot konfrontiert &#8211; und oft überfordert.</p>
<h4>II Wer entscheidet über die richtigen moralischen Grundsätze?</h4>
<p>Jeder präzise und eindeutig beschreibbare Algorithmus kann im Prinzip in ein System implementiert werden, aber Moral ist nicht präzise und eindeutig beschreibbar. Entscheidungen, die für einen Menschen moralisch richtig sind, können für einen anderen moralisch falsch und verwerflich sein. Moral ist ein philosphisches Konstrukt, das sich auch mit der Zeit ändert. Wer entscheidet dann letztlich, welche Moral in die Maschine implementiert werden soll? Ein ausgewähltes Gremium von Wissenschaftlern, Philosophen, Managern, Theologen? Oder sollen etwa die Entwickler*innen alles von der Bibel bis zur Straßenverkehrsordnung interpretieren und implementieren, wie sie es für richtig halten?</p>
<p>Nehmen wir jetzt trotzdem einmal an, einem System ist „moralisches Handeln“ implementiert worden. Vor dem Einsatz in der „richtigen Welt“ muss es im Labor ausgiebig getestet werden, denn es wird ja unter Umständen lebenswichtige Entscheidungen fällen müssen. Hier stellt sich ein ganz ähnliches Problem wie bei der Spezifikation: Wer legt die Testfälle fest, wie vollständig sind sie, und welches Testergebnis ist „richtig“, und welches ist falsch?</p>
<h4>III Welche Testfälle sollte man Maschinen geben?</h4>
<p>In Systemtests arbeitet man oft mit Stichproben, weil eine vollständige Testabdeckung in aller Regel umöglich ist. In kniffligen moralischen Fragen (wie dem berühmten „Todesalgorithmus“, mit dem das autonom fahrende Fahrzeug entscheidet, wer den Unfall überlegt) sind sich die Menschen oft uneinig und können oder wollen keine verbindliche Antwort geben – was soll das KI-System in dolchen Fällen tun. Wie ist in solchen Fällen ein Testergebnis zu bewerten?</p>
<p>Es mag nicht möglich sein, die Unmöglichkeit eines moralisch handelnden KI-Systems logisch zu beweisen. Aber angesichts der komplexen Fragen schon zum Thema Spezifikation und Test fühlt man sich an den Turmbau zu Babel erinnert, der in einer Sprachverwirrung endete (1. Buch Mose, Kap. 11) – der Turm wurde nicht fertig.</p>
<p>Aus alldem folgt, dass die Schwierigkeiten, die vor „moralisch“ handelnden Maschinen liegen, enorm sind, und dass daher die Wahrscheinlichkeit, dass es in absehbarer Zeit möglich sein wird, sehr nahe bei Null ist. Ob es wünschenswert ist, ist vor diesem Hintergrund nochmal eine ganz andere Frage.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Pro und Contra: Kann man Maschinen und Robotern Ethik beibringen?</title>
		<link>https://humanithesia.org/pro-und-contra-kann-man-maschinen-und-robotern-ethik-beibringen</link>
		
		<dc:creator><![CDATA[Sascha Blättermann]]></dc:creator>
		<pubDate>Sun, 15 Jul 2018 08:45:14 +0000</pubDate>
				<category><![CDATA[Blog]]></category>
		<category><![CDATA[Ethik]]></category>
		<category><![CDATA[Führung und Verantwortung]]></category>
		<category><![CDATA[KI]]></category>
		<category><![CDATA[Qualitätssiegel]]></category>
		<category><![CDATA[Uncategorized]]></category>
		<guid isPermaLink="false">http://humanithesia.org/?p=1439</guid>

					<description><![CDATA[Die HumanIThesia-Blogger Michael Mörike und Georg-Ludwig Verhoeven streiten über die Frage, ob Maschinen und Roboter eines Tages auch Ethik lernen können. In dieser Woche sagt Michael Mörike ja, in der kommenden Woche sagt Georg Ludwig-Verhoeven nein. Von Michael Mörike Es &#8230;<p class="read-more"> <a class="more-link" href="https://humanithesia.org/pro-und-contra-kann-man-maschinen-und-robotern-ethik-beibringen"> <span class="screen-reader-text">Pro und Contra: Kann man Maschinen und Robotern Ethik beibringen?</span> Weiterlesen &#187;</a></p>]]></description>
										<content:encoded><![CDATA[<p><strong>Die HumanIThesia-Blogger Michael Mörike und Georg-Ludwig Verhoeven streiten über die Frage, ob Maschinen und Roboter eines Tages auch Ethik lernen können. In dieser Woche sagt Michael Mörike ja, in der kommenden Woche sagt Georg Ludwig-Verhoeven nein.</strong></p>
<p>Von <strong>Michael Mörike</strong></p>
<p>Es ist unstrittig, dass schon in naher Zukunft mehr und mehr Roboter und Maschinen mehr oder weniger autonome Entscheidungen treffen und daraus entsprechende Handlungen ableiten werden. Diese Entscheidungen treffen sie aufgrund dessen, was sie gelernt haben. Sie haben dazu viele Sensoren: Beim autonomen Auto sind dies zum Beispiel Kamera, Mikrofon, Abstandsradar, GPS, Tacho, Sensor für Querkräfte, Helligkeit, Belastung, Tankfüllstand und viele andere mehr. Die Sensoren übermitteln die Eingabedaten für die eingebaute KI. Als Ausgabe gibt die KI Anweisungen an die Aktoren &#8211; beim autonomen Auto sind dies dann zum Beispiel Bremse, Gas, Lenkrad, Lichtschalter, Blinker, Hupe, Scheibenwischer, Klimaanlage und so weiter.</p>
<p>Die KI in Mitten dieser Sensoren hat gelernt, die passenden Entscheidungen zu treffen. Beim Lernen wurden ihr dafür viele Situationen vorgelegt und die daraus zu treffenden Aktionen. Hier hat die KI das Ziel, die richtigen Entscheidungen zu finden. In den meisten Situationen wird keine Ethik benötigt, um richtige Aktionen zu erzeugen. Bei Handlungen aber, die Menschen betreffen, kann dies durchaus der Fall sein. Wenn im Lernprogramm implizit ethische Ziele enthalten sind, wird sie lernen, auch die zugehörigen ethischen Entscheidungen zu treffen. Man kann der Maschine auch nur ethische Ziele als Lernmaterial vorzugeben. Warum sollte es eine KI nicht lernen können?</p>
<p>Sicher: Ethik ist komplex und außerdem kulturell verschieden. Deswegen müsste man das Lernmaterial für das Ethik-Modul für jede Kultur verschieden anlegen. Außerdem hängen die ethischen Ziele von der jeweiligen Situation ab, was die Sache kompliziert macht. Wie wäre es, unsere menschliche Ethik als allgemein verfügbares Lernmaterial zur Verfügung zu stellen und eine KI dies lernen zu lassen? Geschieht im Ethikunterricht in der Schule nicht genau das? Gewiss, es ist aufwändig. Aber vielleicht lohnt es sich ja? Würde man eine so trainierte KI in jeden Roboter einbauen, und diesem beibringen, immer vor jeder Handlung gegenüber Menschen erst dieses Ethik-Modul abzufragen, wären wir soweit, wie oben behauptet.</p>
<p>Es ist also möglich.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Welche KI muss in den Giftschrank?</title>
		<link>https://humanithesia.org/welche-ki-muss-in-den-giftschrank</link>
		
		<dc:creator><![CDATA[Sascha Blättermann]]></dc:creator>
		<pubDate>Fri, 20 Apr 2018 09:41:08 +0000</pubDate>
				<category><![CDATA[Arbeit und Erwerb]]></category>
		<category><![CDATA[Blog]]></category>
		<category><![CDATA[Ethik]]></category>
		<category><![CDATA[Führung und Verantwortung]]></category>
		<category><![CDATA[KI]]></category>
		<category><![CDATA[Qualitätssiegel]]></category>
		<guid isPermaLink="false">http://humanithesia.org/?p=1406</guid>

					<description><![CDATA[Künstliche Intelligenz wird heute bereits von Herstellern zum Download angeboten. Und niemand weiß, wie diese Systeme tatsächlich lernen. von Georg-Ludwig Verhoeven Im oft hochgesicherten „Giftschrank“ werden üblicherweise Gegenstände aufbewahrt, von denen eine Bedrohung ausgeht, wenn sie in die falschen Hände &#8230;<p class="read-more"> <a class="more-link" href="https://humanithesia.org/welche-ki-muss-in-den-giftschrank"> <span class="screen-reader-text">Welche KI muss in den Giftschrank?</span> Weiterlesen &#187;</a></p>]]></description>
										<content:encoded><![CDATA[<p><strong>Künstliche Intelligenz wird heute bereits von Herstellern zum Download angeboten. Und niemand weiß, wie diese Systeme tatsächlich lernen.</strong></p>
<p>von <strong>Georg-Ludwig Verhoeven</strong></p>
<p><img decoding="async" class="size-medium wp-image-202 alignleft" src="https://humanithesia.org/wp-content/uploads/2014/09/internet-search-engine-1519471_640-300x200.jpg" alt="" width="300" height="200" />Im oft hochgesicherten „Giftschrank“ werden üblicherweise Gegenstände aufbewahrt, von denen eine Bedrohung ausgeht, wenn sie in die falschen Hände geraten. Gifte, die in der richtigen Dosis heilen, in der falschen töten, aber auch andere gefährliche Substanzen und Gegenstände wie Viren, radioaktive Präparate oder Bücher und Dokumente, die einem bestimmten Personenkreis gefährlich werden können, wenn sie an die Öffentlichkeit geraten. Nur mit besonderer Qualifikation, oft mit behördlicher Genehmigung und nach ausgiebiger Überprüfung, hat man Zugang zu den Inhalten des Giftschranks.</p>
<p>Wenn wir heute lesen, was KI alles anrichten kann, wenn sie „freigelassen“ wird, dann läuft uns ein Schauer über den Rücken: KI steuert Autos, die im Zweifelsfall selbständig entscheiden, wer bei einem Unfall getötet wird; KI wertet Personalakten aus, die über den Arbeitsvertrag und damit die Zukunft eines Menschen entscheiden, KI klassifiziert Fotos von Menschen nach Merkmalen (Hautfarbe, Alter, sexuelle Orientierung), die in einer Kriminalfahndung zur Verhaftung und zu einem Anfangsverdacht führen können. In letzter Konsequenz nimmt KI unsere Arbeitsplätze weg und übernimmt die Herrschaft über den Menschen. Prominente reden davon, dass KI eine größere Gefahr als die Atomkraft darstellt.</p>
<p>Die andere Seite ist, dass Hersteller von KI ihre Werkzeuge und Systeme auf dem Markt frei anbieten, teilweise sogar bereits angelernt. Kunden können diese Komponenten benutzen, teilweise sogar frei herunterladen und in ihre eigenen Systeme einbauen. Niemand weiß, wie die KI-Systeme genau funktionieren, wie sie angelernt wurden und wie sie entscheiden werden.</p>
<p>Soviel ist sicher: Mit der Entwicklung und dem Einsatz von KI stehen uns extrem leistungsfähige Systeme zur Verfügung, deren Potenzial, aber auch deren Gefahren wir heute allenfalls erahnen. Wer an der Entwicklung dieser Technologie teilnimmt, muss sich dessen bewusst sein und Verantwortung für das übernehmen, was hier auf die Menschheit losgelassen wird. Und das, bevor es verbreitet und letztlich aus dem Einflussbereich des Herstellers entlassen wird. „Be safe, not sorry!“ Solange KI-Systeme LKWs für Verkehrszeichen halten und Fotos von Menschen auf der Basis alter Vorurteile auswerten und klassifizieren, sind sie nicht geeignet, in der Alltagswelt eingesetzt zu werden.</p>
<p>Und gehören in den „Giftschrank“, nicht in den Downloadbereich des Herstellers.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Ein IT-Profi fragt sich: Was habe ich getan?</title>
		<link>https://humanithesia.org/ein-it-profi-fragt-sich-was-habe-ich-fuer-kuenstliche-intelligenz-getan</link>
		
		<dc:creator><![CDATA[Sascha Blättermann]]></dc:creator>
		<pubDate>Mon, 26 Feb 2018 12:11:44 +0000</pubDate>
				<category><![CDATA[Bildung und Ausbildung]]></category>
		<category><![CDATA[Blog]]></category>
		<category><![CDATA[Führung und Verantwortung]]></category>
		<category><![CDATA[KI]]></category>
		<guid isPermaLink="false">http://humanithesia.org/?p=1384</guid>

					<description><![CDATA[Michael Mörike blickt zurück und voraus und fragt sich, ob wirklich gewollt ist, was da entsteht. von Michael Mörike Seit Mitte des vorigen Jahrhunderts arbeiten Wissenschaftler und Ingenieure daran, das menschliche Hirn durch Computer zu unterstützen. Zunächst wurden die Computer &#8230;<p class="read-more"> <a class="more-link" href="https://humanithesia.org/ein-it-profi-fragt-sich-was-habe-ich-fuer-kuenstliche-intelligenz-getan"> <span class="screen-reader-text">Ein IT-Profi fragt sich: Was habe ich getan?</span> Weiterlesen &#187;</a></p>]]></description>
										<content:encoded><![CDATA[<p><strong>Michael Mörike blickt zurück und voraus und fragt sich, ob wirklich gewollt ist, was da entsteht.</strong></p>
<p>von <strong>Michael Mörike</strong></p>
<p>Seit Mitte des vorigen Jahrhunderts arbeiten Wissenschaftler und Ingenieure daran, das menschliche Hirn durch Computer zu unterstützen. Zunächst wurden die Computer dafür gebaut, immer schneller zu rechnen und zu ordnen. Dann wurden sie befähigt, Unmengen Information zu speichern und auf Knopfdruck schnell wieder darzustellen. Sie wurden vernetzt, um sich bei Bedarf gegenseitig zu unterstützen, durch gemeinsames Rechnen oder Suchen und Informationsaustausch.</p>
<p>Wir alle haben daran mehr oder minder mitgewirkt: Als Wissenschaftler haben wir das Knowhow für die grundlegende Technik geschaffen. Als Architekten haben wir neue Anwendungen konzipiert und deren Leistung erhöht. Als Programmierer haben wir brauchbare Anwendungen erstellt und Akzeptanz geschaffen. Als Nutzer schätzen wir die Leistungen der Computer und haben sie fest eingeplant.</p>
<p>Ich auch.</p>
<p>Ich habe an der Vernetzung von Computern gearbeitet: Erst habe ich einzelne Rechner gekoppelt (1970), dann Client-Server-Systeme gebaut (1979) und später an BTX-2 (1988), dem Vorläufer vom Internet in Deutschland mitgearbeitet. Nebenher habe ich in der Lehre, durch Schulung und Training den Einsatz der Technik gefördert. Ab 1997 habe ich für geordneten Betrieb von Computern durch Einsatz von ITIL gesorgt und dazu benötigte große und kleine Anwendungen entworfen. Ab 2002 habe ich in Großprojekten für sicheren und stabilen Einsatz von Computern gesorgt. Auch wenn ich selbst keine neuronalen Netze gebaut habe, habe ich sie doch unterrichtet. Ich habe Studenten beigebracht, wie man neuronale Netze lernfähig macht und ihnen „Wissen“ beibringt. Bisher waren die Computer als Rechen- und Wissensverstärker Hilfe für das menschliche Hirn. Mit Hilfe der neuronalen Netze und der darauf basierenden künstlichen Intelligenz (KI) bieten sie nun auch an, Entscheidungsverstärker zu sein: Sie können dazu beitragen, auch ohne unser Zutun schneller gute Entscheidungen zu treffen.</p>
<p>In Forschungslabors stehen erste Rechner, die nicht nur lernen, sondern auch sich selbst oder ihre Kollegen reparieren und korrigieren können. In Wettbewerben treten sie gegen einander an. Dabei hat sich gezeigt, dass sie auch bis dahin unbekannte Fehler finden. Die Wirtschaft fordert Computer, die keine Schwachstellen aufweisen, bei denen man z.B. keine Sorge mehr vor einer Zero-Day-Lücke haben muss. Was sollte die Wirtschaft hindern, sich selbst reparierende Computer einzusetzen? Was sollte sie hindern, Computer einzusetzen, die immer besser werden, weil sie sich selbst verbessern?</p>
<p>Was wird, wenn solche Computer sich nicht nur selbst reparieren, sondern in kleinen Schritten auch weiterentwickeln können? Wohin führt diese technische Entwicklung? Könnte es sein, dass Computer sich irgendwann gegen Menschen richten? Könnten wir eine solche Entwicklung dann noch stoppen? Zum Glück sind wir noch nicht so weit! Wieviel Zeit haben wir noch, bis es so weit kommt? Wir wissen es nicht. Viele Wissenschaftler befürchten, es könnte schneller gehen, als wir uns wünschen. Was aber sicher ist: Wir haben alle – mehr oder weniger unbeabsichtigt – daran mitgewirkt. Tragen wir eine Mitschuld, wenn es schief geht? Auf jeden Fall haben wir eine moralische Verpflichtung nachzudenken, was wir tun wollen oder können, um unerwünschte Entwicklungen zu verhindern.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Digitale Medien ersetzen persönlichen Kontakt nicht</title>
		<link>https://humanithesia.org/digitale-medien-ersetzen-persoenlichen-kontakt-nicht</link>
		
		<dc:creator><![CDATA[Sascha Blättermann]]></dc:creator>
		<pubDate>Mon, 19 Feb 2018 08:26:24 +0000</pubDate>
				<category><![CDATA[Arbeit und Erwerb]]></category>
		<category><![CDATA[Bildung und Ausbildung]]></category>
		<category><![CDATA[Blog]]></category>
		<category><![CDATA[Führung und Verantwortung]]></category>
		<category><![CDATA[Gastbeiträge]]></category>
		<guid isPermaLink="false">http://humanithesia.org/?p=1308</guid>

					<description><![CDATA[Zur Vergabe des Wolfgang-Heilmann-Preises 2017: Preisträgerin Barbara Liebermeister über menschliche Bedürfnisse bei der Kommunikation über digitale Medien. von Barbara Liebermeister Über Facebook, WhatsApp, Xing &#38; Co können wir uns heute mit jedem vernetzen und jederzeit und überall kommunizieren. Doch diese &#8230;<p class="read-more"> <a class="more-link" href="https://humanithesia.org/digitale-medien-ersetzen-persoenlichen-kontakt-nicht"> <span class="screen-reader-text">Digitale Medien ersetzen persönlichen Kontakt nicht</span> Weiterlesen &#187;</a></p>]]></description>
										<content:encoded><![CDATA[<p><strong>Zur Vergabe des Wolfgang-Heilmann-Preises 2017: Preisträgerin Barbara Liebermeister über menschliche Bedürfnisse bei der Kommunikation über digitale Medien.</strong></p>
<p>von <strong>Barbara Liebermeister</strong></p>
<p>Über Facebook, WhatsApp, Xing &amp; Co können wir uns heute mit jedem vernetzen und jederzeit und überall kommunizieren. Doch diese „Fast-Food“-Kommunikation &#8211; wie ich diese Art zu kommunizieren zuweilen auch nenne – befriedigt unser Bedürfnis nach Nähe, nach Geborgenheit, und nach Vertrautheit und Intimität. Das hat unter anderem die werbetreibende Wirtschaft erkannt. Deshalb lässt zum Beispiel der Lebensmittel-Konzern EDEKA seit Jahren Werbespots und Video-Clips produzieren, die alle unter der Überschrift mehr Menschlichkeit stehen.</p>
<p>In einem Spot rollt ein Roboter, auf dessen Brust dick und fett der EDEKA-Slogan „Wir lieben Lebensmittel“ steht, durch eine EDEKA-Filiale. Vor der Fleisch- und Wursttheke fragt der Roboter ein älteres Ehepaar, ob er ihm ein Weihnachts-Rezept geben könne. Das Ehepaar erwidert, das habe der nette Mann hinter der Theke bereits getan – „mit viel Liebe“. Daraufhin fragt der Roboter zurück: „Was ist Liebe?“. Die Antwort des EDEKA-Mitarbeiters: „Etwas, wofür es kein Rezept gibt.“ Ein weiterer Spot behandelt das Thema „Zeit schenken“. In ihm geht es darum, dass viele Aufgaben, die Eltern speziell in der Zeit vor und nach Weihnachten glauben erfüllen zu müssen, faktisch nicht wichtig sind. Es gibt nur eine wichtigste Aufgabe: „Ich muss für dich da sein – mein Kind.“</p>
<p><strong>Marketing-Kommunikation entdeckt „echte“ Gefühle</strong></p>
<p>Und der letzte Weihnachtsspot, der im Jahr 2117 spielt und seit Ende November – also binnen 3,5 Wochen – schon fast vier Millionen Mal bei YouTube aufgerufen wurde? In ihm schert ein Roboter aus einer Roboter-Armee aus. Und er begibt sich auf die Suche nach Menschen, die vor einer von Künstlicher Intelligenz geprägten Welt sozusagen in die Wildnis geflohen sind. Mit ihnen möchte er Weihnachten feiern. Mit einem echten Tannenbaum. Mit einem echten Gänsebraten. Und: Mit echten Gefühlen. <a href="https://www.youtube.com/watch?v=aknucxb0xSo">Schauen Sie selbst. Es lohnt sich!</a></p>
<p>Ja, es lohnt sich ab und zu im Leben innezuhalten und sich fragen: Was ist mir wichtig? Was vermittelt mir nicht nur ein Gefühl des Ge-füllt, sondern des Er-füllt seins? In unserer von den rascher Veränderung und geringer Planbarkeit geprägten modernen Welt wird dies immer wichtiger. Sonst verlieren wir den roten Faden in unserem Leben… und die Menschen, die uns wichtig sind.</p>
<p><strong>Persönliche Kontakte können nicht durch digitale Medien ersetzt werden</strong></p>
<p>Überlegen Sie sich deshalb öfter: Welches Kommunikationsmedium wähle ich für welchen Anlass aus? Manchmal ist das persönliche Gespräch zeitsparender, denn die fehlende Tonalität der Stimme oder die Zwischentöne in Mails können zu Missverständnissen führen, bei denen die Beziehungsqualität leidet. Persönlichkeit läßt sich nicht in allen Facetten digitalisieren. Ein kurzes persönliches Gespräch oder ein Besuch kann Beziehungen retten.</p>
<p>Digitale Kontakte sind schön und gut, doch sie ersetzen die persönliche Begegnung von Mensch zu Mensch nicht. Sie hat eine andere Qualität. Ähnlich dem tollen Konzert, das wir im Konzertsaal live miterleben. Selbst die beste Stereoanlage vermittelt nicht die Qualität, die wir dort erleben dürfen. Deshalb verschafft sie uns auch mehr Erfüllung und Befriedigung.menschliche Bedürfnisse bei der Kommunikation über digitale Medien aussen vor.</p>
<p><strong><img loading="lazy" decoding="async" class="alignleft size-medium wp-image-1312" src="https://humanithesia.org/wp-content/uploads/2018/02/BL_03_2017-00132_web-300x200.jpg" alt="" width="300" height="200" />Über die Autorin</strong></p>
<p>Bevor die Wirtschaftswissenschaftlerin die Leitung des Instituts für Führungskultur im digitalen Zeitalter (IFIDZ) übernahm, war sie im Marketing internationaler Unternehmen tätig (u.a. Christian Dior, L’OREAL u.v.m.), anschließend für die Finanzindustrie. Ihre Schwerpunktthemen sind Führen im digitalen Zeitalter, die Führungskraft als Marke und der Aufbau von Netzwerken. Ihr Institut erforscht und fördert die Führungs- und Managementkultur im Zeitalter der Digitalisierung. Es analysiert und definiert die neuen Herausforderungen für Führungskräfte und entwickelt Instrumente zu deren Bewältigung. Für das neu entwickelte Tool „LEADT“, das die digitalorientierte Führungsreife bei Führungskräften misst, wurde es von der Integrata-Stiftung mit dem Wolfgang Heilmann Preis ausgezeichnet. Als Rednerin engagiert sie sich bundesweit für mehr Werteorientierung im Business.</p>
<p><strong>Weiterführende Links:</strong></p>
<ul>
<li><a href="http://humanithesia.org/fuehrung-im-digitalen-zeitalter">Christiane Eckart: Was Führung im digitalen Zeitalter bedeutet</a></li>
<li><a href="https://wolfgang-heilmann-preis.de/preis-2017">Übersicht der Preisträger des Wolfgang-Heilmann-Preises 2017</a></li>
<li><a href="https://wolfgang-heilmann-preis.de/preis-2017/preisverleihung">Bilder und Bericht der Preisverleihung</a></li>
<li><a href="http://ifidz.de/">Seite des Instituts für Führung im digitalen Zeitalter</a></li>
</ul>
<p></p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Führung im digitalen Zeitalter</title>
		<link>https://humanithesia.org/fuehrung-im-digitalen-zeitalter</link>
		
		<dc:creator><![CDATA[Sascha Blättermann]]></dc:creator>
		<pubDate>Thu, 08 Feb 2018 11:02:19 +0000</pubDate>
				<category><![CDATA[Arbeit und Erwerb]]></category>
		<category><![CDATA[Blog]]></category>
		<category><![CDATA[Führung und Verantwortung]]></category>
		<guid isPermaLink="false">http://humanithesia.org/?p=1290</guid>

					<description><![CDATA[Zur Vergabe des Wolfgang-Heilmann-Preises 2017: Jurymitglied Christiane Eckardt über Kompetenzen und Entscheidungsgewalt von heutigen Führungskräften. von Christiane Eckardt Wir haben auf der Learntec 2018 den Wolfgang-Heilmann-Preis an Barbara Liebermeister und ihr Team vom Institut für Führungskultur im digitalen Zeitalter, IFiDZ, &#8230;<p class="read-more"> <a class="more-link" href="https://humanithesia.org/fuehrung-im-digitalen-zeitalter"> <span class="screen-reader-text">Führung im digitalen Zeitalter</span> Weiterlesen &#187;</a></p>]]></description>
										<content:encoded><![CDATA[<p><strong>Zur Vergabe des Wolfgang-Heilmann-Preises 2017: Jurymitglied Christiane Eckardt über Kompetenzen und Entscheidungsgewalt von heutigen Führungskräften.</strong></p>
<p>von <strong>Christiane Eckardt</strong></p>
<p>Wir haben auf der Learntec 2018 den Wolfgang-Heilmann-Preis an Barbara Liebermeister und ihr Team vom Institut für Führungskultur im digitalen Zeitalter, IFiDZ, vergeben. Das Kernfrage des Preises, Führung im digitalen Zeitalter, war während der gesamten Preisausschreibung sehr präsent, auf Messen und in Vorträgen &#8211; und natürlich kam auch auf der Learntec-Messe mit diversen Rednern die Frage nicht zu kurz.</p>
<p>Überall dort, wo Führung thematisiert wird, ob in Unternehmen, im Non-Profit-Bereich oder in der Politik, kann man mehrere starke Themenfelder identifizieren. Zwei wesentliche Themenfelder davon sind: Kompetenzen von Führungskräften und holokratische /demokratische Strukturen. Zu den Kompetenzen einer Führungskraft im Sinne der Personalführung wird viel geschrieben, was als neu betrachtet wird, aber nicht grundlegend neu ist: Sie sollten Wertschätzung für Mitarbeiter haben und diese auch ausdrücken, Empathie besitzen, Konfliktfähigkeit im Sinne von Konfliktregelung bezeugen, Kommunikationsfähigkeit beweisen, Umgang mit Diversität schätzen und vernetzt denken &#8211; dann klappt das auch mit der Führung über Distanz und bei agilen Arbeitsweisen (was es vor 30 Jahren so kaum gab).</p>
<p>Doch die Kompetenzen einer Führungskraft im strategischen Bereich der Führung haben sich wegen der schnelleren Taktung und der Digitalisierung stärker verändert und das führt oft zu Missverständnissen in Bezug auf Personalführung, wo die „alten“ Tugenden auch zu den neuen gehören. Ich finde es immer befremdlich, wenn auf „altes“ Führungsverhalten referenziert wird, ohne das zu definieren oder zu beschreiben. Ich kenne schon seit vielen Jahren ein Führungsverhalten, das vieles von dem beinhaltet, was heute gebraucht wird &#8211; und sicher gibt es schlechte Führung &#8211; im Mittelalter und heute, branchenabhängig und situationsabhängig.</p>
<p>Es gibt immer noch Situationen (z.B. bei der Gefahrenbewältigung), in denen man nicht lange diskutieren kann. Da ist eine schnelle, autoritäre Entscheidung besser als eine zu späte Konsensentscheidung. Es gibt immer noch Situationen, da gefährdet man den Prozess und eventuell das Geschäft, wenn man den Prozess jedesmal kreativ neu gestalten wollte oder agil verändern wollte. Es gibt aber auch viele Situationen, in denen Führung eher Moderation sein muss, in denen das „Empowerment“ der Mitarbeiter das Mittel der Wahl ist und Situationen, in den Führungskräfte nicht mehr verstehen, was ihr Mitarbeiter im Detail tun und sie ihnen die Entscheidungen überlassen müssen. Wichtig ist dann, dass eine Führungskraft erkennt, welches Verhalten in welcher Situation das beste ist. Diese Ambidextrie von Führungskräften scheint mir da eine wichtige Kompetenz zu sein, die stärkere Bedeutung bekommen hat bzw. bekommen sollte.</p>
<p>Mit der Übergabe des Wolfgang-Heilmann-Preises ist das Thema Führung im digitalen Zeitalter sicher noch nicht beendet. Aber wir sollten diese Diskussion weiter führen.</p>
<p><strong>Über die Autorin</strong></p>
<p>Christiane Eckardt ist Kuratoriumsmitglied der Integrata-Stiftung.</p>
<p><strong>Weiterführende Links:</strong></p>
<ul>
<li><a href="https://wolfgang-heilmann-preis.de/preis-2017">Preisträger des Wolfgang-Heilmann-Preises</a></li>
<li><a href="https://wolfgang-heilmann-preis.de/preis-2017/preisverleihung">Bericht von der Preisverleihung</a></li>
</ul>
<p></p>
]]></content:encoded>
					
		
		
			</item>
	</channel>
</rss>
