<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>Christiane Eckardt &#8211; HumanIThesia: Diskussionsportal für humane Nutzung der IT</title>
	<atom:link href="https://humanithesia.org/author/ecc/feed" rel="self" type="application/rss+xml" />
	<link>https://humanithesia.org</link>
	<description>Ethik bei künstlicher Intelligenz und Robotik</description>
	<lastBuildDate>Wed, 09 Jul 2025 06:09:47 +0000</lastBuildDate>
	<language>de</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	<generator>https://wordpress.org/?v=6.4.5</generator>

<image>
	<url>https://humanithesia.org/wp-content/uploads/2017/11/cropped-humanithesia-logo-vektor-socia-media-32x32.png</url>
	<title>Christiane Eckardt &#8211; HumanIThesia: Diskussionsportal für humane Nutzung der IT</title>
	<link>https://humanithesia.org</link>
	<width>32</width>
	<height>32</height>
</image> 
	<item>
		<title>Generative KI: Kreativität oder Kontrollverlust?</title>
		<link>https://humanithesia.org/generative-ki-kreativitaet-oder-kontrollverlust</link>
		
		<dc:creator><![CDATA[Christiane Eckardt]]></dc:creator>
		<pubDate>Mon, 07 Jul 2025 21:54:56 +0000</pubDate>
				<category><![CDATA[Blog]]></category>
		<category><![CDATA[KI]]></category>
		<category><![CDATA[Ethik]]></category>
		<guid isPermaLink="false">https://humanithesia.org/?p=8758</guid>

					<description><![CDATA[Christiane Eckardt diskutiert mit ChatGPT und Copilot, wie Generative KI zwischen kreativem Potenzial und gefährlichem Kontrollverlust balanciert – und warum Regulierung wie der EU AI Act dabei entscheidend ist.<div class="read-more"><a href="https://humanithesia.org/generative-ki-kreativitaet-oder-kontrollverlust">Weiterlesen &#8250;</a></div><!-- end of .read-more -->]]></description>
										<content:encoded><![CDATA[		<div data-elementor-type="wp-post" data-elementor-id="8758" class="elementor elementor-8758" data-elementor-post-type="post">
						<section class="elementor-section elementor-top-section elementor-element elementor-element-2f53ce9 elementor-section-boxed elementor-section-height-default elementor-section-height-default" data-id="2f53ce9" data-element_type="section">
						<div class="elementor-container elementor-column-gap-default">
					<div class="elementor-column elementor-col-100 elementor-top-column elementor-element elementor-element-da7154e" data-id="da7154e" data-element_type="column">
			<div class="elementor-widget-wrap elementor-element-populated">
						<div class="elementor-element elementor-element-db5ff9e elementor-widget elementor-widget-text-editor" data-id="db5ff9e" data-element_type="widget" data-widget_type="text-editor.default">
				<div class="elementor-widget-container">
									<p>Wenn ich über dieses Thema nachdenke, stellen sich mir gleich mehrere Fragen.</p>
<p></p>
<p>Inzwischen ist wohl unumstritten, dass Generative KI ein hohes kreatives Potenzial hat und sehr hilfreich sein kann (siehe unten). Aber was passiert bei der Anwendung generativer KI?</p>
<p>Bei welcher Art der Kreativität von KI ist der Kontrollverlust wahrscheinlich und gefährlich?</p>
<p></p>
<p>Was bedeutet denn überhaupt Kontrollverlust? Welche Folgen hätte er? Ist das ein Problem oder können wir damit leben- oder differenzierter: Unter welchen Bedingungen können wir damit leben? Es gibt schließlich genügend andere Situationen mit Kontrollverlust, mit denen wir auch leben (müssen). Wo müssen wir für Kontrolle sorgen?</p>
<p>Könnte KI unbemerkt Kontrolle über politische und wirtschaftliche Systeme übernehmen?</p>
<p></p>
<p>Da dachte ich mir dann: Frag mal ChatGPT und Copilot von MS.</p>
<p></p>
<p>Und hier ist die Antwort &#8211; von mir überarbeitet:</p>
<p></p>
<p>Kreativität bei KI kann in verschiedenen Formen auftreten, darunter generative Gestaltung, kreative Problemlösung und künstlerische Schöpfung. Jede dieser Formen hat ihre eigenen Risiken und Potenziale für Kontrollverlust.&nbsp;<span style="font-size: 14px; letter-spacing: 0px; text-transform: inherit;">Kontrollverlust bezeichnet die Situation, in der Menschen die Fähigkeit verlieren, den Einsatz und die Auswirkungen von generativer KI vollständig zu überwachen und zu steuern.&nbsp;</span><span style="font-size: 14px; letter-spacing: 0px; text-transform: inherit;">Der Kontrollverlust bei generativer Gestaltung kann gefährlich sein, wenn die KI unvorhersehbare oder unsichere Designs erstellt, die Sicherheitsrisiken bergen oder unethische Nutzung ermöglichen.&nbsp;</span><span style="font-size: 14px; letter-spacing: 0px; text-transform: inherit;">Ein Kontrollverlust bei kreativer Problemlösung kann auftreten, wenn die KI unkonventionelle Lösungen vorschlägt, die unerwartete negative Konsequenzen haben oder ethische Grenzen überschreiten.&nbsp;</span><span style="font-size: 14px; letter-spacing: 0px; text-transform: inherit;">Die kreative Schöpfung kann problematisch werden, wenn die KI beginnt, Inhalte zu erstellen, die schädlich, beleidigend oder urheberrechtlich geschützt sind. Der Kontrollverlust in diesem Bereich kann zu rechtlichen und ethischen Problemen führen.</span></p>
<p></p>
<p>Im Detail:&nbsp;<span style="font-size: 14px; letter-spacing: 0px; text-transform: inherit;">Kontrollverlust kann also verschiedene Dimensionen haben, darunter technische, ethische, soziale und wirtschaftliche Aspekte.</span></p>
<p><u>Technischer Kontrollverlust</u> tritt ein, wenn die Komplexität der KI-Systeme so hoch wird, dass ihre Funktionsweise und Entscheidungsprozesse für Menschen nicht mehr nachvollziehbar sind. Dies kann dazu führen, dass unvorhersehbare oder unerwünschte Ergebnisse auftreten, die nicht mehr korrigiert werden können.</p>
<p><u>Ethischer Kontrollverlust</u> bezieht sich auf die Herausforderung, sicherzustellen, dass KI-Systeme moralisch vertretbare Entscheidungen treffen. Wenn KI ohne ausreichende ethische Leitlinien eingesetzt wird, können diskriminierende, voreingenommene oder schädliche Entscheidungen getroffen werden, die die Gesellschaft negativ beeinflussen.</p>
<p><u>Sozialer Kontrollverlust</u> beschreibt die Auswirkungen auf die menschliche Interaktion und Kommunikation. Mit der Verbreitung von generativer KI können zwischenmenschliche Beziehungen und die Art und Weise, wie wir kommunizieren, beeinträchtigt werden. Dies kann zu Isolation, Missverständnissen und einem Verlust an Empathie führen. Ein unkontrollierter Einsatz von generativer KI kann zu sozialer Fragmentierung führen. Wenn Technologien nicht inklusiv und gerecht gestaltet sind, können sie bestehende soziale Ungleichheiten verstärken und neue Barrieren schaffen.</p>
<p><u>Wirtschaftlicher Kontrollverlust</u> tritt auf, wenn Unternehmen und Arbeitsmärkte die Kontrolle über KI-gestützte Prozesse und Entscheidungen verlieren. Dies kann zu Arbeitsplatzverlusten, wirtschaftlicher Ungleichheit und einer Konzentration von Macht und Ressourcen in den Händen weniger großer Technologiekonzerne führen.</p>
<p></p>
<p>Die Folgen eines Kontrollverlusts durch generative KI sind vielfältig und können weitreichende Auswirkungen auf verschiedene Bereiche unseres Lebens haben.&nbsp;<span style="font-size: 14px; letter-spacing: 0px; text-transform: inherit;">Ein Kontrollverlust kann zu einem erheblichen Vertrauensverlust in KI-Technologien führen. Wenn Menschen das Gefühl haben, dass die Technologie unvorhersehbar oder unkontrollierbar ist, wird ihr Vertrauen in deren Einsatz und Weiterentwicklung sinken.</span></p>
<p>Generative KI kann auch für Desinformationskampagnen, das Erzeugen von Deepfakes oder andere schädliche Zwecke eingesetzt werden. Ohne ausreichende Kontrolle und Regulation besteht die Gefahr, dass solche Technologien missbraucht werden, um gesellschaftliche oder politische Stabilität zu untergraben. Wenn die Entscheidungsfindung von einer KI übernommen wird, ist es schwierig, Verantwortlichkeiten klar zuzuordnen. Dies kann rechtliche und ethische Fragen aufwerfen, insbesondere wenn Entscheidungen negative Auswirkungen haben.</p>
<p>Der Kontrollverlust stellt auch rechtliche und regulatorische Herausforderungen dar. Es wird schwierig, Verantwortlichkeiten zuzuweisen und sicherzustellen, dass KI-Systeme den geltenden Gesetzen und Vorschriften entsprechen. Dies erfordert neue Ansätze und Regelungen im Umgang mit KI.</p>
<p>Ethische Dilemmata werden zunehmen, da die Entscheidungen von KI-Systemen immer komplizierter und undurchschaubarer werden. Dies erfordert eine ständige Überprüfung und Anpassung ethischer Richtlinien, um sicherzustellen, dass die Technologie im Einklang mit den gesellschaftlichen Werten steht.</p>
<p>Unkontrollierte KI-Systeme könnten in sicherheitsrelevanten Bereichen, wie der Cyberabwehr oder im autonomen Fahren, unvorhersehbare und potenziell gefährliche Entscheidungen treffen, was zu realen Risiken führen kann.</p>
<p></p>
<p>Heimlicher Kontrollverlust der Gesellschaft entsteht durch den Bias in KI-Entwicklungen: Alte Daten mit Verzerrungen, Entwicklerteams, die nicht divers sind. Das ist oft unbemerkt, unabsichtlich, also heimlicher Kontrollverlust, wo wir denken, wir hätten die Kontrolle. Ein weiterer Bereich ist die automatische Erstellung von Texten, Bildern oder Videos (wie Deepfakes), die in politischen oder gesellschaftlichen Kontexten eingesetzt werden können. Hier kann die Kreativität der KI dazu führen, dass glaubwürdige, aber falsche Inhalte entstehen. Wird dies in großem Maßstab betrieben, kann es zu einem Verlust der Kontrolle über den Informationsfluss kommen, was schwerwiegende Folgen für demokratische Prozesse und gesellschaftlichen Zusammenhalt haben kann.</p>
<p><strong style="font-size: 14px; letter-spacing: 0px; text-transform: inherit;">Fazit</strong></p>
<p>Generative KI birgt ein enormes kreatives Potenzial und kann als Katalysator für Innovationen in vielen Bereichen dienen. Gleichzeitig müssen jedoch die Risiken eines Kontrollverlusts ernst genommen werden. Die Herausforderung besteht darin, den Einsatz dieser Technologien so zu gestalten, dass sie einerseits als kreative Werkzeuge genutzt werden können, während andererseits Mechanismen zur Kontrolle, Transparenz und Verantwortlichkeit entwickelt werden, um negative Folgen zu vermeiden. Ein ausgewogener Ansatz, der ethische und rechtliche Rahmenbedingungen einbezieht, ist daher essenziell, um den positiven Nutzen generativer KI zu maximieren und gleichzeitig die Risiken des Kontrollverlusts zu minimieren.</p>
<p></p>
<p>Die Europäische Union hat mit dem Artificial Intelligence Act (AI Act) dazu einen rechtlichen Rahmen verabschiedet mit dem Ziel, vertrauenswürdige KI und verantwortungsvolle KI-Innovationen in Europa zu fördern.&nbsp;Wer Künstliche Intelligenz einsetzt, muss dafür sorgen, dass seine Mitarbeitenden im Umgang mit KI-Systemen geschult werden. Es geht um mehr als Technologie &#8211; es geht um Verantwortung, Transparenz und Nachhaltigkeit.</p>
<p>Der EU AI Act schreibt auch detailliert vor, wie Kontrollen gewährleistet sein müssen und welche Systeme nicht erlaubt sind.</p>
<p>Insgesamt scheint mir, ist die EU damit auf einem guten Weg.</p>								</div>
				</div>
					</div>
		</div>
					</div>
		</section>
				<section class="elementor-section elementor-top-section elementor-element elementor-element-330ad3f elementor-section-boxed elementor-section-height-default elementor-section-height-default" data-id="330ad3f" data-element_type="section">
						<div class="elementor-container elementor-column-gap-default">
					<div class="elementor-column elementor-col-100 elementor-top-column elementor-element elementor-element-2e22aa8" data-id="2e22aa8" data-element_type="column">
			<div class="elementor-widget-wrap elementor-element-populated">
						<div class="elementor-element elementor-element-af93d56 elementor-align-center elementor-widget elementor-widget-button" data-id="af93d56" data-element_type="widget" data-widget_type="button.default">
				<div class="elementor-widget-container">
									<div class="elementor-button-wrapper">
					<a class="elementor-button elementor-button-link elementor-size-sm" href="https://integrata-akademie.de/iakprofessional/">
						<span class="elementor-button-content-wrapper">
									<span class="elementor-button-text">Hilfreiche Kurse zu KI im Beruf finden Sie hier</span>
					</span>
					</a>
				</div>
								</div>
				</div>
					</div>
		</div>
					</div>
		</section>
				</div>
		]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Ignoranzkompetenz und Künstliche Intelligenz</title>
		<link>https://humanithesia.org/ignoranzkompetenz</link>
		
		<dc:creator><![CDATA[Christiane Eckardt]]></dc:creator>
		<pubDate>Thu, 20 Jan 2022 10:18:25 +0000</pubDate>
				<category><![CDATA[Blog]]></category>
		<category><![CDATA[Gastbeiträge]]></category>
		<category><![CDATA[Uncategorized]]></category>
		<category><![CDATA[Ausbildung]]></category>
		<category><![CDATA[Digitalisierung]]></category>
		<category><![CDATA[Gesellschaft]]></category>
		<category><![CDATA[IT]]></category>
		<category><![CDATA[KI]]></category>
		<guid isPermaLink="false">http://humanithesia.org/?p=2340</guid>

					<description><![CDATA[Was verbirgt sich hinter dem Begriff "Ignoranzkompetenz"? Was gewinnen wir im Umgang mit Künstlicher Intelligenz durch das Erlernen dieser Kompetenz? Unsere Gastautorin Christiane Eckardt teilt interessante Erkenntnisse zum kompetenten Umgang mit Nichtwissen.<div class="read-more"><a href="https://humanithesia.org/ignoranzkompetenz">Weiterlesen &#8250;</a></div><!-- end of .read-more -->]]></description>
										<content:encoded><![CDATA[<p>Autorin: Christiane Eckardt</p>
<h5>Was verbirgt sich hinter dem Begriff &#8222;Ignoranzkompetenz&#8220;? Was gewinnen wir im Umgang mit Künstlicher Intelligenz durch das Erlernen dieser Kompetenz? Unsere Gastautorin Christiane Eckardt teilt interessante Erkenntnisse zum kompetenten Umgang mit Nichtwissen.</h5>
<p><span id="more-2340"></span></p>
<p>Vorab: Ignoranzkompetenz heißt nicht, die Kompetenz anderer – Expertinnen und Experten, WissenschaftlerInnen, auch LehrerInnen und FreundInnen- einfach zu ignorieren und zu glauben, dass man einfach mal losplappert, ohne etwas zu wissen, nur mal so zu meinen, weil man ja das Recht auf eine eigene Meinung hat. </p>
<p>„Ich weiß, dass ich nichts weiß“- diese Formulierung von Sokrates zeugt von kluger Selbsteinschätzung.</p>
<p>Alle wissen doch, dass wir als Einzelne auf vielen Gebieten unwissend sind.</p>
<p>Wir fahren ein Auto- die meisten von uns können nicht ganz genau erklären, wie das Auto im Detail funktioniert. Kaum jemand kann seine defekte Spülmaschine reparieren, sondern verlässt sich auf den Wartungstechniker.</p>
<p>Wir beweisen permanent, dass wir recht gut durch Leben kommen, indem wir souverän mit unserem Nichtwissen umgehen. Dies tun wir individuell in vielen Situationen, wir tun es aber auch im Beruf in Arbeitsgruppen und als Gesellschaft. Wir verlassen uns darauf, dass andere die Expertise haben für Themen, die wir nicht oder nicht komplett durchblicken. Diese Erkenntnis, dass wir uns auf die Expertise anderer verlassen müssen, vor allem, wenn es um existentielle Fragen geht, ist manchmal nicht so einfach auszuhalten. Die Corona -Pandemie liefert genügend Beispiele, wo dies nicht gelingt und Menschen einfache Antworten glauben zu wissen. Sie wissen nicht, dass sie nicht wissen. Ihnen fehlt Ignoranzkompetenz.</p>
<p>Ignoranzkompetenz hat, wer gelernt hat, zu vertrauen, dass Wissen verteilt ist, verteilt sein muss bei der Komplexität der heutigen Welt und dass es klug orchestriert ist. Klug orchestriert heißt, dass am Ende ein gutes Ergebnis für alle entstehen kann. Klug orchestriert heißt aber auch, dass wir Basiswissen benötigen, das uns den verantwortungsvollen Umgang mit Themengebieten ermöglicht. Wir machen den Führerschein, um ein Auto fahren zu können- wie wir es bedienen und wie wir uns im Straßenverkehr richtig verhalten &#8211; wir lesen die Gebrauchsanweisung der Spülmaschine.</p>
<p>Wenn wir diese Ignoranzkompetenz auch auf andere Themen, die uns beschäftigen, anwenden, gewinnen wir zusätzliche Chancen. Wir gewinnen Zeit und Energie, um uns mit grundsätzlicher Fragestellung zu einem Thema zu beschäftigen, wir können uns auf ein Gebiet, in dem wir gut sind, fokussieren. Wir können Themen, die uns wichtig sind, voranbringen, wenn wir nicht glauben, alles selbst bearbeiten und verstehen zu müssen. Künstliche Intelligenz (KI) gehört zu diesen Themen, bei dem viele Menschen denken, dass sie nicht mitreden können, weil sie keine Experten dafür sind. Es ist nicht erforderlich, dass wir die neuronalen Netze programmieren können. Wir müssen noch nicht mal im Einzelnen deren Funktionieren erklären können. Wir können aber verstehen, was KI unter welchen Einsatzbedingungen leisten kann. Wir reflektieren kritisch durch Hinterfragen und Sichern der Qualität, indem wir unsere Einschätzung mit anderen diskutieren. Vielleicht könnten viele, die eine solide Ausbildung haben, durchaus tief abtauchen in die (technischen) Themen. Aber ich persönlich tue es bewusst nicht- denn dann habe ich mehr Energie für übergeordnete Fragen. Wir können uns eine Meinung bilden, welche Einsatzfelder wir für sinnvoll und wichtig halten und was drittrangig ist für die Lebensqualität der Menschen. Wir können Einfluss nehmen, wie wir als Gesellschaft die Regeln definieren für den Einsatz von KI- so wie unsere Gesellschaft die Straßenverkehrsordnung festgelegt hat und technische Grundsätze für den Betrieb elektrischer Geräte.</p>
<p>Dann können wir uns bei den tieferen Details Ignoranzkompetenz leisten. Wir sollten klug überlegen, wo wir bewusst keinen Tiefgang üben, sonst überfordern wir uns und bekommen die wesentlichen Fragen nicht geregelt.</p>

]]></content:encoded>
					
		
		
			</item>
	</channel>
</rss>
