<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>Literatur &#8211; HumanIThesia: Diskussionsportal für humane Nutzung der IT</title>
	<atom:link href="https://humanithesia.org/tag/literatur/feed" rel="self" type="application/rss+xml" />
	<link>https://humanithesia.org</link>
	<description>Ethik bei künstlicher Intelligenz und Robotik</description>
	<lastBuildDate>Thu, 03 Aug 2023 11:24:38 +0000</lastBuildDate>
	<language>de</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	<generator>https://wordpress.org/?v=6.4.5</generator>

<image>
	<url>https://humanithesia.org/wp-content/uploads/2017/11/cropped-humanithesia-logo-vektor-socia-media-32x32.png</url>
	<title>Literatur &#8211; HumanIThesia: Diskussionsportal für humane Nutzung der IT</title>
	<link>https://humanithesia.org</link>
	<width>32</width>
	<height>32</height>
</image> 
	<item>
		<title>Für Sie gelesen: Soziale Maschinen bauen</title>
		<link>https://humanithesia.org/soziale-maschinen-bauen</link>
		
		<dc:creator><![CDATA[Michael Mörike]]></dc:creator>
		<pubDate>Thu, 15 Jun 2023 10:08:47 +0000</pubDate>
				<category><![CDATA[Blog]]></category>
		<category><![CDATA[Ethik]]></category>
		<category><![CDATA[Für Sie gelesen]]></category>
		<category><![CDATA[KI]]></category>
		<category><![CDATA[Literatur]]></category>
		<category><![CDATA[Uncategorized]]></category>
		<category><![CDATA[Digitalisierung]]></category>
		<category><![CDATA[Ethik&KI]]></category>
		<category><![CDATA[IT]]></category>
		<category><![CDATA[künstliche Intelligenz]]></category>
		<category><![CDATA[Maschinen]]></category>
		<category><![CDATA[Robotik]]></category>
		<guid isPermaLink="false">https://humanithesia.org/?p=3031</guid>

					<description><![CDATA[Michael Mörike teilt seine Gedanken über die Lektüre von Andreas Bischofs “Soziale Maschinen bauen".<div class="read-more"><a href="https://humanithesia.org/soziale-maschinen-bauen">Weiterlesen &#8250;</a></div><!-- end of .read-more -->]]></description>
										<content:encoded><![CDATA[		<div data-elementor-type="wp-post" data-elementor-id="3031" class="elementor elementor-3031" data-elementor-post-type="post">
						<section class="elementor-section elementor-top-section elementor-element elementor-element-1a1704af elementor-section-boxed elementor-section-height-default elementor-section-height-default" data-id="1a1704af" data-element_type="section">
						<div class="elementor-container elementor-column-gap-default">
					<div class="elementor-column elementor-col-100 elementor-top-column elementor-element elementor-element-39021743" data-id="39021743" data-element_type="column">
			<div class="elementor-widget-wrap elementor-element-populated">
						<div class="elementor-element elementor-element-2c359c6f elementor-widget elementor-widget-text-editor" data-id="2c359c6f" data-element_type="widget" data-widget_type="text-editor.default">
				<div class="elementor-widget-container">
									
<p style="font-weight: 400;">Andreas Bischof beschreibt in seinem Buch mit dem Titel „Soziale Maschinen bauen“, erschienen 2017 im transcipt-Verlag Bielefeld, die bis dahin bekannten epistemischen Praktiken der Sozialrobotik. Er stellt seine Promotionsarbeit im Buch verkürzt dar.</p>
								</div>
				</div>
					</div>
		</div>
					</div>
		</section>
				<section class="elementor-section elementor-top-section elementor-element elementor-element-dbb0c48 elementor-section-boxed elementor-section-height-default elementor-section-height-default" data-id="dbb0c48" data-element_type="section">
						<div class="elementor-container elementor-column-gap-default">
					<div class="elementor-column elementor-col-100 elementor-top-column elementor-element elementor-element-ed466ad" data-id="ed466ad" data-element_type="column">
			<div class="elementor-widget-wrap elementor-element-populated">
						<div class="elementor-element elementor-element-4612f70 elementor-widget elementor-widget-text-editor" data-id="4612f70" data-element_type="widget" data-widget_type="text-editor.default">
				<div class="elementor-widget-container">
									<p style="font-weight: 400;">Um es auf den Punkt zu bringen: Bis 2017 gab es trotz ganz unterschiedlicher Ansätze keine wirklich markanten Durchbrüche.</p>
<p style="font-weight: 400;">Einen kleinen Durchbruch möchte ich hier herausstellen:</p>
<p style="font-weight: 400;">Klar ist zunächst: Jeder Roboter muss, um planen zu können, ein Modell seiner Umgebung aus den Sensordaten zusammenstellen: Das Umgebungsmodell. Eine der Erkenntnisse war, dass anstelle eines vollständigen Umgebungsmodells kleinere Modelle, die sich auf die notwendigen Objekttypen beschränken, vollkommen aus. Kurz: Für jedes Anwendungsfeld genügt ein eigenes Weltbild,  (also die Menge aller darin befindlichen Objekttypen und deren Beziehung zueinander), das nur diejenigen Objekttypen enthält, die eben nötig sind.</p>
<p style="font-weight: 400;">Auch wir Menschen haben verschiedene „Weltbilder“, die wir – je nach Bedarf – nutzen:</p>
<ol>
<li>Unsere Wohnung und die Ordnung darin</li>
<li>Der Marktplatz unserer Gemeinde</li>
<li>Unser Menschenbild, wenn wir uns begegnen</li>
<li>Der Wald, in dem wir spazieren (und seine Tiere)</li>
<li>Unser Schlüsselbund mit seiner Ledertasche</li>
<li>Die Tastatur unseres Klaviers</li>
<li>Das Planetensystem</li>
<li>Unser „Weltbild“ (Kosmos, Schöpfer, unser Leben nach dem Tod)</li>
</ol>
<p style="font-weight: 400;">Wenn wir – ganz unbewusst – auf dem Nachhauseweg in die Tasche greifen, den Schlüssel herausholen und unsere Haustür aufschließen, benötigen unsere Finger dazu das Gefühl für Leder (die Tasche des Schlüsselbundes), für Metall (den Schlüssel) und die kleine Spitze am Zylinder, in den wir den Schlüssel einstecken – um nur einige typische Teile (Objekttypen) zu erwähnen.</p>
<p style="font-weight: 400;">Unsere Vorstellung der Welt in unserem Hirn unterteilt die Welt auch in verschiedene Teilwelten. Unser Weltbild ist modularisiert. Die Teile passen auch nicht notwendig zueinander. Sie können sich sogar widersprechen. Und das ist eben nicht weiter schlimm.</p>
<p style="font-weight: 400;">Wenn wir nun soziale Maschinen bauen, genügt es auch, ihnen für jedes Anwendungsfeld ein eigenes Weltbild vorzuhalten, das im Anwendungsfall dann in ein passendes Umgebungsmodell mit Hilfe der wahrgenommenen Fakten ausgeprägt wird.</p>
<p style="font-weight: 400;">Wenn wir das ernst nehmen, dann sollten wir beim Bau von sozialen Robotern ganz klein anfangen und ihnen erst mal die vielen „trivialen“ Abläufe beibringen, bevor wir ihnen große Aufgaben / Abläufe abverlangen. Es ist der einfachere und weniger aufwändige Weg, als wenn wir ihnen die großen Abläufe direkt einbauen wollen. Da könnte auch noch so viel Training nicht wirklich helfen.</p>								</div>
				</div>
					</div>
		</div>
					</div>
		</section>
				<section class="elementor-section elementor-top-section elementor-element elementor-element-b85c793 elementor-section-boxed elementor-section-height-default elementor-section-height-default" data-id="b85c793" data-element_type="section">
						<div class="elementor-container elementor-column-gap-default">
					<div class="elementor-column elementor-col-100 elementor-top-column elementor-element elementor-element-4fa019a" data-id="4fa019a" data-element_type="column">
			<div class="elementor-widget-wrap elementor-element-populated">
						<div class="elementor-element elementor-element-409925e elementor-widget elementor-widget-heading" data-id="409925e" data-element_type="widget" data-widget_type="heading.default">
				<div class="elementor-widget-container">
					<h2 class="elementor-heading-title elementor-size-default">Über den Autor</h2>				</div>
				</div>
				<div class="elementor-element elementor-element-0442489 elementor-widget-divider--view-line elementor-widget elementor-widget-divider" data-id="0442489" data-element_type="widget" data-widget_type="divider.default">
				<div class="elementor-widget-container">
							<div class="elementor-divider">
			<span class="elementor-divider-separator">
						</span>
		</div>
						</div>
				</div>
					</div>
		</div>
					</div>
		</section>
				<section class="elementor-section elementor-top-section elementor-element elementor-element-f903264 elementor-section-boxed elementor-section-height-default elementor-section-height-default" data-id="f903264" data-element_type="section">
						<div class="elementor-container elementor-column-gap-default">
					<div class="elementor-column elementor-col-33 elementor-top-column elementor-element elementor-element-d847758" data-id="d847758" data-element_type="column">
			<div class="elementor-widget-wrap elementor-element-populated">
						<div class="elementor-element elementor-element-faaba9d elementor-widget elementor-widget-image" data-id="faaba9d" data-element_type="widget" data-widget_type="image.default">
				<div class="elementor-widget-container">
												<figure class="wp-caption">
											<a href="https://humanithesia.org/wp-content/uploads/2023/04/Michael-Moerike.jpeg" data-elementor-open-lightbox="yes" data-elementor-lightbox-title="Michael Mörike" data-e-action-hash="#elementor-action%3Aaction%3Dlightbox%26settings%3DeyJpZCI6MjkwMywidXJsIjoiaHR0cHM6XC9cL2h1bWFuaXRoZXNpYS5vcmdcL3dwLWNvbnRlbnRcL3VwbG9hZHNcLzIwMjNcLzA0XC9NaWNoYWVsLU1vZXJpa2UuanBlZyJ9">
							<img fetchpriority="high" decoding="async" width="193" height="300" src="https://humanithesia.org/wp-content/uploads/2023/04/Michael-Moerike.jpeg" class="attachment-large size-large wp-image-2903" alt="" />								</a>
											<figcaption class="widget-image-caption wp-caption-text">Michael Mörike</figcaption>
										</figure>
									</div>
				</div>
					</div>
		</div>
				<div class="elementor-column elementor-col-66 elementor-top-column elementor-element elementor-element-615ac29" data-id="615ac29" data-element_type="column">
			<div class="elementor-widget-wrap elementor-element-populated">
						<div class="elementor-element elementor-element-5222bda elementor-widget elementor-widget-text-editor" data-id="5222bda" data-element_type="widget" data-widget_type="text-editor.default">
				<div class="elementor-widget-container">
									<p><strong>Michael Mörike</strong>&nbsp;ist seit 2008 ehrenamtlich als Vorstand in der Integrata Stiftung tätig.</p>
<p>Als Informatikpionier führte er bereits während seines Studiums Projekte in der EDV durch. So richtete er beispielsweise 1969 Prozessrechner für die Uni Tübingen ein. Zwischen 1978 und 2000 war Michael Mörike in der Geschäftsführung verschiedener Unternehmen tätig (GDV 4 Jahre, Integrata 14 Jahre, itm AG 4 Jahre) bevor er zur Jahrtausendwende in den Stand des Freiberuflers wechselte.&nbsp;Als Projektleiter hat er so renommierte Projekte wie BTX und NIVADIS geleitet.</p>								</div>
				</div>
					</div>
		</div>
					</div>
		</section>
				<section class="elementor-section elementor-top-section elementor-element elementor-element-f1da091 elementor-section-boxed elementor-section-height-default elementor-section-height-default" data-id="f1da091" data-element_type="section">
						<div class="elementor-container elementor-column-gap-default">
					<div class="elementor-column elementor-col-100 elementor-top-column elementor-element elementor-element-016ea79" data-id="016ea79" data-element_type="column">
			<div class="elementor-widget-wrap elementor-element-populated">
						<div class="elementor-element elementor-element-8221113 elementor-widget-divider--view-line elementor-widget elementor-widget-divider" data-id="8221113" data-element_type="widget" data-widget_type="divider.default">
				<div class="elementor-widget-container">
							<div class="elementor-divider">
			<span class="elementor-divider-separator">
						</span>
		</div>
						</div>
				</div>
					</div>
		</div>
					</div>
		</section>
				</div>
		]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Können Dinge mit uns reden?</title>
		<link>https://humanithesia.org/koennen-dinge-mit-uns-reden</link>
		
		<dc:creator><![CDATA[Michael Mörike]]></dc:creator>
		<pubDate>Wed, 03 May 2023 12:51:15 +0000</pubDate>
				<category><![CDATA[Blog]]></category>
		<category><![CDATA[Für Sie gelesen]]></category>
		<category><![CDATA[KI]]></category>
		<category><![CDATA[Literatur]]></category>
		<category><![CDATA[Uncategorized]]></category>
		<category><![CDATA[Ethik]]></category>
		<category><![CDATA[Information]]></category>
		<category><![CDATA[IT]]></category>
		<category><![CDATA[Kommunikation]]></category>
		<category><![CDATA[künstliche Intelligenz]]></category>
		<category><![CDATA[Philosophie]]></category>
		<category><![CDATA[Robotik]]></category>
		<guid isPermaLink="false">https://humanithesia.org/?p=2913</guid>

					<description><![CDATA[Christoph Drösser schreibt in seinem Buch „Wenn die Dinge mit uns reden“ über den Sinn der Anwendung von KI im Umfeld von Sprache.<div class="read-more"><a href="https://humanithesia.org/koennen-dinge-mit-uns-reden">Weiterlesen &#8250;</a></div><!-- end of .read-more -->]]></description>
										<content:encoded><![CDATA[		<div data-elementor-type="wp-post" data-elementor-id="2913" class="elementor elementor-2913" data-elementor-post-type="post">
						<section class="elementor-section elementor-top-section elementor-element elementor-element-77d3bd5 elementor-section-boxed elementor-section-height-default elementor-section-height-default" data-id="77d3bd5" data-element_type="section">
						<div class="elementor-container elementor-column-gap-default">
					<div class="elementor-column elementor-col-100 elementor-top-column elementor-element elementor-element-6e9f663" data-id="6e9f663" data-element_type="column">
			<div class="elementor-widget-wrap elementor-element-populated">
						<div class="elementor-element elementor-element-5821a93 elementor-widget elementor-widget-text-editor" data-id="5821a93" data-element_type="widget" data-widget_type="text-editor.default">
				<div class="elementor-widget-container">
									<p style="font-weight: 400;"><strong>Christoph Drösser schreibt in seinem Buch „Wenn die Dinge mit uns reden“ von Sprachassistenten, dichtenden Computern und Social Bots und erklärt nebenher, wie die darin enthaltene Künstliche Intelligenz (KI) funktioniert. </strong></p><blockquote><p style="font-weight: 400;">Duden Verlag 2020, ISBN978-3-411-74225-7</p></blockquote>								</div>
				</div>
					</div>
		</div>
					</div>
		</section>
				<section class="elementor-section elementor-top-section elementor-element elementor-element-0467f45 elementor-section-boxed elementor-section-height-default elementor-section-height-default" data-id="0467f45" data-element_type="section">
						<div class="elementor-container elementor-column-gap-default">
					<div class="elementor-column elementor-col-100 elementor-top-column elementor-element elementor-element-3debd40" data-id="3debd40" data-element_type="column">
			<div class="elementor-widget-wrap elementor-element-populated">
						<div class="elementor-element elementor-element-c957fcf elementor-widget elementor-widget-text-editor" data-id="c957fcf" data-element_type="widget" data-widget_type="text-editor.default">
				<div class="elementor-widget-container">
									<p style="font-weight: 400;">An dem Buch begeistert mich, dass der Autor die Fähigkeit heutiger KI-bestückter Computer nicht nur beschreibt, sondern auch als Vorwand nutzt, nebenher die moderne Technik Künstlicher Intelligenz zu erklären. Gewiss – es gibt Bücher, die es dem Laien leichter und verständlicher erklären. Aber wenn man schon einiges über KI weiß, geht dieses Buch doch deutlich tiefer. Außerdem hinterfragt es den Sinn von Anwendungen von KI im Umfeld von Sprache. Das ist ausdrücklich zu begrüßen.</p><p style="font-weight: 400;">Wenn Dinge mit uns reden, sprechen sie nicht nur Texte, sondern hören auch zu. Drösser beschreibt also, wie das Zuhören funktioniert, wie gesprochene Laute in Texte umgewandelt werden, und er beschreibt, wie Texte in gesprochene Sprache gewandelt werden. Beides geht heute schon ganz gut. Das war aber nicht immer so: daher beschreibt er auch, wie es sich historisch entwickelt hat.</p><p style="font-weight: 400;">Und er macht auch klar, dass die KI eben doch nicht <em>zuhört</em>, wenigstens nicht in einem tieferen Sinn. Damit ist gemeint, dass die KI nicht in unserem menschlichen Sinne versteht, um was es dabei geht. Die KI kann nur die Worte so ähnlich anordnen, wie sie in den Texten angeordnet waren, mit denen die KI trainiert wurde. Ich meine, das ist rein assoziatives „Denken“, wenn man überhaupt von Denken sprechen mag. Vielleicht sagen wir doch besser, es ist „einfaches Assoziieren“.</p>								</div>
				</div>
				<div class="elementor-element elementor-element-71f4857 elementor-widget elementor-widget-text-editor" data-id="71f4857" data-element_type="widget" data-widget_type="text-editor.default">
				<div class="elementor-widget-container">
									<p style="font-weight: 400;">Er erklärt auch, dass zum Verstehen eben mehr gehört als reines Assoziieren von Worten. Auch wenn die Worte noch so gut assoziiert werden, entsteht dabei kein Verstehen. Zum Verstehen gehört immer, dass der Empfänger der Botschaft sich die genannten Begriffe hinter den Worten vorstellen kann. Das Wort „Begriff“ trifft es hier ganz gut, denn es deutet darauf hin, dass man damit etwas anfassen, begreifen, etwas damit machen kann. Zum Verständnis gehören die Erfahrung und der Umgang mit den angesprochenen Begriffen. Der Förster und sein Hund haben verschiedene Begriffe von einem Baum: der eine denkt an die (hoffentlich) herrliche Krone und wie der Baum möglichst so weiterwachsen kann, dass er irgendwann mal richtig viel Holz gibt – der andere denkt an das Pinkeln. Zum Verstehen gehört eben auch – mindestens teilweise – sinnliche Erfahrung.</p><p><span style="font-weight: 400;">Was man mit den Dingen machen kann, kann man in einer Ontologie darstellen, indem man die darin beschriebenen Objekte zueinander in Beziehung setzt. Die größte Ontologie ist derzeit Cyc und kommt auch im Buch von Drösser vor. Cyc enthält (mindestens teilweise) die Relationen von rund einer Millionen Objekte zueinander. Christoph Drösser wundert sich – wie auch ich – dass bisher niemand versucht hat, eine Ontologie und ihre Begriffswelt mit den Worten zu verbinden, die eine KI assoziiert. Man könnte schließlich erwarten, dass eine KI wirklich anfangen könnte zu verstehen.</span></p>								</div>
				</div>
				<div class="elementor-element elementor-element-67632ae elementor-widget elementor-widget-text-editor" data-id="67632ae" data-element_type="widget" data-widget_type="text-editor.default">
				<div class="elementor-widget-container">
									<p style="font-weight: 400;">Ich bin jedenfalls sicher, wenn man KI, die mit unseren Worten sprechen kann, mit einer passenden Ontologie kombinieren würde, hätten wir deutlich eher den Eindruck, dass die KI uns versteht.</p><p style="font-weight: 400;">Wäre das schlimm?</p><p> </p>								</div>
				</div>
					</div>
		</div>
					</div>
		</section>
				<section class="elementor-section elementor-top-section elementor-element elementor-element-a241a22 elementor-section-boxed elementor-section-height-default elementor-section-height-default" data-id="a241a22" data-element_type="section">
						<div class="elementor-container elementor-column-gap-default">
					<div class="elementor-column elementor-col-100 elementor-top-column elementor-element elementor-element-e2b0f5f" data-id="e2b0f5f" data-element_type="column">
			<div class="elementor-widget-wrap elementor-element-populated">
						<div class="elementor-element elementor-element-4ab36b5 elementor-widget elementor-widget-heading" data-id="4ab36b5" data-element_type="widget" data-widget_type="heading.default">
				<div class="elementor-widget-container">
					<h2 class="elementor-heading-title elementor-size-default">Über den Autor</h2>				</div>
				</div>
				<div class="elementor-element elementor-element-f411128 elementor-widget-divider--view-line elementor-widget elementor-widget-divider" data-id="f411128" data-element_type="widget" data-widget_type="divider.default">
				<div class="elementor-widget-container">
							<div class="elementor-divider">
			<span class="elementor-divider-separator">
						</span>
		</div>
						</div>
				</div>
					</div>
		</div>
					</div>
		</section>
				<section class="elementor-section elementor-top-section elementor-element elementor-element-affa5f3 elementor-section-boxed elementor-section-height-default elementor-section-height-default" data-id="affa5f3" data-element_type="section">
						<div class="elementor-container elementor-column-gap-default">
					<div class="elementor-column elementor-col-33 elementor-top-column elementor-element elementor-element-e26d04f" data-id="e26d04f" data-element_type="column">
			<div class="elementor-widget-wrap elementor-element-populated">
						<div class="elementor-element elementor-element-92a9b6c elementor-widget elementor-widget-image" data-id="92a9b6c" data-element_type="widget" data-widget_type="image.default">
				<div class="elementor-widget-container">
												<figure class="wp-caption">
										<img fetchpriority="high" decoding="async" width="193" height="300" src="https://humanithesia.org/wp-content/uploads/2023/04/Michael-Moerike.jpeg" class="attachment-large size-large wp-image-2903" alt="" />											<figcaption class="widget-image-caption wp-caption-text">Michael Mörike</figcaption>
										</figure>
									</div>
				</div>
					</div>
		</div>
				<div class="elementor-column elementor-col-66 elementor-top-column elementor-element elementor-element-cc9bd41" data-id="cc9bd41" data-element_type="column">
			<div class="elementor-widget-wrap elementor-element-populated">
						<div class="elementor-element elementor-element-5a656d6 elementor-widget elementor-widget-text-editor" data-id="5a656d6" data-element_type="widget" data-widget_type="text-editor.default">
				<div class="elementor-widget-container">
									<p><strong>Michael Mörike</strong> ist seit 2008 ehrenamtlich als Vorstand in der Integrata Stiftung tätig.</p>
<p>Als Informatikpionier führte er bereits während seines Studiums Projekte in der EDV durch. So richtete er beispielsweise 1969 Prozessrechner für die Uni Tübingen ein. Zwischen 1978 und 2000 war Michael Mörike in der Geschäftsführung verschiedener Unternehmen tätig (GDV 4 Jahre, Integrata 14 Jahre, itm AG 4 Jahre) bevor er zur Jahrtausendwende in den Stand des Freiberuflers wechselte. Als Projektleiter hat er so renommierte Projekte wie BTX und NIVADIS geleitet.</p>								</div>
				</div>
					</div>
		</div>
					</div>
		</section>
				<section class="elementor-section elementor-top-section elementor-element elementor-element-1869792 elementor-section-boxed elementor-section-height-default elementor-section-height-default" data-id="1869792" data-element_type="section">
						<div class="elementor-container elementor-column-gap-default">
					<div class="elementor-column elementor-col-100 elementor-top-column elementor-element elementor-element-d69074e" data-id="d69074e" data-element_type="column">
			<div class="elementor-widget-wrap elementor-element-populated">
						<div class="elementor-element elementor-element-2915bda elementor-widget-divider--view-line elementor-widget elementor-widget-divider" data-id="2915bda" data-element_type="widget" data-widget_type="divider.default">
				<div class="elementor-widget-container">
							<div class="elementor-divider">
			<span class="elementor-divider-separator">
						</span>
		</div>
						</div>
				</div>
					</div>
		</div>
					</div>
		</section>
				</div>
		]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Für Sie gelesen: Menschliches Denken und künstliche Intelligenz</title>
		<link>https://humanithesia.org/fuer-sie-gelesen</link>
		
		<dc:creator><![CDATA[Michael Mörike]]></dc:creator>
		<pubDate>Tue, 02 Aug 2022 13:07:22 +0000</pubDate>
				<category><![CDATA[Blog]]></category>
		<category><![CDATA[Für Sie gelesen]]></category>
		<category><![CDATA[Uncategorized]]></category>
		<category><![CDATA[Buchrezension]]></category>
		<category><![CDATA[Ethik&KI]]></category>
		<category><![CDATA[Information]]></category>
		<category><![CDATA[KI]]></category>
		<category><![CDATA[Literatur]]></category>
		<category><![CDATA[Robotik]]></category>
		<guid isPermaLink="false">http://humanithesia.org/?p=2467</guid>

					<description><![CDATA[Michael Mörike hat für Sie gelesen: Menschliches Denken und Künstliche Intelligenz von Matthias Pfeffer.<div class="read-more"><a href="https://humanithesia.org/fuer-sie-gelesen">Weiterlesen &#8250;</a></div><!-- end of .read-more -->]]></description>
										<content:encoded><![CDATA[<p style="font-weight: 400;">Michael Mörike, Vorstand der Integrata Stiftung, teilt mit Ihnen seine kritischen Bemerkungen nach Lesen des Buches von Matthias Pfeffer, Dietz-Verlag 2021. <span id="more-2467"></span></p>
<p style="font-weight: 400;">Nach langen Jahrzehnten der Beschäftigung (seit 1963) mit IT beschäftige ich mich seit fünf Jahren intensiv mit künstlicher Intelligenz (KI) und lese auch viele Bücher darüber &#8211; schon auch, weil sie mir von Bekannten empfohlen werden und die dann erwarten, dass ich mit ihnen darüber diskutiere. Das ist auch richtig so, denn nur durch Gespräche untereinander können wir in unserer Gesellschaft das Phänomen KI nach und nach begreifen.</p>
<p style="font-weight: 400;">So auch Matthias Pfeffer, der– von der Philosophie her kommend – versucht, das Wesen von KI zu begreifen. Das ist zunächst ein löbliches Unterfangen. Leider unterliegt er aber immer wieder unausgesprochenen Annahmen, die von der Philosophie her so tradiert sind, anstatt auch mal zu hinterfragen, ob sie denn kritischen Fragen standhalten oder ob sie eventuell sogar in sich selbst widersprüchlich sind. Das führt m.E. dazu, dass er ab und zu auch zu falschen Folgerungen kommt.</p>
<p style="font-weight: 400;">Außerdem wirft er den zeitlichen Rahmen immer wieder durcheinander. Er unterstellt z.B., dass KI auch in Zukunft nur statistische Aussagen machen kann, nur weil sie heute nicht mehr kann. Vermutlich hat er sogar recht damit, wenn er – wie die meisten Leute, die sich über KI auslassen &#8211; nur monolithische KI betrachtet. Aber wer sagt denn, dass KI für immer monolithisch bleiben muss? Auch die Biologie hat im Menschen mit dem Neocortex ein Denkorgan geschaffen, das aus etwa 100.000 verschiedenen und sauber getrennten neuronalen Netzen besteht, die alle etwas anderes machen, aber alle (systematisch) zusammen arbeiten. In der Technik koppeln wir aktuell gerade mal drei (Hautkrebserkennung) oder eine Handvoll untereinander, wenn es hochkommt. Es gibt keinen Grund, es der Natur nicht nachzumachen und viele zusammenzuschalten. Dann bearbeitet jedes einzelne eine (relativ einfache) Aufgabe, aber alle zusammen bringen es zu wirklicher Höchstleistung!</p>
<p style="font-weight: 400;">Ein weiterer typischer Denkfehler ist zu glauben, dass wenn KI Bewusstsein erlangt &#8211; also über sich selbst nachdenken kann und sich eventuell im Spiegel wieder erkannt &#8211; dass sie dann auch Schmerz oder Freude empfinden kann. Beim Menschen mag das untrennbar miteinander einhergehen. Das ist aber nicht notwendig so.  Wozu hat die Evolution dem Menschen Schmerzempfingen mitgegeben? Der Nutzen von Schmerz ist doch zu signalisieren: „Mensch da stimmt etwas nicht. Mach es anders!“ Auch ein Roboter muss eventuell erkennen, ob etwas schief läuft. Aber muss er deshalb darunter leiden? Das ist nicht logisch zwingend. Welcher Ingenieur wird es bevorzugen, eine KI zu bauen, die leidet, wenn er es auch anders hinbekommt? Leiden in eine KI einzubauen ist schwieriger, als ihr ein einfaches Signal mitzugeben, dass da etwas nicht stimmt und sie dazu zu bringen, besser darauf zu achten. Leiden zu können ist biologisch durch Jahrmillionen entstanden und in uralten Teilen des Gehirns angesiedelt, nicht aber im Neocortex. Der Zweck kann einfacher erreicht werden.</p>
<p style="font-weight: 400;">Matthias Pfeiffer schildert als Beispiel auch das „Chinesische Zimmer“. Da werden sture Regeln angewandt, um einen Text in einen anderen zu übersetzen. Das Beispiel wird gerne angeführt, um zu zeigen, die dumm KI ist und wie wenig sie „denken“ kann. Klar, denn hier ist denken auch nicht nötig. Wenn man aber zulässt, dass denken immer vernetzt ist, also zu jedem vorkommenden Begriff alle eventuell damit zusammenhängenden anderen Begriffe betrachtet werden, dann kann KI schon heute deutlich mehr. In autonomen Robotern (oder Autos) wird solch vernetztes Denken schon heute – wenigstens ansatzweise und nur in sehr geringem Umfang- angewandt. Vernetztes Denken beruht auf einer Ontologie, die heute meist in Form von Wissensgrafen realisiert werden. Davon ist im Buch leider nirgendwo die Rede. Es passt halt auch nicht zur Ansicht von Matthias Pfeffer.</p>

]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Buchkritik zu &#8222;2045 das Jahr, in dem die KI schlauer wird als der Mensch“</title>
		<link>https://humanithesia.org/buchkritik-2045</link>
		
		<dc:creator><![CDATA[Michael Mörike]]></dc:creator>
		<pubDate>Wed, 15 Jun 2022 10:26:34 +0000</pubDate>
				<category><![CDATA[Blog]]></category>
		<category><![CDATA[Ethik]]></category>
		<category><![CDATA[Für Sie gelesen]]></category>
		<category><![CDATA[KI]]></category>
		<category><![CDATA[Ausbildung]]></category>
		<category><![CDATA[Information]]></category>
		<category><![CDATA[künstliche Intelligenz]]></category>
		<category><![CDATA[Literatur]]></category>
		<category><![CDATA[Robotik]]></category>
		<guid isPermaLink="false">http://humanithesia.org/?p=2385</guid>

					<description><![CDATA[Im Buch von Dr. Horst Walther und Andreas Dripke: „2045 das Jahr, in dem die KI schlauer wird als der Mensch“ wird davon ausgegangen, dass man eine KI konstruieren kann und wird, die selbst wiederum verbesserte KI konstruieren kann und &#8230;<p class="read-more"> <a class="more-link" href="https://humanithesia.org/buchkritik-2045"> <span class="screen-reader-text">Buchkritik zu &#8222;2045 das Jahr, in dem die KI schlauer wird als der Mensch“</span> Weiterlesen &#187;</a></p>]]></description>
										<content:encoded><![CDATA[
<p><strong>Im Buch von Dr. Horst Walther und Andreas Dripke: „2045 das Jahr, in dem die KI schlauer wird als der Mensch“ wird davon ausgegangen, dass man eine KI konstruieren kann und wird, die selbst wiederum verbesserte KI konstruieren kann und wird. Wenn das der Fall ist, ist eine den Menschen überholende, eventuell ihn sogar überrumpelnde KI denkbar. Erfahren Sie, warum unser Blogautor Michael Mörike findet, dass das Buch seinem Untertitel &#8222;KI zu Ende gedacht&#8220; nicht gerecht wird.</strong><span id="more-2385"></span></p>
<p>Im Buch von Dr. Horst Walther und Andreas Dripke: „2045 das Jahr, in dem die KI schlauer wird als der Mensch“ wird davon ausgegangen, dass man eine KI konstruieren kann und wird, die selbst wiederum verbesserte KI konstruieren kann und wird. Wenn das der Fall ist, ist eine den Menschen überholende, eventuell ihn sogar überrumpelnde KI denkbar. Wie sollte das gehen?</p>
<h5>1. KI lernt aus Daten</h5>
<p>KI wird – mindestens nach allem, was man heute weiß – mit Hilfe von Daten / Informationen trainiert.</p>
<p>Eine KI, die eine neu konstruierte und bessere KI trainiert, braucht neue verbesserte oder erweiterte Daten.<br>Woher nehmen?&nbsp;Im Internet sind sehr viele Texte verfügbar, die man statistisch semantisch analysieren kann.<br>Schließlich sind sie alle nach entsprechenden Grammatiken formuliert.</p>
<p>Im Internet sind sehr viele Bilder verfügbar, die mehr oder weniger gut annotiert sind.<br>Entweder man annotiert die Bilder noch besser (kann das eine KI?) oder steckt als Mensch viel Arbeit rein.<br>Sehr viele Bilder sind nicht klassisch annotiert, haben aber durchaus einen Bezug zu Texten, die sie beschreiben oder in die sie eingebunden sind. Vielleicht kann eine künftige KI diese Texte so interpretieren, dass sie aus den Bildern lernen kann?</p>
<p>Ähnliches gilt für kleine Filmchen (youtube). Sie enthalten oft gesprochenen Text, der interpretiert werden könnte. Oder sie werden außerhalb in entsprechenden Texten beschrieben.<br>Aber auch dazu braucht es deutlich verbesserte Trainingsmethoden, dass daraus eine KI neues lernen kann.</p>
<p>Ähnliches gilt für Musik.</p>
<p>Junge Menschen lernen, indem man sie durch die Welt führt und ihnen Erklärungen dazu abgibt.<br>Könnte das ein Vorbild für eine KI sein? Mindestens anfangs könnten Menschen eine lernende KI durch die Welt führen. Wie aber kann eine bestehende KI einer (noch jungen, lernenden) neuen KI die Welt erklären?</p>
<p>Um die Welt zu verstehen, müsste die KI vernetzt denken können. Noch gibt es das nicht. Es ist aber durchaus vorstellbar, dass eine KI eine Ontologie zur Verfügung hat, mit deren Hilfe sie vernetzt denken könnte.<br>Woher kommt so eine – umfassende – Ontologie?</p>
<p>Kann man mit einer KI eine Ontologie aufbauen?<br>Zunächst in Form eines (sehr großen, umfangreichen) Wissensgraphen (knowledge graph).<br>Der müsste aber von Menschen geprüft und zertifiziert werden. Eine sich selbst verbessernde KI kann frühestens dann gebaut werden, wenn eine solche Ontologie verfügbar ist. 2045? Eher nicht.</p>
<h5>2. KI braucht Ziele innerhalb von Anwendungsgebieten</h5>
<p>Jede KI benötigt zur operativen Arbeit Ziele, die sie verfolgt – nicht anders als der Mensch auch.</p>
<p>Der Mensch hat durch die Evolution Ziele vorgegeben bekommen (Größenordnung: 100 Ziele oder mehr).<br>Woher bekommt eine sich selbst verbessernde KI immer wieder neue Ziele?<br>Kann diese Ziele auch die bereits vorhandene KI haben, ohne sie verfolgen zu können?<br>Dann könnte die Alte der Neuen aus diesem Reservoir weitere Ziele vorgeben.<br>Aber dieses Reservoir müsste vom Menschen initial angelegt werden. Wollen wir das machen?</p>
<p>Diese Ziele können bei der konkreten Durchführung / Umsetzung in Konflikt miteinander stehen (Ethik lässt grüßen!). Damit das nicht permanent und unkontrolliert geschieht, müssten diese Zeile untereinander verglichen werden können: Sie brauchen Gewichte. Diese Gewichte könnte anfangs der Mensch vorgeben. Warum sollte er es?</p>
<p>Macht er es eventuell fahrlässig, indem er „seine“ KI-gestützten Helferlein baut und ihnen solche Gewichte vorgibt, die die sich selbst verbessernde KI dann einfach übernimmt / kopiert / klaut?</p>
<p>Ziele beziehen sich immer auf Anwendungsgebiete. Beim Menschen ist das Anwendungsgebiet sein eigenes Leben. Dies und das Umfeld zu optimieren hat ihm die Evolution als Ziel vorgegeben. Als Menschen verfolgen wir nicht alle denkbaren Ziele: Z.B. haben wir nicht den intensiven Wunsch mit dem Kopf nach unten an den Bäumen zu hängen. Das bringt uns nämlich nichts.</p>
<p>Jede KI hat – zumindest, solange sie noch nicht dem Menschen überlegen ist, ihr eigenes Anwendungsgebiet. Die immer schlauer werdende KI müsste ihr Anwendungsgebiet Zug um Zug erweitern. Wie soll das gehen? Geben wir der ersten sich selbst verbessernden KI alle künftigen Anwendungsgebiete mit? Implizit mit den Zielen oder explizit?</p>
<p>Oder probiert die KI einfach rum – zufallsgesteuert oder besser durch mehr oder weniger zufällige kleine Änderungen ihrer Aufgaben, ihrer Ziele? So jedenfalls hat es die Evolution mit uns Lebewesen gemacht.</p>
<h5>3. Kann eine KI rumprobieren?</h5>
<p>Zweifellos kann man eine KI bauen, die einfach zufallsgesteuert rumprobiert. Dabei geht dann vieles schief und die Fehlversuche werden abgebrochen. Dies würden wir bemerkten als Menschen jedoch bemerken. Ich jedenfalls würde die KI dann ganz schnell abstellen, ihr den Stecker ziehen.</p>
<p>Wenn eine KI rumprobiert, wie kann sie feststellen, ob eine neu geschaffene KI leistungsfähiger ist als die alte oder leistungsschwächer? Welche Kriterien sollen da gelten? Wenn sie ihre Ziele schneller erreicht? Wenn sie neue Ziele erreicht? Wie kann eine (zunächst noch) leistungsschwache KI unterscheiden zwischen dem Erreichen eines neuen außerhalb des bisherigen Rahmens liegenden Ziels und einem Fehlversuch? Wie kann sie das Erreichen eines außerhalb des bisherigen Anwendungsgebietes liegenden Ziels als erfolgreich und weiterführend erkennen?</p>
<p>Fragen über Fragen, deren Beantwortung das Buch verschweigt.</p>
<p>Das Buch trägt den Untertitel „KI zu Ende gedacht“ und ist wohl als Wortspiel zu verstehen. Diesem Ziel werden die Autoren offensichtlich nicht gerecht.</p>
<p>Ich jedenfalls habe keine Angst vor dem Jahr 2045.</p>
<p>Michael Mörike, Vorstand der Integrata-Stiftung</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Novozän: Das kommende Zeitalter der Hyperintelligenz</title>
		<link>https://humanithesia.org/novozaen</link>
		
		<dc:creator><![CDATA[Michael Mörike]]></dc:creator>
		<pubDate>Mon, 04 Oct 2021 12:38:34 +0000</pubDate>
				<category><![CDATA[Blog]]></category>
		<category><![CDATA[Für Sie gelesen]]></category>
		<category><![CDATA[KI]]></category>
		<category><![CDATA[Gesellschaft]]></category>
		<category><![CDATA[Literatur]]></category>
		<category><![CDATA[Robotik]]></category>
		<category><![CDATA[Umwelt]]></category>
		<guid isPermaLink="false">http://humanithesia.org/?p=2296</guid>

					<description><![CDATA[James Lovelock, Mediziner, Geochemiker, Biophysiker und Literat prophezeit in seinem Buch „Novozän“ ein utopisches Zeitalter: Das Zeitalter der Hyperintelligenz. Hauptakteure bei der Bewältigung der Klimakatastrophe werden nicht Menschen, sondern hyperintelligente Cyborgs sein. Michael Mörike hat die spannende Hypothese unter die &#8230;<p class="read-more"> <a class="more-link" href="https://humanithesia.org/novozaen"> <span class="screen-reader-text">Novozän: Das kommende Zeitalter der Hyperintelligenz</span> Weiterlesen &#187;</a></p>]]></description>
										<content:encoded><![CDATA[
<h6>James Lovelock, Mediziner, Geochemiker, Biophysiker und Literat prophezeit in seinem Buch „Novozän“ ein utopisches Zeitalter: Das Zeitalter der Hyperintelligenz. Hauptakteure bei der Bewältigung der Klimakatastrophe werden nicht Menschen, sondern hyperintelligente Cyborgs sein. Michael Mörike hat die spannende Hypothese unter die Lupe genommen.</h6>
<p><span id="more-2296"></span></p>
<p>Novozän, so nennt James Lovelock das kommende Zeitalter, in dem künstliche Lebewesen neben den Menschen die Erde bevölkern werden. Er wagt mit dieser Prophezeiung einen Blick in die ferne Zukunft. Uns Menschen sieht er an der Schwelle zu einem neuen Zeitalter, dem der Hyperintelligenz. Dazu hat er im hohen Alter von 99 Jahren ein Buch geschrieben, das 2020 im C.H.Beck-Verlag auf Deutsch übersetzt erschienen ist.</p>
<p>Wie bei allen solchen Prophezeiungen lese ich die Begründungen dafür immer mit großer Skepsis und suche mögliche Denkfehler, denen die Propheten unterliegen könnten. Sehr oft werde ich fündig und muss  dann schließen, dass die jeweilige Prophezeiung wenig Wahrscheinlichkeit für ihren Eintritt bietet. Auch diesmal konnte ich nicht umhin, das Buch aus solcher Perspektive heraus zu lesen.</p>
<p>Lovelock unterstellt in seinem Buch auch seine Gaia-Hypothese: Sie sieht die ganze Natur auf der Erde inklusive ihrer geologischen Beschaffenheit wie ein Lebewesen. Gewiss, Gaia kann sich – wie Viren &#8211; nicht fortpflanzen. Aber Gaia wehrt sich gegen steigende Temperaturen mit pflanzlichem Wachstum, das der Atmosphäre CO2 entzieht, in Form von Kohle, die in die Tiefe transportiert wird und damit zur Kühlung beiträgt. Und Gaia hat den Menschen einschließlich seiner Intelligenz hervorgebracht.</p>
<p>Dem Menschen wird es gelingen – so Lovelocks Prophezeiung – eine allgemeine künstliche Intelligenz zu erschaffen und sie in Maschinen einzubauen, die dann zusätzlich zu den Menschen die Erde bevölkern und deutlich intelligenter und schneller sein werden als die Menschen. Diese Cyborgs werden den Menschen als intelligentestes Wesen ablösen. Aber sie werden ihn nicht umbringen, denn sie brauchen ihn – so seine Vermutung. Denn auch die Cyborgs benötigen Gaia, die gekühlte Erde.</p>
<p>Bei der Vorstellung, wie sie entstehen werden, macht er vermutlich einen Denkfehler. Er meint, das könne so ähnlich geschehen, wie AlphaZero entstanden ist: Künstliche Intelligenz wird auf das Brettspiel GO angesetzt und lernt es ganz selbständig, einfach indem es gegen sich selbst spielt, ohne dass ihm irgendwelche Regeln vorgegeben werden. Das war aber bei AlphaZero so nicht. Auch bei AlphaZero musste der KI die Regel vorgegeben werden, wer gewonnen hat. Und damit hatte AlphaZero ein Ziel vorgegeben, nämlich gemäß dieser Regel zu gewinnen. Und wenn man KI künftig darauf ansetzt, eine allgemeine künstliche Intelligenz zu entwickeln, muss auch – mindestens – ein Ziel vorgegeben werden. Meine persönliche Vermutung: Es müssen sogar mehrere Ziele sein, die man dazu benötigt. Es ist wie bei der natürlichen Evolution: Den Lebewesen werden Ziele vorgegeben: Möglichst lange zu überleben und nicht nur als Individuum, sondern auch als Art. Also das weitere Ziel, Kinder und Enkel zu bekommen. Und noch ein Ziel, nämlich nicht nur Kinder in möglichst großer Zahl, sondern so, dass Enkel und Urenkel entstehen können. Also insgesamt jedenfalls mehrere Ziele. <br />Meine persönliche Vermutung: wenn wir genauer hinschauen kommen noch weitere Ziele hinzu.</p>
<p>Dies verhindert aber nicht, dass ich gerne glauben mag, dass Lovelock korrekt prophezeit, dass der Mensch durch intelligentere Wesen abgelöst werden wird. Wir sind eben nicht notwendig das Ende der Entwicklung.</p>
<p>Nebenher versucht er, das Fermi-Paradox zu lösen. Das ist für mich aber nicht überzeugend. Er beschreibt die Historie des Kosmos (Weltall) leider ziemlich anders, als es von der aktuellen Wissenschaft angenommen wird. Nach dem Urknall vermutet er mehrere Milliarden Jahre eine Art Konsolidierung, die es so gemäß aktueller Forschung nicht gegeben hat. Wir sehen bereits nach (relativ) wenigen Millionen Jahren die ersten Galaxien und die ersten Supernovae. Die Entwicklung von intelligentem Leben wäre durchaus schon viel früher möglich gewesen. Wenn wir heute einzigartig sind – was wir nicht wissen – dann jedenfalls nicht deshalb, weil der Kosmos so lange gebraucht hat, sich und uns zu entwickeln. Überhaut teile ich auch nicht seine Ansicht, der Kosmos hätte das Ziel, verstanden zu werden. Ich meine, der Kosmos hat gar kein Ziel. Und wenn wir Menschen und die uns nachfolgenden Cyborgs auch versuchen, den Kosmos zu verstehen, dann ist das m.E. ein ungeplanter Nebeneffekt unserer Existenz, aber auf jeden Fall nicht ein intrinsisches Ziel des Kosmos.</p>
<p>&#8222;Novozän-Das kommende Zeitalter der Hyperintelligenz&#8220; ist ein kurzweiliges, lesenswertes Buch, findet Michael Mörike, Vorstand der Integrata-Stiftung.</p>
<p>Was halten Sie von dem Buch, bzw. den hier angerissenen Themen? Sie sind herzlich eingeladen, mit uns darüber in Diskussion zu treten. Wir freuen uns darauf.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Darf ein Philosoph hetzen?</title>
		<link>https://humanithesia.org/blogbeitrag-juni-2021</link>
		
		<dc:creator><![CDATA[Michael Mörike]]></dc:creator>
		<pubDate>Wed, 09 Jun 2021 12:26:27 +0000</pubDate>
				<category><![CDATA[Blog]]></category>
		<category><![CDATA[Ethik]]></category>
		<category><![CDATA[KI]]></category>
		<category><![CDATA[Uncategorized]]></category>
		<category><![CDATA[Gesellschaft]]></category>
		<category><![CDATA[Literatur]]></category>
		<category><![CDATA[Natur]]></category>
		<category><![CDATA[Philosophie]]></category>
		<category><![CDATA[Umwelt]]></category>
		<guid isPermaLink="false">http://humanithesia.org/?p=2195</guid>

					<description><![CDATA[Fragen Sie sich auch, wohin uns die Entwicklung von Künstlicher Intelligenz (KI) führt? Was bringt sie uns?Wer sich halbwegs ernsthaft damit beschäftigen will, muss auch auf Philosophen hören, die sich mit diesem Thema beschäftigen.&#160;Daher hat Michael Mörike, Vorstand der Integrata-Stiftung, &#8230;<p class="read-more"> <a class="more-link" href="https://humanithesia.org/blogbeitrag-juni-2021"> <span class="screen-reader-text">Darf ein Philosoph hetzen?</span> Weiterlesen &#187;</a></p>]]></description>
										<content:encoded><![CDATA[
<h5>Fragen Sie sich auch, wohin uns die Entwicklung von Künstlicher Intelligenz (KI) führt? Was bringt sie uns?<br>Wer sich halbwegs ernsthaft damit beschäftigen will, muss auch auf Philosophen hören, die sich mit diesem Thema beschäftigen.&nbsp;Daher hat Michael Mörike, Vorstand der Integrata-Stiftung, den Essay&nbsp;„Künstliche Intelligenz und der Sinn des Lebens“&nbsp;von Richard David Precht gelesen.<br>Und – um es gleich vorwegzusagen – nun ist er tief enttäuscht.</h5>
<p><span id="more-2195"></span></p>
<p>In dem Buch fügt der Autor eine Aussage nach der anderen aneinander über sein Wissen über die Welt, ohne auch nur ein einziges Argument zum Titel zu liefern. Die Aussagen stehen fast beziehungslos nebeneinander. Teilweise widersprechen sie sich sogar. Sie eignen sich gut als Hetzkampagne gegen die Entwicklung der Informationstechnologie (IT), aber sie eignen sich nicht für eine sachliche Diskussion. Ist das Philosophie? Haben das deutsche Philosophen nötig? Hat der Autor das nötig?</p>
<p>Beim Lesen kann man den Eindruck gewinnen, im Buch wird Bewusstsein mit Denken verwechselt – eigentlich eine ureigene Domäne der Philosophie. Als Menschen denken wir sehr, sehr viel mehr, als wir uns bewusst machen können. Der Autor redet (oder schreibt) viel, ohne nachzudenken; und vermutlich ist er sich dessen auch nicht bewusst.</p>
<p>Der Autor beschreibt viele Phänomene, die wir derzeit – auch en detail &#8211; erleben, scheint aber das Phänomen der Emergenz nicht zu kennen, das wir in der KI derzeit eben auch erleben. Jedenfalls wird keine derartige Erkenntnis im Buch sichtbar.</p>
<p>Precht vermischt immer wieder Bedeutung und Gedanken – ich meine ganz unzulässig. Bedeutung hat eben nicht nur etwas, was wir bewusst durchdenken. Bedeutung kann auch etwas haben, das wir nie gedacht haben und nie bewusst denken werden. Die Welt ist nun mal auf unsere menschlichen Gedanken nicht angewiesen. Was ist Bedeutung? Wird im Buch leider nicht geklärt. Dafür kommt ganz zum Schluss im Buch etwas zur Bedeutung des Sinns des Lebens &#8211; leider aber ohne auf die Evolution einzugehen, die uns ja den Sinn unseres Lebens mitgegeben hat. Auf die moderne Philosophie in der Giordano-Bruno-Stiftung dazu geht R. D. Precht natürlich nicht ein. Schließlich passt sie eher nicht zu seinem Weltbild.</p>
<p>Wenn ich mir diese Entwicklung vor Augen führe, könnte ich den Eindruck gewinnen, dass dieses Buch ein Beleg dafür ist, dass die klassische Philosophie des Denkens, der Gefühle und der Ethik hier ihr letztes Gefecht gegen eine Technisierung des Denkens oder menschlichen Gefühle führt. Schließlich fängt die Technik gerade an, unser Denken (KI) und letztlich daraus folgend dann auch unsere menschlichen Gefühle nachzubauen. Durch den Nachbau lernen wir viel über uns selbst. Im Buch übrigens ist keine Rede davon! Von einem gestandenen Philosophen hätte ich erwartet, dass er genau das in seinem Buch beschreibt – und vielleicht zunächst notgedrungen akzeptiert, aber dann daraus eine moderne weiterführende Philosophie begründet.</p>
<p>Das ist definitiv nicht gelungen.</p>
<p>Michael Mörike, Vorstand der Integrata-Stiftung.</p>
]]></content:encoded>
					
		
		
			</item>
	</channel>
</rss>
