<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	
	>
<channel>
	<title>
	Kommentare zu: Hat Künstliche Intelligenz Grenzen?	</title>
	<atom:link href="https://humanithesia.org/hat-kuenstliche-intelligenz-grenzen/feed" rel="self" type="application/rss+xml" />
	<link>https://humanithesia.org/hat-kuenstliche-intelligenz-grenzen</link>
	<description>Ethik bei künstlicher Intelligenz und Robotik</description>
	<lastBuildDate>Thu, 03 Aug 2023 12:00:39 +0000</lastBuildDate>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	<generator>https://wordpress.org/?v=6.4.5</generator>
	<item>
		<title>
		Von: Peter Nickl		</title>
		<link>https://humanithesia.org/hat-kuenstliche-intelligenz-grenzen#comment-703</link>

		<dc:creator><![CDATA[Peter Nickl]]></dc:creator>
		<pubDate>Mon, 03 Feb 2020 22:22:06 +0000</pubDate>
		<guid isPermaLink="false">http://humanithesia.org/?p=1717#comment-703</guid>

					<description><![CDATA[&quot;Hauptsache, es ist jemand da, der sich liebevoll ... kümmert&quot;: Darin versteckt sich m.E. ein gravierender Denkfehler. Es ist wahr: KI kann immer mehr simulieren – am Anfang nur das Schachspielen, eine vermeintlich rein logische Angelegenheit, inzwischen vielleicht auch den Ausdruck von Emotionen. Aber es bleibt bei der Simulation! In Wirklichkeit spielt ja auch kein Computer Schach – wenn er das täte, müsste er traurig sein, wenn er verliert, und froh, wenn er gewinnt. Beides ist nicht der Fall, weil der Computer keinen Willen, kein Selbst und keine Emotionen hat. (Und wenn wir ihm den Stecker ziehen, tangiert ihn das überhaupt nicht.) Und wenn er all das – Wille, Selbst, Gefühl – eines Tages simulieren könnte, hätte er es damit immer noch nicht.
Man kann sich das an einem einfachen Beispiel klarmachen: Wir sagen, die Spülmaschine spült unser Geschirr. Die Wirklichkeit ist eine andere: wir positionieren schmutziges Geschirr in der Maschine, in der ein Programm abläuft, das warmes, mit Reinigungsmittel versetztes Wasser auf das schmutzige Geschirr treffen lässt. Wenn wir nach ein oder zwei Stunden die Teller aus der Maschine holen, sind sie meistens sauber – so als ob ein Mensch sie gespült hätte. Aber die Maschine hat genauso wenig gespült wie der Computer Schach gespielt hat und wie die KI einen alten Menschen pflegt. Und gerade da kommt es uns doch bestimmt auf die Wirklichkeit, und nicht auf die Simulation der liebevollen Zuwendung an! 
Entsprechend würden die vielen alten Menschen, deren Lebenssinn immerhin noch darin besteht, den Hund Gassi zu führen, sicher diesen Lebenssinn nicht darin finden können, einen Roboterhund auszuführen!]]></description>
			<content:encoded><![CDATA[<p>&#8222;Hauptsache, es ist jemand da, der sich liebevoll &#8230; kümmert&#8220;: Darin versteckt sich m.E. ein gravierender Denkfehler. Es ist wahr: KI kann immer mehr simulieren – am Anfang nur das Schachspielen, eine vermeintlich rein logische Angelegenheit, inzwischen vielleicht auch den Ausdruck von Emotionen. Aber es bleibt bei der Simulation! In Wirklichkeit spielt ja auch kein Computer Schach – wenn er das täte, müsste er traurig sein, wenn er verliert, und froh, wenn er gewinnt. Beides ist nicht der Fall, weil der Computer keinen Willen, kein Selbst und keine Emotionen hat. (Und wenn wir ihm den Stecker ziehen, tangiert ihn das überhaupt nicht.) Und wenn er all das – Wille, Selbst, Gefühl – eines Tages simulieren könnte, hätte er es damit immer noch nicht.<br />
Man kann sich das an einem einfachen Beispiel klarmachen: Wir sagen, die Spülmaschine spült unser Geschirr. Die Wirklichkeit ist eine andere: wir positionieren schmutziges Geschirr in der Maschine, in der ein Programm abläuft, das warmes, mit Reinigungsmittel versetztes Wasser auf das schmutzige Geschirr treffen lässt. Wenn wir nach ein oder zwei Stunden die Teller aus der Maschine holen, sind sie meistens sauber – so als ob ein Mensch sie gespült hätte. Aber die Maschine hat genauso wenig gespült wie der Computer Schach gespielt hat und wie die KI einen alten Menschen pflegt. Und gerade da kommt es uns doch bestimmt auf die Wirklichkeit, und nicht auf die Simulation der liebevollen Zuwendung an!<br />
Entsprechend würden die vielen alten Menschen, deren Lebenssinn immerhin noch darin besteht, den Hund Gassi zu führen, sicher diesen Lebenssinn nicht darin finden können, einen Roboterhund auszuführen!</p>
]]></content:encoded>
		
			</item>
	</channel>
</rss>
