Die HumanIThesia-Blogger Michael Mörike und Georg Ludwig Verhoeven streiten über die Frage, ob Maschinen und Roboter eines Tages auch Ethik lernen können. In der vergangenen Woche sagte Michael Mörike ja, heute sagt Georg Ludwig Verhoeven nein. Von Georg Ludwig Verhoeven Menschen sollen „moralisch“ handeln. Das bedeutet, sie haben gewisse Maximen akzeptiert und richten ihr Handeln danach aus. Offensichtlich ist das aber nicht so einfach wie es klingt, denn es gibt viele Situationen, in denen ein Mensch in einer Weise handeln, die er selbst „moralisch“, andere aber „umoralisch“ finden. Aber können Maschinen auch „moralisch“ handeln? Fest steht: Ihre Leistungsfähigkeit wächst exponentiell – da müsste doch irgendwann genug Leistung zusammenkommen, um neben komplexen Algorithmen auch moralische Aspekte in den Systemen unterzubringen! Aber: Ich glaube nicht, dass das möglich sein wird – nicht aus technischen oder moralischen Gründen, sondern aus logischen und praktischen. Das will ich im Folgenden begründen. I Welche …

Pro und Contra: Kann man Maschinen und Robotern Ethik beibringen? (2) Read more »

Die HumanIThesia-Blogger Michael Mörike und Georg-Ludwig Verhoeven streiten über die Frage, ob Maschinen und Roboter eines Tages auch Ethik lernen können. In dieser Woche sagt Michael Mörike ja, in der kommenden Woche sagt Georg Ludwig-Verhoeven nein. Von Michael Mörike Es ist unstrittig, dass schon in naher Zukunft mehr und mehr Roboter und Maschinen mehr oder weniger autonome Entscheidungen treffen und daraus entsprechende Handlungen ableiten werden. Diese Entscheidungen treffen sie aufgrund dessen, was sie gelernt haben. Sie haben dazu viele Sensoren: Beim autonomen Auto sind dies zum Beispiel Kamera, Mikrofon, Abstandsradar, GPS, Tacho, Sensor für Querkräfte, Helligkeit, Belastung, Tankfüllstand und viele andere mehr. Die Sensoren übermitteln die Eingabedaten für die eingebaute KI. Als Ausgabe gibt die KI Anweisungen an die Aktoren – beim autonomen Auto sind dies dann zum Beispiel Bremse, Gas, Lenkrad, Lichtschalter, Blinker, Hupe, Scheibenwischer, Klimaanlage und so weiter. Die KI in Mitten dieser Sensoren hat gelernt, …

Pro und Contra: Kann man Maschinen und Robotern Ethik beibringen? Read more »

Wie KI in der Suizidprävention helfen kann. Ein Gastbeitrag von Astrid Fischer Was für eine seltsame Vorstellung, dass künstliche Intelligenz uns Menschen dabei helfen soll, den Weg zurück ins Leben zu finden. Die Rede ist von Suizidprävention mittels Facebook, Google und Co. und es zeigt sich bei näherer Betrachtung, dass lange nicht alle Ideen ethisch schlecht sein müssen und dass manche Überlegungen große Potenziale mit sich bringen. Tatsächlich arbeiten die Riesen aus Silicon Valley schon seit einer Weile an digitaler Unterstützung in der Suizidprävention. So gab Facebook im Herbst 2017 den amerikanischen Rollout eines Algorithmus bekannt, der in der Lage ist, die Stimmung eines Menschen anhand seiner geposteten Fotos und Texte einzuschätzen. Hat der Algorithmus eine Person als vermeintlich suizidal erkannt, wird ein Hinweis auf Hilfsangebote ausgespielt. Laut einem Bericht von CNBC hat Facebook seit dem Start des Algorithmus‘ diesen Hinweis doppelt so häufig ausgegeben, als zuvor. Was …

Alexa, zeige mir den Weg zurück ins Leben! Read more »

Künstliche Intelligenz wird heute bereits von Herstellern zum Download angeboten. Und niemand weiß, wie diese Systeme tatsächlich lernen. von Georg-Ludwig Verhoeven Im oft hochgesicherten „Giftschrank“ werden üblicherweise Gegenstände aufbewahrt, von denen eine Bedrohung ausgeht, wenn sie in die falschen Hände geraten. Gifte, die in der richtigen Dosis heilen, in der falschen töten, aber auch andere gefährliche Substanzen und Gegenstände wie Viren, radioaktive Präparate oder Bücher und Dokumente, die einem bestimmten Personenkreis gefährlich werden können, wenn sie an die Öffentlichkeit geraten. Nur mit besonderer Qualifikation, oft mit behördlicher Genehmigung und nach ausgiebiger Überprüfung, hat man Zugang zu den Inhalten des Giftschranks. Wenn wir heute lesen, was KI alles anrichten kann, wenn sie „freigelassen“ wird, dann läuft uns ein Schauer über den Rücken: KI steuert Autos, die im Zweifelsfall selbständig entscheiden, wer bei einem Unfall getötet wird; KI wertet Personalakten aus, die über den Arbeitsvertrag und damit die Zukunft eines …

Welche KI muss in den Giftschrank? Read more »

KI zählt zu den zentralen Zukunftsthemen. Die technologischen Entwicklungen haben in den letzten Jahren rasant an Fahrt aufgenommen und nehmen Einfluss auf immer mehr Lebensbereiche. Die scheinbar unbegrenzten neuen Möglichkeiten werden dabei auch begleitet von technischen, sozialen, rechtlichen und nicht zuletzt ethischen Herausforderungen. Diese Dimensionen wird der Verband bwcon nun mit der Integrata-Stiftung in einer neuen „Special Interest Group Künstliche Intelligenz“ thematisieren. Gerade im Südwesten gibt es zahlreiche Unternehmen, die sich mit Möglichkeiten der KI beschäftigen oder diese bereits einsetzen. Die SIG KI möchte den institutionellen Austausch im Rahmen der bwcon zwischen Unternehmensvertretern verschiedener Branchen ermöglichen und fördern. Für Mitglieder der bwcon ist die Veranstaltung kostenfrei. Weiterführende Links Neue Special Interest Group KI in Stuttgart Veranstaltung auf Facebook