Vor zwei Wochen stritten unsere Blogger Michael Mörike und Georg Ludwig Verhoeven darüber, ob Maschinen und Roboter Ethik lernen können. Heute antwortet Prof. Dr. Karsten Weber, Ko-Leiter des Instituts für Sozialforschung und Technikfolgenabschätzung an der OTH Regensburg. Von Prof. Dr. Karsten Weber In seinem Maßstäbe setzenden Aufsatz „Computing Machinery and Intelligence“ aus dem Jahr 1950 schlug der britische Mathematiker Alan M. Turing einen Test vor, mit dessen Hilfe entschieden werden könne, ob eine Maschine intelligent sei bzw. denken würde – allerdings muss das Wort „denken“ in diesem Kontext in Anführungszeichen gesetzt werden. Die Idee Turings ist so einfach wie genial: Gelänge es einer Maschine in diesem Test nicht als Maschine identifiziert, sondern für einen Mensch gehalten zu werden, so hätte diese Maschine den Turing-Test bestanden: Die Maschine wäre „intelligent“ oder „denkt“. „Denken“ heißt im Kontext des Tests bestimmte kommunikative Fähigkeiten zu besitzen, ohne dass damit bereits unterstellt werden würde, …

Pro und Contra: Kann man Maschinen und Robotern Ethik beibringen? (3) – von Prof. Dr. Karsten Weber Read more »

Die HumanIThesia-Blogger Michael Mörike und Georg Ludwig Verhoeven streiten über die Frage, ob Maschinen und Roboter eines Tages auch Ethik lernen können. In der vergangenen Woche sagte Michael Mörike ja, heute sagt Georg Ludwig Verhoeven nein. Von Georg Ludwig Verhoeven Menschen sollen „moralisch“ handeln. Das bedeutet, sie haben gewisse Maximen akzeptiert und richten ihr Handeln danach aus. Offensichtlich ist das aber nicht so einfach wie es klingt, denn es gibt viele Situationen, in denen ein Mensch in einer Weise handeln, die er selbst „moralisch“, andere aber „umoralisch“ finden. Aber können Maschinen auch „moralisch“ handeln? Fest steht: Ihre Leistungsfähigkeit wächst exponentiell – da müsste doch irgendwann genug Leistung zusammenkommen, um neben komplexen Algorithmen auch moralische Aspekte in den Systemen unterzubringen! Aber: Ich glaube nicht, dass das möglich sein wird – nicht aus technischen oder moralischen Gründen, sondern aus logischen und praktischen. Das will ich im Folgenden begründen. I Welche …

Pro und Contra: Kann man Maschinen und Robotern Ethik beibringen? (2) Read more »

Die HumanIThesia-Blogger Michael Mörike und Georg-Ludwig Verhoeven streiten über die Frage, ob Maschinen und Roboter eines Tages auch Ethik lernen können. In dieser Woche sagt Michael Mörike ja, in der kommenden Woche sagt Georg Ludwig-Verhoeven nein. Von Michael Mörike Es ist unstrittig, dass schon in naher Zukunft mehr und mehr Roboter und Maschinen mehr oder weniger autonome Entscheidungen treffen und daraus entsprechende Handlungen ableiten werden. Diese Entscheidungen treffen sie aufgrund dessen, was sie gelernt haben. Sie haben dazu viele Sensoren: Beim autonomen Auto sind dies zum Beispiel Kamera, Mikrofon, Abstandsradar, GPS, Tacho, Sensor für Querkräfte, Helligkeit, Belastung, Tankfüllstand und viele andere mehr. Die Sensoren übermitteln die Eingabedaten für die eingebaute KI. Als Ausgabe gibt die KI Anweisungen an die Aktoren – beim autonomen Auto sind dies dann zum Beispiel Bremse, Gas, Lenkrad, Lichtschalter, Blinker, Hupe, Scheibenwischer, Klimaanlage und so weiter. Die KI in Mitten dieser Sensoren hat gelernt, …

Pro und Contra: Kann man Maschinen und Robotern Ethik beibringen? Read more »

Künstliche Intelligenz wird heute bereits von Herstellern zum Download angeboten. Und niemand weiß, wie diese Systeme tatsächlich lernen. von Georg-Ludwig Verhoeven Im oft hochgesicherten „Giftschrank“ werden üblicherweise Gegenstände aufbewahrt, von denen eine Bedrohung ausgeht, wenn sie in die falschen Hände geraten. Gifte, die in der richtigen Dosis heilen, in der falschen töten, aber auch andere gefährliche Substanzen und Gegenstände wie Viren, radioaktive Präparate oder Bücher und Dokumente, die einem bestimmten Personenkreis gefährlich werden können, wenn sie an die Öffentlichkeit geraten. Nur mit besonderer Qualifikation, oft mit behördlicher Genehmigung und nach ausgiebiger Überprüfung, hat man Zugang zu den Inhalten des Giftschranks. Wenn wir heute lesen, was KI alles anrichten kann, wenn sie „freigelassen“ wird, dann läuft uns ein Schauer über den Rücken: KI steuert Autos, die im Zweifelsfall selbständig entscheiden, wer bei einem Unfall getötet wird; KI wertet Personalakten aus, die über den Arbeitsvertrag und damit die Zukunft eines …

Welche KI muss in den Giftschrank? Read more »

KI zählt zu den zentralen Zukunftsthemen. Die technologischen Entwicklungen haben in den letzten Jahren rasant an Fahrt aufgenommen und nehmen Einfluss auf immer mehr Lebensbereiche. Die scheinbar unbegrenzten neuen Möglichkeiten werden dabei auch begleitet von technischen, sozialen, rechtlichen und nicht zuletzt ethischen Herausforderungen. Diese Dimensionen wird der Verband bwcon nun mit der Integrata-Stiftung in einer neuen „Special Interest Group Künstliche Intelligenz“ thematisieren. Gerade im Südwesten gibt es zahlreiche Unternehmen, die sich mit Möglichkeiten der KI beschäftigen oder diese bereits einsetzen. Die SIG KI möchte den institutionellen Austausch im Rahmen der bwcon zwischen Unternehmensvertretern verschiedener Branchen ermöglichen und fördern. Für Mitglieder der bwcon ist die Veranstaltung kostenfrei. Weiterführende Links Neue Special Interest Group KI in Stuttgart Veranstaltung auf Facebook