Wir sollten die ethischen Fragen des autonomen Fahrens nicht an Extrembeispielen diskutieren – sondern nah am Alltag. Von Georg-Ludwig Verhoeven Wenn es um die Ethik autonomer (bzw. automatisch fahrender) Fahrzeuge geht (im Folgenden auch AutoAuto genannt), werden oft dramatisch-dilemmatische Situationen diskutiert, in denen das AutoAuto abwägen muss, ob es den Rentner, das Kind oder die Insassen des Fahrzeuges gefährdet oder tötet. Solcher Szenarien eignen sich hervorragend für medienwirksame Veranstaltungen und Veröffentlichungen, wie zuletzt den Bericht der Ethikkomission „Automatisches Fahren und Vernetzung“. Und das selbst dann, wenn keine praktikable Lösung gibt, sondern nur abstrakte Denkansätze dargestellt und dikutiert werden. Auf der anderen Seite kommen solche Szenarien – glücklicherweise – im Alltag höchst selten vor. Ganz anders ist es mit dem Alltag. Wie sieht die „Ethik“ des AutoAuto im Alltag aus? Hält es die StVO ein – streng oder großzügig? Agiert es wie der real existente Autofahrer, der Geschwindigkeitsbegrenzungen „weitgehend“ …

Die Ethik autonomer Fahrzeug im Alltag Read more »

Haushaltsroboter unterstützen uns bald bei der täglichen Arbeit. Dafür brauchen sie Regeln. Aber welche? Diskutieren Sie mit uns! Von Michael Mörike Am Institut for Artificial Intelligence in Bremen werden momentan humanoide Roboter entwickelt, die kochen können. Noch ist es viel, was sie lernen müssen: Backen, Pizza zubereiten, Popcorn herstellen, Kaffee servieren, Tisch decken. Aber die Entwicklung und der Lernprozess dieser Haushaltsroboter geht mit großen Schritten voran: Wenn einer von ihnen etwas gelernt hat, können es im Handumdrehen auch die anderen, denn das Wissen und das Können wird einfach vom einen Roboter auf den anderen kopiert. Sobald die einfachen Handgriffe bei den blechernen Haushaltshilfen klappen, können sie lernen, ein 3-Sterne-Menü zuzubereiten und zu servieren. Doch nicht nur in Bremen arbeitet man an solchen Robotern. Der Markt ist riesig, zumal in vielen Haushalten täglich gekocht wird. Wenn Haushaltsroboter für jeden Einzelnen erschwinglich werden, werden in vielen Küchen bald nicht mehr …

Welche Regeln sollten für Roboter gelten? Read more »

Kritische Anmerkungen zu einem aktuellen Interview mit dem Leiter des Deutschen Forschungszentrums für Künstliche Intelligenz, Wolfgang Wahlster von Michael Mörike In der neuesten Ausgabe von „brand eins wissen“ ist ein großes Interview mit Wolfgang Wahlster, Leiter des deutschen Forschungszentrums für künstliche Intelligenz, abgedruckt. Seine Aussagen zur Gefahren der Künstlichen Intelligenz verdienen Widerspruch. Wolfgang Wahlster sagt im Interview unter dem Titel „Abstand halten“, dass KI nicht so schlimm sei, wie sie von anderen dargestellt würde: „Das ist diese Idee der Super-Intelligenz, die eines Tages in jeder Hinsicht intelligenter ist, als der Mensch, sodass sie die Kontrolle und die Macht an sich reißt.  Aber das ist Unsinn.“ Er begründet seine These mit vielen Beispielen, die zeigen, welche Fähigkeiten Künstliche Intelligenz heute noch nicht hat. Wahlster sagt zum Beispiel, dass künstliche Intelligenz heute noch keine sensomotorischen Fertigkeiten wie ein Mensch besitzt: „Wir brauchen zum Beispiel sensomotorische Fähigkeiten – und keine Roboterhand …

Gefahren der KI: Wenn er sie nicht nennen kann, wer dann? Read more »

Der Begriff Künstliche Intelligenz ist aktuell in Mode. Aber halten die Produkte, die mit KI arbeiten, was sie versprechen bzw. was wir von ihnen erwarten? Die Antwort kann nur ein klares „Jein“ bzw. „kommt drauf an“ sein. Von Georg-Ludwig Verhoeven Wir empfinden unsere Navigationssystem im Auto als „intelligent“: Nicht nur schlägt es uns eine optimale Fahrtroute vor, sondern es nennt uns auch die voraussichtliche Ankunftszeit, informiert uns, wenn es Störungen auf dem Weg gibt und schlägt eine Alternativroute vor. Doch nicht nur das: Es nennt uns wichtige Punkte am Weg, Tankstellen, Radarkontrollen und vieles mehr. Aber ist das Navigationssystem deswegen „intelligent“? Das ist Definitionssache. Gängige Definitionen von „Intelligenz“ beinhalten immer das Lernen aus gemachten guten oder schlechten Erfahrungen. In dem Sinne ist das Navigationssystem nicht „intelligent“, denn es lernt nicht dazu aus Erfahrungen, ist aber sehr schnell, fleißig, präzise und zuverlässig beim Auswerten der riesigen und ständig aktualisierten …

Warum nicht alles intelligent ist, was sich intelligent nennt Read more »

Ob im Focus, der FAZ oder in der Zeit: Wissenschaftler, Philosophen und Naturwissenschaftler überschlagen sich darin, die Gefahren künstlicher Intelligenz aufzuzählen. Aber stimmt das? von Georg-Ludwig Verhoeven Gemäß „Moore’s Law“ verdoppelt sich die Komplexität integrierter Schaltkreise etwa alle zwei Jahre, und damit die Komplexität der Aufgaben, die sie bearbeiten können. Das gilt auch für Systeme mit Künstlicher Intelligenz – und wird Folgen haben. Ein zufälliger Blick in den medialen Blätterwald zeigt die Mannigfaltigkeit, mit der vor allem mit Sorge auf die Zukunft geschaut wird. Durch die Fortschritte bei künstlicher Intelligenz •    fahren unsere Autos bald autonom, wodurch es weniger oder gar keine Unfälle mehr gibt. Aber was wird aus den Taxi- und LKW-Fahrern, die diese Aufgaben bisher übernehmen? •    werden kranke und pflegebedürftige Menschen bald durch Roboter gepflegt, die 24 Stunden an sieben Tagen in der Woche arbeiten können. Aber was machen die Pflegekräfte dann? •    sind Computer …

Läutet Künstliche Intelligenz das Ende der Spezies Mensch ein? Read more »