HumanITHesia im Stadtmuseum Tübingen

Unser Blogger Georg Ludwig Verhoeven berichtete im Stadtmuseum Tübingen von aktuellen Entwicklungen bei künstlicher Intelligenz und diskutierte mit dem Tübinger Publikum ethische Fragen. Die Veranstaltung fand im Rahmen der Ausstellung „Roboter“ statt, in der das Stadtmuseum sich mit der Automatisierung und Geschichte der Robotisierung auseinandersetzt.

Den Vortrag von Georg Ludwig Verhoeven können Sie hier herunterladen und anschauen: Vortrag_VhG[PDF]

 

 

Veröffentlicht in Uncategorized

Ethische Probleme bei automatischer Bilderkennung

Bilderkennung und Diskriminierung ist eines der Themen auf dem Kongress Ethik und KI in Tübingen. Michael Mörike hat sich die Kernfragen des Workshops schon einmal angeschaut.

Von Michael Mörike

Anfang September wurde bekannt, dass es Forschern an der Standford University in der USA gelungen ist, mit Hilfe von Künstlicher Intelligenz alleine aufgrund eines Fotos eines Menschen zu erkennen, welche sexuelle Orientierung dieser hat. Das klappt mit einer erstaunlich hohen Trefferquote von über 90% aufgrund eines einzigen Fotos des Gesichtes. Diese Arbeit war die Arbeit eines Studenten, der keine besonders hohen Finanzmittel zur Verfügung hatte.

Was geht denn da noch? Müssen wir Angst davor haben? Kann nun jeder am heimischen PC solche Erkenntnisse gewinnen?

KI ist im Zusammenspiel mit Bildern schon recht weit gediehen. Das liegt daran, wie KI lernt: Sie wird trainiert anhand von vielen Bildern, auf denen mit Hilfe von deep learning Muster erkannt und Begriffen zugeordnet werden. Dafür bekommt die KI viele Bilder vorgelegt, die von Menschen annotiert sind, die also von Menschen mit Begriffen beschrieben wurden, die zu den darauf sichtbaren Objekten passen. Im Fall der sexuellen Orientierung wurde die KI mit 39.000 Bildern trainiert, die im Internet frei verfügbar waren – Bilder von Menschen, deren sexuelle Orientierung bekannt war.

Und das sind nicht die einzigen Beispiele, in denen Bilder analysiert werden. Bilderkennung funktioniert bereits im Alltag . 10 Beispiele gefällig?

  1. Blumen, Pflanzen und Pilze bestimmen wir heute vollautomatisch per Smartphone-App; PlantVillage erkennt per Fotos Krankheiten bei Pflanzen.
  2. Fußabdrücke von Tieren im Wald kann man per Smartphone bestimmen.
  3. Nahrungsmittel auf dem Teller – dank der vielen Fotos von Mahlzeiten im Netz.
  4. Die ebay-Bildersuche erlaubt, im Netz per Foto ein Produkt zu suchen (und zu bestellen).
  5. SeeingAI sagt einem Blinden beim Gang durch die Stadt, was er da vor sich hat: einen Bekannten, ein falsch parkendes Auto, eine Apotheke, einen Bäcker, etc…
  6. Die „VIP-Kamera“ erkennt Prominente in Ladengeschäfte und macht das Personal darauf aufmerksam, damit sie bevorzugt bedienen können.
  7. Die Gesichtserkennung dient als Zugangsberechtigung (für Smartphone oder vertrauliche Daten) oder auch zur Alarmauslösung für die Personensuche an Berliner Plätzen.
  8. Schadensmeldungen von Unfällen werden heut teilweise vollautomatisch abgewickelt anhand von Smartphone-Fotos.
  9. In der Medizin werden bestimmte Krebsarten (Beispiel Kehlkopfkrebs) von KI anhand von Aufnahmen besser erkannt als von den meisten Ärzten.
  10. Per Kinect (einem Modul für die Gestensteuerung von Spielen) kann man Störungen von depressiv Kranken diagnostizieren.

Übrigens: Es gibt noch viel weitere Beispiele – schauen Sie mal bei heise online vorbei.

Immer, wenn dabei Menschen beurteilt werden, kommen ethische Probleme hoch:

  • Was, wenn die Erkennung von sexueller Orientierung von Diktaturen ausgenutzt werden, in denen dies verboten oder gar mit der Todesstrafe bestraft wird? Darauf warten wir aktuell.
  • Sollen wir wirklich alle an öffentlichen Plätzen überwacht werden, damit einige wenige Verbrecher identifiziert werden können. Schließlich wird abgespeichert, dass wir da waren.
  • Wenn Mitarbeiter mit Robotern zusammenarbeiten und dabei Kinect zur Robotersteuerung eingesetzt wird, wie wird dabei verhindert, ob gleichzeitig eine Erkennung von depressiven Störungen im Hintergrund mitläuft?
  • Bilder von Unfällen zeigen auch Menschen. Waren sie beteiligt? Wie können wir ihnen tatsächlich verzeihen, wenn die Bilder noch Jahrzehnte lang aufbewahrt werden (müssen).
  • Ist es gerechtfertigt, VIP’s in Läden eine Sonderbehandlung zukommen zu lassen –auch wenn diese sie gar nicht wollen?
  • Will ein Blinder wirklich alles wissen, was sich da in der Stadt tut?

Es lassen sich ohne große Mühe sehr viele weitere Beispiele ausdenken. Versuchen Sie es einmal selbst! Immer, wenn es im Internet Bilder gibt, die bereits entsprechend beschriftet sind – und davon gibt es bereits viele Milliarden – werden auch einige dabei sein, die Ihr Beispiel ermöglichen. Und dann brauchen Sie noch eine KI-Software. Die gibt es kostenlos bei Facebook oder Google. Dann müssen sie diese nur noch installieren und trainieren. Letzteres nimmt allerdings Zeit in Anspruch. Vielleicht dauert es eine paar Monate, aber damit haben Sie es dann auch geschafft. Aber: Die ethischen Probleme haben Sie damit nicht gelöst, sondern bestenfalls um ein weiteres ergänzt. Wollten Sie das? Zum Trost: Wenn Sie es nicht machen, machen es eben andere.

Diskutieren Sie mit uns die ethischen Fragen rund um das Thema Bilderkennung – auf dem Kongress Ethik und KI am 28. Oktober in Tübingen. Es gibt noch wenige Karten!

Veröffentlicht in Blog, KI Getagged mit: , , ,

Wer trägt die Verantwortung beim autonomen Fahren?

Wer haftet für den Schaden, oder gar die Verkehrsstraftat, den ein autonom fahrendes Fahrzeug anrichtet? Auf dem Kongress Ethik und KI in Tübingen diskutieren wir darüber.

von Georg-Ludwig Verhoeven

Bei „Herbie“ („Ein toller Käfer“, 1968) war es klar: Herbie (der berühmte Käfer mit der Startnummer 53), der nach und nach menschliche Züge entwickelt, fährt – und gewinnt – selbständig turbulente Autorennen, richtet aber auch hier und erheblichen Unfug an, und die finanziellen und rechtlichen Konsequenzen trägt Jim Douglas, sein Besitzer. Letztlich kassiert er das Preisgeld und kann seine Carole heiraten – ein Happy End à la Hollywood.

Was vor fast 50 Jahren im Film vor allem unterhaltsam war, bereitet heute Autoherstellern und -verkäufern, Verkehrsrechtlern und Versicherungen, aber auch den künftigen Käufern erhebliches Kopfzerbrechen: Wer haftet für den Schaden, oder gar die Verkehrsstraftat, den ein autonom fahrendes Fahrzeug anrichtet? Kann ein Auto „fahrlässig“ oder gar „schuldhaft“ handeln – ist es eine juristische Person? Wer trägt die Verantwortung, wenn das Fahrzeug im „automatisierten Modus“ fährt und etwas passiert?

Um es kurz zu machen – wir wissen es nicht. Der Gesetzgeber sieht aktuell die letzte Verantwortung beim Fahrer. Der Mensch darf zwar temporär dem Auto die Kontrolle übergeben, es muss aber immer möglich sein, dass der Mensch diese auch wieder übernimmt. Der Hersteller haftet nur, wenn er nicht alles Zumutbare getan hat, um Schäden zu vermeiden.

Um Schadens- und Streitfälle zu klären, ist eine intensive Aufzeichnung von Fahrtdaten erforderlich, vergleichbar der „Black Box“ in Flugzeugen. Davon erhofft sich der Gesetzgeber die Möglichkeit zu klären, ob die Technik, d. h. der Hersteller, oder der Fahrer die Schuld trägt.

Die Vision, dass die Familie in Urlaub fährt, und Mama / Papa den Sitz rumdrehen und mit den Kindern frühstücken und spielen, oder dass der Trucker seine Papierarbeit erledigt und sich bei Videospielen oder gar einem Nickerchen entspannt, scheint vor diesem Hintergrund wenig realistisch. Verkehrsrichter werden auf jeden Fall ein neues Betätigungsfeld finden, denn jeder Unfall und jeder ausgelöste Radarblitz kann aufwändige Untersuchungen nach sich ziehen.

Aber wer weiß, vielleicht überraschen uns ja die Autohersteller mit Ideen und Erfindungen, wenn sie herausfinden, dass sie mit solchen Systemen Geld verdienen können – und die Konkurrenz das vielleicht schon tut. Es bleibt spannend. Bei Herbie war es auf jeden Fall einfacher und unterhaltsamer. Hollywood eben.

Diskutieren Sie mit uns und Experten über die Frage der Verantwortung: Jetzt Ihre Karte für den Kongress „Ethik und KI“ am 28. Oktober in Tübingen sichern!

Veröffentlicht in Blog, Führung und Verantwortung, Gesundheit und Wohlbefinden, KI Getagged mit:

Kongress „Ethik und KI“ in Tübingen

Diskussion ethischer Herausforderungen durch Künstliche Intelligenz

Die Entwicklung künstlicher Intelligenz ist rasant und brisant zugleich: Algorithmen, die für uns entscheiden, und die Fähigkeiten von Maschinen, die uns Menschen bereits heute übertreffen, werfen viele ethische Fragen auf: Wie sollte sich ein autonomes Auto im Alltag verhalten? Welche Regeln gelten zukünftig für Roboter? Wie gefährlich ist die Entwicklung einer Superintelligenz?

Über diese Kernfragen der Digitalisierung diskutieren führende Köpfe aus Wissenschaft und Praxis auf dem diesjährigen HumanIThesia-Kongress am Samstag, den 28. Oktober, mit Vertretern von Wirtschaft und Zivilgesellschaft. Die Tagung wird gemeinsam von der Integrata-Stiftung, der Giordano-Bruno-Stiftung und dem Weltethos-Institut Tübingen veranstaltet.

In einführenden Vorträgen am Vormittag beleuchten Experten den aktuellen Stand der Entwicklung und erklären, warum ein breiter ethischer Diskurs dringend notwendig ist. In darauf folgenden Workshops werden verschiedene Themenfelder gemeinsam ethisch beleuchtet. In der abschließenden Podiumsdiskussion am Nachmittag steht die Frage im Mittelpunkt, wie das Thema in die Zivilgesellschaft getragen werden kann. Begleitend dazu sind in einer Ausstellung Firmen und Institutionen aus der Region eingeladen, ihre Projekte und Einstellung dazu vorzustellen.

Weitere Informationen zum Kongress finden Sie hier.

Veröffentlicht in Blog, KI Getagged mit: , , ,

Gefühle bei Robotern

Roboter haben keine Gefühle. Das hört man oft. Aber stimmt das auch?

Von Michael Mörike

Was ist hier gemeint mit „Gefühl“?

Es kann vorkommen, dass wir ein taubes Gefühl im Arm haben oder unsere Finger sind gefühllos. Die häufigste Erklärung ist, dass die Nerven-Leitung gestört ist. Hier ist mit Gefühl der haptische Tastsinn gemeint, manchmal auch noch der eine oder andere Sinn, z.B. die Wärmeempfindlichkeit. Klar: Moderne Roboter haben auch Sensoren, z.B. auch für Temperatur oder haptische Sensoren an ihren Greifwerkzeugen. Das ist also nicht gemeint.

Als Menschen treffen wir oft sogenannte Gefühlsentscheidungen – und liegen dabei oft durchaus richtig, auch wenn wir nicht nachvollziehen können, wie wir zu genau dieser Entscheidung gekommen sind. Genau das passiert (derzeit) in allen Robotern, die KI verwenden. Sie treffen ihre Entscheidungen aufgrund dessen, was sie gelernt haben. Beim Lernen wurden sie mit sehr vielen Beispielen „gefüttert“ und haben daraus Muster gebildet, die in den Gewichten in ihren Neuronalen Netzen repräsentiert sind. Danach kann im Allgemeinen niemand mehr im Detail nachvollziehen, wieso sie zu der jeweiligen Entscheidung gekommen sind. Ich finde schon, dass das große Ähnlichkeit hat mit unseren menschlichen Gefühlsentscheidungen.

Im unserem menschlichen Leben machen wir ein Auf und Ab von Gefühlen durch: Wir sind vielleicht verliebt oder trauern um einen lieben Menschen. Wir können Freude, Leid, Neid, Wut und weitere Gefühle entwickeln und sie bewusst empfinden. Derzeit können Roboter das nicht. Man kann Robotern beibringen, so zu tun, als ob sie z.B. eifersüchtig wären. Vielleicht kann man sie auch dazu bringen zu sagen, jetzt bin ich eifersüchtig. Sie sind aber nicht wirklich eifersüchtig und sie haben schon gar kein Bewusstsein dessen. In diesem Sinne haben Roboter – Stand heute – kein Gefühl. Ob sie es jemals haben werden, ist Gegenstand des wissenschaftlichen Diskurses.

Gefühle in diesem Sinne können auch als Erregungszustände bezeichnet werden und bezeichnen den einen oder anderen Arbeitsmodus unseres Hirns und Nervensystems. Auch Roboter können eventuell in besondere Arbeitszustände geschaltet werden, z.B. Notfall-Modus, wenn die Rechenleistung nicht ausreicht, alle aktuellen Situationen gleichzeitig vollständig durchzurechnen. Berühmtes Beispiel: Landung der ersten Apollofähre auf dem Mond. Als Mensch würden wir den Zustand als Panik empfinden. Als Mensch können wir uns in dieser Situation selbst beobachten und darüber nachdenken – vielleicht nicht in der Situation selbst, aber auf jeden Fall danach. Ob das ein Roboter kann? Kann man einer KI in einem Roboter beibringen, diese Situation nachträglich zu „durchdenken“ und daraus zu lernen? Letzteres auf jeden Fall! Hat die KI dann Bewusstsein? Hat sie nicht Bewusstsein, wenn sie ihre Arbeitsmodi nachträglich selbst analysieren und daraus lernen kann?

Was machen wir als Menschen denn anderes?

Veröffentlicht in Blog, KI Getagged mit: , , ,