Die Diskussion, ob man Ethik in KI einbauen kann, geht weiter. Heute hat wieder Michael Mörike das Wort, der einige interessante neue Aspekte vorbringt. Ja – ich meine, das geht. Ich meine auch, wir haben keine Zeit zu verlieren. Allerdings gebe ich den beiden anderen Diskutanten (Karsten Weber und Georg Ludwig Verhoeven) durchaus auch recht. Wie reimt sich das zusammen?

Künstliche Intelligenz europäisch entwickeln und zum Wohl von Gesellschaft und Umwelt gestalten: Wir brauchen KI, die auf der Grundlage europäischer Werte in Europa erforscht und entwickelt wird. Doch in Deutschland fehlt die Strategie. Ein Debattenbeitrag zum Stuttgarter Zukunftssymposium Ethik und KI. von Dr. Anna Christmann, MdB Künstliche Intelligenz (KI), maschinelles Lernen und autonome Systeme werden unsere Welt in den nächsten Jahren grundlegend verändern. Als Grüne wollen wir die Kraft dieser Veränderungen vor allem auch für die sozialökologische Modernisierung von Wirtschaft, Wissenschaft und Gesellschaft nutzen. Damit das gelingt, müssen Deutschland und Europa KI selbstbestimmt erforschen, entwickeln und einsetzen können. Denn nur wer KI in all ihren Facetten versteht, kann sie auch nach den eigenen gesellschaftlichen, politischen und ethischen Vorgaben souverän gestalten. 

Vor zwei Wochen stritten unsere Blogger Michael Mörike und Georg Ludwig Verhoeven darüber, ob Maschinen und Roboter Ethik lernen können. Heute antwortet Prof. Dr. Karsten Weber, Ko-Leiter des Instituts für Sozialforschung und Technikfolgenabschätzung an der OTH Regensburg. Von Prof. Dr. Karsten Weber In seinem Maßstäbe setzenden Aufsatz „Computing Machinery and Intelligence“ aus dem Jahr 1950 schlug der britische Mathematiker Alan M. Turing einen Test vor, mit dessen Hilfe entschieden werden könne, ob eine Maschine intelligent sei bzw. denken würde – allerdings muss das Wort „denken“ in diesem Kontext in Anführungszeichen gesetzt werden. Die Idee Turings ist so einfach wie genial: Gelänge es einer Maschine in diesem Test nicht als Maschine identifiziert, sondern für einen Mensch gehalten zu werden, so hätte diese Maschine den Turing-Test bestanden: Die Maschine wäre „intelligent“ oder „denkt“. „Denken“ heißt im Kontext des Tests bestimmte kommunikative Fähigkeiten zu besitzen, ohne dass damit bereits unterstellt werden würde, …

Pro und Contra: Kann man Maschinen und Robotern Ethik beibringen? (3) – von Prof. Dr. Karsten Weber Read more »

Gelöste und ungelöste Rechtsfragen des Autonomen Fahrens. Ein Gastbeitrag von Nicolas Woltmann Die Entwicklung neuer Technologien ist ein Balanceakt: Die bestmögliche Realisierung ihres Nutzens muss in einen Ausgleich gebracht werden mit ihren Risiken. Der Weg bis zu ihrer Einführung kann sich anschließend jedoch als noch weitaus steiniger erweisen. Meint der Entwickler ein angemessenes Verhältnis zwischen Positiv- und Negativfolgen hergestellt zu haben, so muss er nun auch genügend Andere hiervon überzeugen. Dabei kann ihm bisweilen heftiger Gegenwind aus deren Richtung entgegenschlagen. Aus dem Stimmengewirr jener Skeptiker und Mahner stechen scheinbar die Juristen, denen diese Eigenschaft gerne als berufsbedingt unterstellt wird, besonders hervor. Ein anderes Verständnis von Juristerei lässt sich jedoch mittlerweile an zahlreichen fachübergreifenden Forschungskooperationen zum Thema Künstliche Intelligenz beobachten. Unter Beteiligung von Rechtswissenschaftlern (v.a. aus dem universitären Bereich) werden hier die Chancen und Probleme des digitalen Wandels ergebnisoffen diskutiert und zu Handlungsempfehlungen an Entwickler, Hersteller, Politiker und Nutzer …

Regulierung braucht das Land Read more »

Die Entwicklung künstlicher Intelligenz ist rasant und brisant zugleich – denn sie wirft zahlreiche ethische Fragen auf: Welche Regeln gelten zukünftig für Roboter? Wie entwickelt sich die Arbeitswelt 4.0? Wie viel Autonomie wollen wir für Maschinen? Über diese und andere Kernfragen der Digitalisierung diskutieren führende Köpfe aus Wissenschaft, Wirtschaft, Politik und Zivilgesellschaft unter dem Motto „Mensch bleiben im Maschinenraum“ am 23. und 24. November 2018 in Stuttgart. Prof. Dr. Dr. Eric Hilgendorf lotet den schmalen Grat zwischen ethischen Bedenken und rechtlichen Fragen aus: Als Mitglied der Ethikkommission für automatisiertes Fahren berichtet er von den juristisch-ethischen Grenzen autonomer Autos. Constanze Kurz, Sprecherin des Chaos Computer Clubs und mehrfach ausgezeichnete Autorin, lotet in Ihrem Vortrag Sicherheitslücken neuer Technologien aus. Prof. Dr. Stefan Heinemann, Leiter der Forschungsgruppe „Ethik der Gesundheitswirtschaft & Medizinethik“ im ifgs Institut für Gesundheit & Soziales, definiert die Chancen und Möglichkeiten von Künstlicher Intelligenz im Bereich der Medizin. …

Stuttgarter Zukunftssymposium 2018 Ethik und KI Read more »