Qualitätssiegel Humane IT: Wer ein Interesse hat und wer nicht

Die Tübinger Integrata-Stiftung plant ein Qualitätssiegel für den humanen Einsatz der IT. Doch die aktuellen Entwicklungen werfen neue Fragen an dieses Siegel auf.

Von Egon Scherer

Die chinesische Regierung plant bis zum Jahr 2020 das „System für Soziale Vertrauenswürdigkeit“. Das Ziel: „Die Vertrauenswürdigen sollen frei unter dem Himmel umherschweifen können, den Vertrauensbrechern aber soll kein einziger Schritt mehr möglich sein“. Ein System mit einem allwissenden und allsehenden digitalen Mechanismus, der mehr weiß über die Bürger, als sie selbst.

Realisiert wird dieses System mittels einer App und Big Data, natürlich nach den Vorstellungen der Partei. Eine digitale Diktatur? Schrecklich dieser inhumane Einsatz der IT, werden wir in Deutschland sagen, aber wie weit sind wir eigentlich davon entfernt oder sind wir sogar schon weiter? Die chinesische Regierung kann derzeit noch weitestgehend ungestört, da ohne spürbare Opposition, über ihre digitalen Pläne und Ziele kommunizieren. Sicherlich ist man auch überzeugt, dass dies alles zum Wohle des Menschen, also human, ist.

Für das angestrebte „Qualitätssiegel Humane IT“ der Integrata-Stiftung ergeben sich nicht nur unter diesem Aspekt für mich einige grundlegende Fragen:

  • Für welches Staatgebiet bzw. welchen Wirtschaftsraum soll dieses Gütesiegel gelten? Deutschland, EU?
  • Wird dieses Gütesiegel im Kontext einer offenen demokratischen Gesellschaft definiert werden?
  • Wer hat daran tatsächlich ein nachhaltiges Interesse?

Die Regierungen und Wirtschaftskonzerne von Staaten wie China, Saudi-Arabien, Polen, Ungarn, Russland, Türkei und – vermutlich muss ich auch die USA nennen – haben kein Interesse an einem funktionierenden Rechtsstaat und an einer offenen Gesellschaft, wie viele das in Deutschland und in einigen EU-Ländern anstreben. Ein Gütesiegel für Softwareprodukte und „digitale Produkte“ (IOTs) ist in diesen Ländern vermutlich nicht gewollt und wird deshalb nicht akzeptiert werden. Wie groß ist dann tatsächlich das Interesse von global agierenden deutschen Konzernen?

Fakt ist: Immer mehr Menschen sind mit dem Umgang ihrer persönlichen Daten nicht mehr einverstanden, die Akzeptanz für humane IT-Produkte wird in den nächsten Jahren steigen. Aus meiner Sicht könnte dies eine Chance für mittelständische Unternehmen mit „lokalem Vertriebsgebiet“ sein, sich zu differenzieren und eine nachhaltige Akzeptanz bei den Kunden erreichen. Wenn wir es ernst meinen mit Menschen- und Bürgerrechten ist ein humaner Einsatz von IT zwingend notwendig, wird aber auf erheblichen Widerstand in Teilen der Wirtschaft und Politik stoßen. Diesen Widerstand müssen wir aber akzeptieren und als Herausforderung annehmen. Hierzu ist es notwendig, die humanen Grenzwerte für die IT-Systeme zu definieren, um dann beurteilen zu können, ob etwas tolerabel ist oder nicht.

Aus meiner Sicht haben wir in vielen Bereichen der Politik eine starke Tendenz zur Generalüberwachung, die ganz elementar mittels IT realisiert wird. Diese Überwachung muss im Kontext einer offenen Gesellschaft, der Menschen- und Bürgerrechte analysiert werden, diese Ergebnisse können dann zur Definition von ersten Grenzwerten dienen. Ganz generelle Aspekte zur Definition von Grenzwerten sind sicherlich sinnvoll und erforderlich, müssen jedoch praxisnah und in gewisser Weise messbar sein.

Das Ignorieren von negativen wirtschaftlichen Entwicklungen, wie geplante Obsoleszenz, die Generierung von Bedürfnissen und damit verbundenem massivem Ressourcenverbrauch, die durch Einsatz von IT befördert wird, ist schon sehr weit fortgeschritten, es wird allerhöchste Zeit hier gegenzusteuern.

 

Veröffentlicht in Beitragstyp, Blog, Qualitätssiegel

Eine Ethik für die Welt von morgen

Wir hören gerade bei WDR 2 Berichte über die Welt von morgen. Und wir freuen uns sehr über die neuen Möglichkeiten der Mobilität, die digitalen Chancen und nicht zuletzt auch die Fortschritte in der Medizin.

Allein: Es wäre schön, wenn sich die Welt von morgen schon heute Gedanken über die ethischen Konsequenzen machen würde: Was bringt uns die Entwicklung der Künstlichen Intelligenz? Wie lange sind Roboter noch Gehilfen? Nach welchen Vorschriften sollen autonome Systeme eigentlich reagieren?

Wir reden über die vielen Start-Ups im Silicon Valley oder die neuen Lautsprecher von Google und Amazon, aber wir denken nicht an die Konsequenzen: Wie weit dürfen wir Alexa eigentlich unser Leben anvertrauen? Welche Daten dürfen wir eigentlich wo verwenden? Und was ist dran am Gedanken, dass Künstliche Intelligenz immer mehr zur Superintelligenz wird?

Wir bei Humanithesia wollen darüber diskutieren. Hier auf Facebook. In unserem Blog. Auf dem ersten Humanithesia Kongress mit der Giordano Bruno Stiftung und dem Weltethos-Institut. Und da draussen im realen Leben.

Diskutieren Sie mit uns heute schon – für die Welt von morgen.

Veröffentlicht in Uncategorized

Ethikkommission zum autonomen Fahren: Ein erster, kleiner Schritt

Sicher wäre es unrealistisch, nach neun Monaten bereits konkrete und anwendbare Richtlinien zu erwarten. Dennoch stellt der Bericht der Ethik-Kommission zum automatisierten und vernetzten Fahren eine massive Enttäuschung dar.

Von Georg Ludwig Verhoeven

Die 20 „Ethischen Regeln“, die dem Bericht vorangestellt werden, formulieren Selbstverständlichkeiten, zumindest aber berechtigte Erwartungen an verantwortungsvolles politisches und technisches Handeln. Auffällig ist, dass sich die Kommission sehr stark auf eine reine Autoverkehrssituation konzentriert – andere werden als „schwächere Verkehrsteilnehmer / Vulnerable Road Users“ am Rande erwähnt, spielen aber ansonsten in der Betrachtung kaum eine Rolle. Dabei nimmt deren Anteil am Straßenverkehr kontinuierlich zu.

Die Betrachtung beschäftigt sich intensiv mit dramatischen, „dilemmatischen“ Situationen, in dem das automatisierte System sich zum Beispiel zwischen mehreren Alternativen entscheiden muss, die beide Menschenleben kosten können. Hier wird dargestellt, was das System NICHT tun darf: Eine zentrale Regel lautet zum Beispiel: „Eine Aufrechnung von Opfern ist untersagt.“ Gleichzeitig aber kann „eine Minderung der Zahl von Personenschäden vertretbar sein“ – wie soll das ohne „Aufrechnung“ gehen?

Noch weiter geht die Kommission mit der Aussage, dass gewisse Situationen „nicht eindeutig normierbar und auch nicht ethisch zweifelsfrei programmierbar“ sind. Darf man Entscheidungen in solchen Situationen dann automatischen Systemen überlassen? Hängt das Leben der Betroffenen von der Tagesform des Entwicklers ab?

Wo bleibt die Betrachtung der Alltagssituationen?

Weitgehend außer acht bleiben Alltagssituationen, in denen heute Verkehrsteilnehmer im Sinne eines zügigen Vorwärtskommens regelmäßig gegen die StVO verstoßen – hohe Geschwindigkeiten in Ortschaften, enges Überholen von Radfahrern, Blockierung von Kreuzungen und vieles mehr. Eine Minimalforderung an autonome Fahrzeuge muss sein, dass sie die StVO einhalten, z. B. den §3 „Geschwindigkeit“. Schon bei Einhaltung dieses Paragrafen sind viele der „dilemmatischen“ Situationen gar nicht möglich, denn man kann ja „innerhalb der übersehbaren Strecke“ halten. Allerdings würde es dann deutlich langsamer zugehen auf den Straßen.

Im Absatz „Overruling“ wird schließlich ein Hintertürchen geöffnet, das die Dimension eines Scheunentors hat: „Ausdruck der Autonomie des Menschen ist es (…) objektiv unvernünftige Entscheidungen zu treffen (…)“: Weiter schreibt die Kommission: „Es besteht keine ethische Regel, die Sicherheit immer vor Freiheit setzt.“ Das klingt gewaltig nach „freie Fahrt für freie Bürger“.

Welche Aspekte haben auf der Straße Priorität?

Wenn die „Richtlinien“, von denen hier die Rede ist, genauso systematisch und konsequent umgesetzt und geprüft werden wie in der Vergangenheit die Abgase von Dieselmotoren, dann werden die autonomen und intelligenten Systeme sehr schnell merken, dass sie gerade auf dem Prüfstand stehen und „brav“ sein müssen. Auf der Straße haben dann andere Aspekte Priorität.

Vielleicht hilft der Bericht dem Philosophen, dem Juristen, dem Politiker; den für die Entwicklung der Systeme Verantwortlichen hilft er sicher nicht. Wie soll der Systemarchitekt die Entscheidungslogik aufbauen, wie soll der Systementwickler sie implementieren?

Ohne Zweifel spricht der Bericht wichtige theoretische Aspekte der Problematik an, wenn auch in einer für Laien oft schwer verständlichen Sprache. Aber auf dem Weg zu einer praxistauglichen Umsetzung ist er nur ein allererster, kleiner Schritt, dem noch viel konkrete Detailarbeit in Philosophie / Theologie, Politik, Rechtswesen, vor allem aber in der Technologie, folgen muss.

Veröffentlicht in Uncategorized

Welche Regeln sollten für Roboter gelten?

Haushaltsroboter unterstützen uns bald bei der täglichen Arbeit. Dafür brauchen sie Regeln. Aber welche? Diskutieren Sie mit uns!

Von Michael Mörike

Am Institut for Artificial Intelligence in Bremen werden momentan humanoide Roboter entwickelt, die kochen können. Noch ist es viel, was sie lernen müssen: Backen, Pizza zubereiten, Popcorn herstellen, Kaffee servieren, Tisch decken. Aber die Entwicklung und der Lernprozess dieser Haushaltsroboter geht mit großen Schritten voran: Wenn einer von ihnen etwas gelernt hat, können es im Handumdrehen auch die anderen, denn das Wissen und das Können wird einfach vom einen Roboter auf den anderen kopiert. Sobald die einfachen Handgriffe bei den blechernen Haushaltshilfen klappen, können sie lernen, ein 3-Sterne-Menü zuzubereiten und zu servieren.

Doch nicht nur in Bremen arbeitet man an solchen Robotern. Der Markt ist riesig, zumal in vielen Haushalten täglich gekocht wird. Wenn Haushaltsroboter für jeden Einzelnen erschwinglich werden, werden in vielen Küchen bald nicht mehr die Menschen kochen. Sie werden allerdings nur dann brauchbar sein, wenn jeder Käufer ihnen seine inidividuelle Umgebung und seine spezielle Art, wie der Haushalt gemacht werden soll, beibringen kann. Dafür müssen die Roboter auch nach dem Kauf lernfähig bleiben. Auch hier braucht es noch einige Zeit, bis die Technik diese Flexibilität zeigt. Dennoch: Bald werden wir lernfähige humanoide Roboter kaufen können, denen wir unsere individuellen Wünsche beibringen können – damit sie uns viel Arbeit abnehmen werden.

Aber man kann diesen Haushaltsrobotern dann auch Unsinn oder Bosheiten beibringen, ihre Lernfähigkeit missbrauchen. Wenn sie einmal Bosheiten gelernt haben, wer schützt uns vor ihnen? Was machen wir, wenn sie sich dagegen wehren, wenn wir versuchen, sie an etwas zu hindern? Wie stellen wir sicher, dass wir unsere Haushaltshilfen wie einen Besen wieder in die Ecke stellen können? Wie muss eine Notbremse für solche Fälle funktionieren? Was müssen die Hersteller der Roboter beachten?

Und wer stellt eigentlich die Regeln dafür auf?

Helfen Sie mit, solche Regeln zu formulieren! Schreiben Sie uns:

Wir freuen uns auf Ihre Meinungen!

Weiterführende Links:

Veröffentlicht in Arbeit und Erwerb, Bildung und Ausbildung, Blog, KI, Qualitätssiegel

Unsere Linktipps für den Juli

Bei unserer Arbeit stoßen wir auf Links, Interviews oder Menschen, die wir spannend finden. Mit unseren Linktipps rund um Künstliche Intelligenz und humane Nutzung der Informationstechnologie wollen wir diese Anregungen an Sie weitergeben.

Von Sascha Blättermann

Schwerpunkt: Wie stellen wir uns dem technischen Wandel?
Die Entwicklungen im Bereich der künstlichen Intelligenz ziehen sich durch unsere ganze Lebenswelt. In allen Bereichen wird nach Strategien gesucht, wie wir mit diesem technischen Wandel umgehen soll.

Weitere spannende Links:

Veröffentlicht in Uncategorized