Gefühle bei Robotern

Roboter haben keine Gefühle. Das hört man oft. Aber stimmt das auch?

Von Michael Mörike

Was ist hier gemeint mit „Gefühl“?

Es kann vorkommen, dass wir ein taubes Gefühl im Arm haben oder unsere Finger sind gefühllos. Die häufigste Erklärung ist, dass die Nerven-Leitung gestört ist. Hier ist mit Gefühl der haptische Tastsinn gemeint, manchmal auch noch der eine oder andere Sinn, z.B. die Wärmeempfindlichkeit. Klar: Moderne Roboter haben auch Sensoren, z.B. auch für Temperatur oder haptische Sensoren an ihren Greifwerkzeugen. Das ist also nicht gemeint.

Als Menschen treffen wir oft sogenannte Gefühlsentscheidungen – und liegen dabei oft durchaus richtig, auch wenn wir nicht nachvollziehen können, wie wir zu genau dieser Entscheidung gekommen sind. Genau das passiert (derzeit) in allen Robotern, die KI verwenden. Sie treffen ihre Entscheidungen aufgrund dessen, was sie gelernt haben. Beim Lernen wurden sie mit sehr vielen Beispielen „gefüttert“ und haben daraus Muster gebildet, die in den Gewichten in ihren Neuronalen Netzen repräsentiert sind. Danach kann im Allgemeinen niemand mehr im Detail nachvollziehen, wieso sie zu der jeweiligen Entscheidung gekommen sind. Ich finde schon, dass das große Ähnlichkeit hat mit unseren menschlichen Gefühlsentscheidungen.

Im unserem menschlichen Leben machen wir ein Auf und Ab von Gefühlen durch: Wir sind vielleicht verliebt oder trauern um einen lieben Menschen. Wir können Freude, Leid, Neid, Wut und weitere Gefühle entwickeln und sie bewusst empfinden. Derzeit können Roboter das nicht. Man kann Robotern beibringen, so zu tun, als ob sie z.B. eifersüchtig wären. Vielleicht kann man sie auch dazu bringen zu sagen, jetzt bin ich eifersüchtig. Sie sind aber nicht wirklich eifersüchtig und sie haben schon gar kein Bewusstsein dessen. In diesem Sinne haben Roboter – Stand heute – kein Gefühl. Ob sie es jemals haben werden, ist Gegenstand des wissenschaftlichen Diskurses.

Gefühle in diesem Sinne können auch als Erregungszustände bezeichnet werden und bezeichnen den einen oder anderen Arbeitsmodus unseres Hirns und Nervensystems. Auch Roboter können eventuell in besondere Arbeitszustände geschaltet werden, z.B. Notfall-Modus, wenn die Rechenleistung nicht ausreicht, alle aktuellen Situationen gleichzeitig vollständig durchzurechnen. Berühmtes Beispiel: Landung der ersten Apollofähre auf dem Mond. Als Mensch würden wir den Zustand als Panik empfinden. Als Mensch können wir uns in dieser Situation selbst beobachten und darüber nachdenken – vielleicht nicht in der Situation selbst, aber auf jeden Fall danach. Ob das ein Roboter kann? Kann man einer KI in einem Roboter beibringen, diese Situation nachträglich zu „durchdenken“ und daraus zu lernen? Letzteres auf jeden Fall! Hat die KI dann Bewusstsein? Hat sie nicht Bewusstsein, wenn sie ihre Arbeitsmodi nachträglich selbst analysieren und daraus lernen kann?

Was machen wir als Menschen denn anderes?

Veröffentlicht in Blog, KI Getagged mit: , , ,

Sollen Maschinen die besseren Menschen sein?

Google und die Frau am Herd“, so die Überschrift eines Artikels in der ZEIT. Darin beschrieben: Die automatische Übersetzung von Google verwendet eine Sprache, die zu Rassismus, Rollenklischees und Vorurteilen neigt. Das ist logisch, meint unser Autor und studierter Computerlinguist. Und stellt die Frage: Wieso sollen intelligente Maschinen eigentlich die besseren Menschen sein?

Von Niels Ott

Um zu verstehen, warum die meisten automatischen Übersetzer anfällig für Sprache sind, die nicht mehr zeitgemäß ist, hilft ein kleiner Exkurs in die wissenschaftliche Disziplin der Computerlinguistik, genauer gesagt in die Ecke davon, die künstliche Intelligenz einsetzt. Wie funktioniert überhaupt eine automatische Übersetzung?

Zunächst werden große Mengen an übersetztem Text gesammelt. Also ein und derselbe Text aber in mindestens zwei Sprachen. In der Fachsprache nennt der Computerlinguist diese Sammlung ein paralleles Textkorpus. Dann werden einzelne Text-Teile zugeordnet: Wörter und Phrasen im Text in der einen Sprache bekommen eine Zuordnung zu den gleichbedeutenden Stellen im Text der in anderen Sprache. Dies geschieht heutzutage nur noch in Teilen in Handarbeit, auch dafür gibt es mittlerweile Algorithmen.

Sind nun größere Mengen Text mit diesen Zuordnungen verfügbar, so wird ein maschineller Lernalgorithmus darauf trainiert. Das heißt, eine spezielle Software wertet die Zusammenhänge von Phrasen und Wörtern zwischen den Sprachen aus und gießt sie in eine Sammlung von komplexen statistischen Formeln, resultierend in einem sogenannten Modell der Übersetzung.

Gibt nun der Benutzer einen Satz in einer Sprache ein, so wird das Modell befragt, was die wahrscheinlichste Entsprechung in der anderen Sprache wohl sein möge. Und das ist dann das Resultat der maschinellen Übersetzung. Ich schreibe hier bewusst ‚wahrscheinlichste Entsprechung‘ und nicht ‚Bedeutung‘ – denn was die Sprache wirklich bedeutet, darüber weiß die Maschine nichts. Man könnte sich als Gedankenexperiment vorstellen, dass die Maschine nicht mit Sprache, sondern mit einer Abfolge farbiger Bauklötze gefüttert wird. Diese Bauklötze wären einer anderen Abfolge an farbigen Legosteinen zugeordnet. Am Ende würde die Maschine von Bauklotzbauwerk nach Legobauwerk übersetzen können, ohne dass jemals eine Bedeutung der Bauwerke überhaupt relevant gewesen wäre.

Zurück zum Ausgangsthema: Warum ist maschinelle Übersetzung nun anfällig für nicht mehr zeitgemäße Sprache? Die Antwort ist: Weil diese parallelen Textkorpora gar nicht so leicht zu bekommen sind. Eine schon früh genutzte Ressource im Feld der Computerlinguistik ist daher ein Buch, das seit jeher in viele Sprachen übersetzt wurde: Die Bibel. Aber es muss nicht alle maschinelle Übersetzung biblisch sein. Es reicht, wenn der größere Anteil dieser sogenannten Trainingsdaten älter als – sagen wir einmal – fünfzehn Jahre ist. Denn statistisch überwiegt dann die Wahrscheinlichkeit für eine ‚alte‘ Übersetzung und diese wird gewählt.

Maschinelle Übersetzung – wie viele andere Formen künstlicher Intelligenz – bildet das ab, was bereits da war. Ein Modell entsteht immer aus der Vergangenheit. Treten Konstellationen auf, die das Modell noch nicht kennt, so steht es vor einem Problem. Im Gegensatz zum Menschen kann es sich (noch?) nicht spontan anpassen, und derzeit schon gar nicht ‚begreifen‘, dass nun eine bestimmte Übersetzungsvariante aus Gründen des gesellschaftlichen Diskurses nicht mehr angebracht ist und daher alle alten Fälle dieser Variante über Bord gehen müssen.

Das Problem geht aber noch weiter: Was, wenn menschliche Übersetzer auch weiterhin eher veraltete Sprache benutzen? Dann werden auch neue Trainingsdaten wieder nicht den neuen Ansprüchen genügen. Geschlechtergerechte Sprache ist ein Wunsch oder eine Forderung verschiedener Gruppierungen, deren Umsetzung in den Köpfen und Tastaturen der schreibenden und übersetzenden Zunft bei weitem noch nicht flächendeckend geschehen ist. Erwarten wir nicht also, dass maschinelle Übersetzung hier mit einem höheren ethischen Standard arbeiten soll als der Mensch? Die Maschine soll es richtig machen. Aber richtig ist nicht so wie bisher, sondern neu. So neu, dass es der Mensch noch nicht flächendeckend macht.

Die spannende Frage, die diese Thematik in der maschinellen Übersetzung, potenziell aber in der ganzen künstlichen Intelligenz aufwirft, ist also eine ethische gar philosophische: Sollen intelligente Maschinen die besseren Menschen sein? Und wenn ja, wer definiert dann überhaupt, was ein schlechter, guter, oder besserer Mensch ist? Es bleibt also spannend. Auf alle Fälle ist dieses Thema ein weiteres deutliches Indiz dafür, dass künstliche Intelligenz eine Ethik braucht.

Veröffentlicht in Blog, KI, Uncategorized Getagged mit: , , ,

Der Bolerò der Arbeitswelt: Arbeiten 4.0 mit autonomen System

Team bei Humanithesia

Warum die Digitalisierung hinter der Digitalisierung unsere ganze Aufmerksamkeit benötigt.

Von Welf Schröter

Wer kennt es nicht, das beeindruckende Orchesterwerk des französischen Komponisten Maurice Ravel. Er schuf im Jahr 1928 jenen langen „Boléro“ als Balettstück, der leise und unmerklich beginnt, sich zunehmend ins Wahrnehmbare steigert und in einem unüberhörbaren Finale gipfelt. Ein solcher „Boléro“ bewegt sich gerade auf die Arbeitswelt zu.

Noch sind wir mit den Herausforderungen und Chancen der „nachholenden Digitalisierung“ (Schröter) befasst. Betriebsräte, Vertrauensleute und Beschäftigte betten mit Hilfe kluger Arbeitsorganisationsmodelle vorhandene informationstechnische Werkzeuge in den Arbeitsalltag ein. Mobile Endgeräte, „kluge“ Kleidungsstücke (wearables), „kluge“ Brillen (glasses) und vieles mehr werden über Betriebsvereinbarungen zu Assistenztechniken für den Menschen. Mehr als drei Viertel aller derzeitigen Technikeinführungen nutzen technische Innovationen, die schon zehn oder mehr Jahre auf dem Markt sind. In den Betrieben werden sie als neu empfunden und als neu im Sinne von „4.0-Anwendungen“ dargestellt.

Doch unter dem Gesichtspunkt der Technikentwicklung handelt es sich zumeist um IT-Konstrukte, die mit hohem Förderaufwand aus Steuergeldern entwickelt wurden und dann aber in kein betriebliches Geschäftsmodell einflossen. Ein Beispiel sind die vom Bund einst maßgeblich gesponserten „Softwareagenten“, die vor mehr als zehn Jahren als Assistenz- und Delegationstechniken das Licht der FuE-Welt erblickten. Heute verbergen sie sich hinter den cyber-physischen Systemen als vermeintlich allerneuester Innovationsschritt.

Die „nachholende Digitalisierung“ bringt vor allem jene IT-Technik in die Geschäftsmodelle, die in den zurückliegenden Jahren wegen zu hoher Einführungsaufwände und zu geringen Kostenvorteilen auf die lange Bank geschoben wurden. Ein zugegebenermaßen wirkungsvolles Marketing („Industrie 4.0“) bringt unzureichend genutzte technische Innovationen in das Blickfeld der Entscheidungsträger und in die Shops. Erforderlich sind zusätzliche Anpassungs- und Kompatibilitätsspezifikationen.

Doch es wäre ein grober Fehler, würde man das mediale Transportgut „Vier-Null“ nur als oberflächliches Marketing abtun. Hinter dem lauten Messe- und Vertriebslärm der Verkäufer von in der Regel tradierter Ware beginnt eine andere Melodie. Es ist die Digitalisierung hinter der Digitalisierung, die unsere Aufmerksamkeit auf sich ziehen muss. Wir dürfen die notwendige Vorspeise des digitalen Menüs nicht mit seinem Hauptgang verwechseln. Es ist ein „Boléro“ des Wandels, der leise beginnt und noch schwer hörbar ist, sich aber verstärkt und große Chancen hat, die Bühne komplett für sich zu gewinnen.

Zu reden ist von jenen „autonomen Software-Systemen“ (ASS), die in der Sprache der IT-Szene selbst lernen, selbst entscheiden, sich selbst verändern und selbst rechtsverbindliche Transaktionen in Echtzeit hinter dem Rücken des Menschen veranlassen. Ihre Nutzung befindet sich noch in der Experimentierphase. Sie können noch nicht „besichtigt“ werden. Sie kommen noch nicht in den Schaufenstern der Messen vor. In den Experimenten finden wir erste kurze Anwendungsketten, eher noch Testsimulationen. Diese Sicht gilt, wenn man vom Blickwinkel betriebsübergreifender horizontaler Wertschöpfungsketten ausgeht. Betrachtet man die betriebsinternen vertikalen Wertschöpfungsketten, so sind dort schon größere Fortschritte im Feld der Insellösungen zu erkennen.

Doch der „Boléro“ der „autonomen Software-Systeme“ hat begonnen. Erst wenige nehmen die noch zurückhaltende Melodie wahr. Wenn der Takt dieser Systeme die kleinen und großen Bühnen ergriffen hat, wird der Zeitdruck für die soziale Gestaltung des Wandels immens. Jene, die den „Boléro“ der sich in diesem Sinne wandelnden Arbeitswelt schon hören durften, sollten sich rasch zusammenfinden, um zum frühest möglichen Zeitpunkt gestalterisch vorausschauend im Sinne des arbeitenden Menschen einzugreifen. Wir sollten diese Art von „Boléro“ nicht nur als Ballettangebot betanzen, sondern bei seiner Aufführung sowohl in den Rhythmus wie auch in die Regie eingreifen. Der Takt ist das Geheimnis. Wer gibt ihn vor? Wer ist wessen Assistent?

(Der Beitrag von Welf Schröter ist zuerst in diesem Blog erschienen.)

Über den Autor:
Der Autor leitet seit mehr als 25 Jahren das gewerkschaftliche Personennetzwerk „Forum Soziale Technikgestaltung. Das Netzwerk umfasst mehr als 3.450 Frauen und Männer aus Betriebs- und Personalräten, Gewerkschaften und Beschäftigten. Er führt den www.blog-zukunft-der-arbeit.de und ist Mitglied im Fachbeirat der Integrata-Stiftung.

Veröffentlicht in Arbeit und Erwerb, Blog, Führung und Verantwortung, KI Getagged mit: , ,

Die Ethik autonomer Fahrzeug im Alltag

Wir sollten die ethischen Fragen des autonomen Fahrens nicht an Extrembeispielen diskutieren – sondern nah am Alltag.

Von Georg-Ludwig Verhoeven

Wenn es um die Ethik autonomer (bzw. automatisch fahrender) Fahrzeuge geht (im Folgenden auch AutoAuto genannt), werden oft dramatisch-dilemmatische Situationen diskutiert, in denen das AutoAuto abwägen muss, ob es den Rentner, das Kind oder die Insassen des Fahrzeuges gefährdet oder tötet.

Solcher Szenarien eignen sich hervorragend für medienwirksame Veranstaltungen und Veröffentlichungen, wie zuletzt den Bericht der Ethikkomission „Automatisches Fahren und Vernetzung“. Und das selbst dann, wenn keine praktikable Lösung gibt, sondern nur abstrakte Denkansätze dargestellt und dikutiert werden. Auf der anderen Seite kommen solche Szenarien – glücklicherweise – im Alltag höchst selten vor.

Ganz anders ist es mit dem Alltag. Wie sieht die „Ethik“ des AutoAuto im Alltag aus? Hält es die StVO ein – streng oder großzügig? Agiert es wie der real existente Autofahrer, der Geschwindigkeitsbegrenzungen „weitgehend“ einhält, aber sich doch immer mal wieder eine Ausnahme genehmigt? Der weiß, wo die Radaranlage steht und danach wieder auf Gaspedal geht? Der weiß, dass eine Steigung kommt und vorher „Anlauf“ nimmt? Der schnell mal ein langsameres Fahrzeug, einen Traktor oder Radfahrer überholt, wenn er dadurch auch die durchgezogene Linie überfahren muss?

Vertraut das AutoAuto darauf, dass die anderen sich StVO-konform verhalten? In einem reinen AutoAuto-Szenario mag das funktionieren, aber was ist im „Mischbetrieb“, wo es Verkehrsteilnehmer gibt, die sich nicht an die StVO halten und daher für das AutoAuto unvorhersagbar ist? Oder fährt das AutoAuto auf dem Gebirgspass kilometerweit hinter dem Radfahrer her, der es bei der Steigung auf gerade mal 5, vielleicht sogar 10 km/h bringt? Und zieht es dann eine Schlage hinter sich her, weil es selbst nicht überholt werden kann? Hält das AutoAuto den vorgeschriebenen Sicherheitsabstand ein, und was tut es, wenn es auf der Autobahn überholen will, das aber nicht kann, ohne den Sicherheitsabstand der auf der Überholspur Fahrenden dadurch zu verkürzen? Fährst das AutoAuto nur so schnell, dass es jederzeit innerhalb der Sichtweite anhalten kann? Lässt das AutoAuto andere einscheren, abbiegen, verzichtet es auf die Vorfahrt?

Hier muss eine AutoAuto – Ethik ansetzen und praktisch umsetzbare Maximen liefern, an denen sich Systemarchitekten, -designer und -entwickler orientieren können.

Werden dann Autokäufer solche AutoAutos überhaupt kaufen – und werden sie ihrem „Autopiloten“ die Kontrolle im Alltag überlassen? Gibt es für den Autopiloten eine Einstellmöglichkeit von „Gutmensch“ bis „Rowdy“ (oder wie immer die Stufen auch heißen mögen)?

In anderen Worten, will die automobile Gesellschaft diese AutoAutos überhaupt? Was erwartet sie von ihnen, welcher Ethik sollen sie folgen? Diese Diskussion hat kaum begonnen, aber genau da sollte sie einsetzen.

Veröffentlicht in Blog, KI Getagged mit: , ,

Qualitätssiegel Humane IT: Wer ein Interesse hat und wer nicht

Die Tübinger Integrata-Stiftung plant ein Qualitätssiegel für den humanen Einsatz der IT. Doch die aktuellen Entwicklungen werfen neue Fragen an dieses Siegel auf.

Von Egon Scherer

Die chinesische Regierung plant bis zum Jahr 2020 das „System für Soziale Vertrauenswürdigkeit“. Das Ziel: „Die Vertrauenswürdigen sollen frei unter dem Himmel umherschweifen können, den Vertrauensbrechern aber soll kein einziger Schritt mehr möglich sein“. Ein System mit einem allwissenden und allsehenden digitalen Mechanismus, der mehr weiß über die Bürger, als sie selbst.

Realisiert wird dieses System mittels einer App und Big Data, natürlich nach den Vorstellungen der Partei. Eine digitale Diktatur? Schrecklich dieser inhumane Einsatz der IT, werden wir in Deutschland sagen, aber wie weit sind wir eigentlich davon entfernt oder sind wir sogar schon weiter? Die chinesische Regierung kann derzeit noch weitestgehend ungestört, da ohne spürbare Opposition, über ihre digitalen Pläne und Ziele kommunizieren. Sicherlich ist man auch überzeugt, dass dies alles zum Wohle des Menschen, also human, ist.

Für das angestrebte „Qualitätssiegel Humane IT“ der Integrata-Stiftung ergeben sich nicht nur unter diesem Aspekt für mich einige grundlegende Fragen:

  • Für welches Staatgebiet bzw. welchen Wirtschaftsraum soll dieses Gütesiegel gelten? Deutschland, EU?
  • Wird dieses Gütesiegel im Kontext einer offenen demokratischen Gesellschaft definiert werden?
  • Wer hat daran tatsächlich ein nachhaltiges Interesse?

Die Regierungen und Wirtschaftskonzerne von Staaten wie China, Saudi-Arabien, Polen, Ungarn, Russland, Türkei und – vermutlich muss ich auch die USA nennen – haben kein Interesse an einem funktionierenden Rechtsstaat und an einer offenen Gesellschaft, wie viele das in Deutschland und in einigen EU-Ländern anstreben. Ein Gütesiegel für Softwareprodukte und „digitale Produkte“ (IOTs) ist in diesen Ländern vermutlich nicht gewollt und wird deshalb nicht akzeptiert werden. Wie groß ist dann tatsächlich das Interesse von global agierenden deutschen Konzernen?

Fakt ist: Immer mehr Menschen sind mit dem Umgang ihrer persönlichen Daten nicht mehr einverstanden, die Akzeptanz für humane IT-Produkte wird in den nächsten Jahren steigen. Aus meiner Sicht könnte dies eine Chance für mittelständische Unternehmen mit „lokalem Vertriebsgebiet“ sein, sich zu differenzieren und eine nachhaltige Akzeptanz bei den Kunden erreichen. Wenn wir es ernst meinen mit Menschen- und Bürgerrechten ist ein humaner Einsatz von IT zwingend notwendig, wird aber auf erheblichen Widerstand in Teilen der Wirtschaft und Politik stoßen. Diesen Widerstand müssen wir aber akzeptieren und als Herausforderung annehmen. Hierzu ist es notwendig, die humanen Grenzwerte für die IT-Systeme zu definieren, um dann beurteilen zu können, ob etwas tolerabel ist oder nicht.

Aus meiner Sicht haben wir in vielen Bereichen der Politik eine starke Tendenz zur Generalüberwachung, die ganz elementar mittels IT realisiert wird. Diese Überwachung muss im Kontext einer offenen Gesellschaft, der Menschen- und Bürgerrechte analysiert werden, diese Ergebnisse können dann zur Definition von ersten Grenzwerten dienen. Ganz generelle Aspekte zur Definition von Grenzwerten sind sicherlich sinnvoll und erforderlich, müssen jedoch praxisnah und in gewisser Weise messbar sein.

Das Ignorieren von negativen wirtschaftlichen Entwicklungen, wie geplante Obsoleszenz, die Generierung von Bedürfnissen und damit verbundenem massivem Ressourcenverbrauch, die durch Einsatz von IT befördert wird, ist schon sehr weit fortgeschritten, es wird allerhöchste Zeit hier gegenzusteuern.

 

Veröffentlicht in Beitragstyp, Blog, Qualitätssiegel Getagged mit: , ,