Sollen Maschinen die besseren Menschen sein?

Sollen Maschinen die besseren Menschen sein?

Google und die Frau am Herd“, so die Überschrift eines Artikels in der ZEIT. Darin beschrieben: Die automatische Übersetzung von Google verwendet eine Sprache, die zu Rassismus, Rollenklischees und Vorurteilen neigt. Das ist logisch, meint unser Autor und studierter Computerlinguist. Und stellt die Frage: Wieso sollen intelligente Maschinen eigentlich die besseren Menschen sein?

Von Niels Ott

Um zu verstehen, warum die meisten automatischen Übersetzer anfällig für Sprache sind, die nicht mehr zeitgemäß ist, hilft ein kleiner Exkurs in die wissenschaftliche Disziplin der Computerlinguistik, genauer gesagt in die Ecke davon, die künstliche Intelligenz einsetzt. Wie funktioniert überhaupt eine automatische Übersetzung?

Zunächst werden große Mengen an übersetztem Text gesammelt. Also ein und derselbe Text aber in mindestens zwei Sprachen. In der Fachsprache nennt der Computerlinguist diese Sammlung ein paralleles Textkorpus. Dann werden einzelne Text-Teile zugeordnet: Wörter und Phrasen im Text in der einen Sprache bekommen eine Zuordnung zu den gleichbedeutenden Stellen im Text der in anderen Sprache. Dies geschieht heutzutage nur noch in Teilen in Handarbeit, auch dafür gibt es mittlerweile Algorithmen.

Sind nun größere Mengen Text mit diesen Zuordnungen verfügbar, so wird ein maschineller Lernalgorithmus darauf trainiert. Das heißt, eine spezielle Software wertet die Zusammenhänge von Phrasen und Wörtern zwischen den Sprachen aus und gießt sie in eine Sammlung von komplexen statistischen Formeln, resultierend in einem sogenannten Modell der Übersetzung.

Gibt nun der Benutzer einen Satz in einer Sprache ein, so wird das Modell befragt, was die wahrscheinlichste Entsprechung in der anderen Sprache wohl sein möge. Und das ist dann das Resultat der maschinellen Übersetzung. Ich schreibe hier bewusst ‚wahrscheinlichste Entsprechung‘ und nicht ‚Bedeutung‘ – denn was die Sprache wirklich bedeutet, darüber weiß die Maschine nichts. Man könnte sich als Gedankenexperiment vorstellen, dass die Maschine nicht mit Sprache, sondern mit einer Abfolge farbiger Bauklötze gefüttert wird. Diese Bauklötze wären einer anderen Abfolge an farbigen Legosteinen zugeordnet. Am Ende würde die Maschine von Bauklotzbauwerk nach Legobauwerk übersetzen können, ohne dass jemals eine Bedeutung der Bauwerke überhaupt relevant gewesen wäre.

Zurück zum Ausgangsthema: Warum ist maschinelle Übersetzung nun anfällig für nicht mehr zeitgemäße Sprache? Die Antwort ist: Weil diese parallelen Textkorpora gar nicht so leicht zu bekommen sind. Eine schon früh genutzte Ressource im Feld der Computerlinguistik ist daher ein Buch, das seit jeher in viele Sprachen übersetzt wurde: Die Bibel. Aber es muss nicht alle maschinelle Übersetzung biblisch sein. Es reicht, wenn der größere Anteil dieser sogenannten Trainingsdaten älter als – sagen wir einmal – fünfzehn Jahre ist. Denn statistisch überwiegt dann die Wahrscheinlichkeit für eine ‚alte‘ Übersetzung und diese wird gewählt.

Maschinelle Übersetzung – wie viele andere Formen künstlicher Intelligenz – bildet das ab, was bereits da war. Ein Modell entsteht immer aus der Vergangenheit. Treten Konstellationen auf, die das Modell noch nicht kennt, so steht es vor einem Problem. Im Gegensatz zum Menschen kann es sich (noch?) nicht spontan anpassen, und derzeit schon gar nicht ‚begreifen‘, dass nun eine bestimmte Übersetzungsvariante aus Gründen des gesellschaftlichen Diskurses nicht mehr angebracht ist und daher alle alten Fälle dieser Variante über Bord gehen müssen.

Das Problem geht aber noch weiter: Was, wenn menschliche Übersetzer auch weiterhin eher veraltete Sprache benutzen? Dann werden auch neue Trainingsdaten wieder nicht den neuen Ansprüchen genügen. Geschlechtergerechte Sprache ist ein Wunsch oder eine Forderung verschiedener Gruppierungen, deren Umsetzung in den Köpfen und Tastaturen der schreibenden und übersetzenden Zunft bei weitem noch nicht flächendeckend geschehen ist. Erwarten wir nicht also, dass maschinelle Übersetzung hier mit einem höheren ethischen Standard arbeiten soll als der Mensch? Die Maschine soll es richtig machen. Aber richtig ist nicht so wie bisher, sondern neu. So neu, dass es der Mensch noch nicht flächendeckend macht.

Die spannende Frage, die diese Thematik in der maschinellen Übersetzung, potenziell aber in der ganzen künstlichen Intelligenz aufwirft, ist also eine ethische gar philosophische: Sollen intelligente Maschinen die besseren Menschen sein? Und wenn ja, wer definiert dann überhaupt, was ein schlechter, guter, oder besserer Mensch ist? Es bleibt also spannend. Auf alle Fälle ist dieses Thema ein weiteres deutliches Indiz dafür, dass künstliche Intelligenz eine Ethik braucht.

2 Kommentare zu „Sollen Maschinen die besseren Menschen sein?

  1. „Ich schreibe hier bewusst ‚wahrscheinlichste Entsprechung‘ und nicht ‚Bedeutung‘ – denn was die Sprache wirklich bedeutet, darüber weiß die Maschine nichts.“

    Ich gehe nun davon aus, dass dies so ist.
    Dann bedeutet dies wieder einmal, Effizienzsteigerung zu Lasten der Qualität. Mag in einigen Anwendungsfällen sinnvoll sein, aber was hat das mit KI zu tun? Werden die Menschen mit solchen „kostenlosen“ Anwendungen nicht schon wieder Spielball der Konzerne? Ist das tatsächlich ein Beitrag zur Steigerung der Lebensqualität? Welche Nutzerdaten fliessen wohin?

    „Maschinelle Übersetzung – wie viele andere Formen künstlicher Intelligenz – bildet das ab, was bereits da war. Ein Modell entsteht immer aus der Vergangenheit. Treten Konstellationen auf, die das Modell noch nicht kennt, so steht es vor einem Problem. Im Gegensatz zum Menschen kann es sich (noch?) nicht spontan anpassen, und derzeit schon gar nicht ‚begreifen‘, dass nun eine bestimmte Übersetzungsvariante aus Gründen des gesellschaftlichen Diskurses nicht mehr angebracht ist und daher alle alten Fälle dieser Variante über Bord gehen müssen.“

    Sicherlich können Modelle basierend auf der Basis von Vergangenheitserfahrungen hilfreich sein. Was wir jedoch im Zeitalter der Digitalisierung dringend benötigen, sind innovative Ideen, die genau dieses Denken aus der Vergangenheit bzw dem Status Quo überwinden. Ein aktuelles Beispiel sehen wir gerade in der Automobilindustrie, die so in der Profitfalle gefangen ist, dass sie nicht in der Lage sein wird neue Mobilitätsideen zu realisieren. Leider sind unsere Politiker so „eng verbunden“ mit der Industrie, dass wir auch aus dieser Ecke nichts erwarten können.

    „Die spannende Frage, die diese Thematik in der maschinellen Übersetzung, potenziell aber in der ganzen künstlichen Intelligenz aufwirft, ist also eine ethische gar philosophische: Sollen intelligente Maschinen die besseren Menschen sein?“
    Nein, das sollen sie nicht sein!

    Und wenn ja, wer definiert dann überhaupt, was ein schlechter, guter, oder besserer Mensch ist? Es bleibt also spannend. Auf alle Fälle ist dieses Thema ein weiteres deutliches Indiz dafür, dass künstliche Intelligenz eine Ethik braucht.“

    Ja, ohne Ethik ist alles nichts….oder……hieß es „ohne Wachstum ist alles nichts?“ (Merkel/Schäuble)

    • „Frieden ist nicht alles aber ohne Frieden ist alles nichts“, heißt das Original von Willy Brandt.

      Effizienzsteigerung zu Lasten von Qualität ist übrigens genau das Gegenteil von dem, was passiert. Regelbasierte Ansätze, also solche mit handgeschriebenen Übersetzungsregeln, waren nämlich zuerst da. SYSTRAN ist eines der Systeme, die ursprünglich nur darauf basierten, es kommt zum zum Beispiel Einsatz bei Babelfish. Letztendlich hat man wohl auch bei SYSTRAN die Zeichen der Zeit erfahren und hat daher Statistical Machine Translation mit an Bord genommen in einem Hybrid-System. Ohne maschinelles Lernen, also statistik-basierte Ansätze, ist die derzeitige Qualität (so fragwürdig sie auch ist) nämlich überhaupt nicht zu bekommen.

      Möchte man es anders machen, dann stellt sich eine Frage, die sich Computerlinguisten, Philosophen und Logiker auch schon länger stellen: Was ist eigentlich Bedeutung? Kann Bedeutung formal definiert und damit im Computer implementiert werden? Die Fragezeichen stehen hier, weil es Wissenschaftler gibt, die davon ausgehen und es versuchen. Und andere, die da eher die Köpfe schütteln.

      1980 hat sich John Searle als Philosoph damit beschäftigt und kam damals dazu, dem Computer fehlende Intentionalität zu unterstellen. Für starke künstliche Intelligenz sah er den Turing Test als nicht ausreichend an, der ja im Prinzip sagt: „Wenn man es als Mensch nicht merkt, dass es ein Computer ist, ist es intelligent.“ Siehe auch: https://de.wikipedia.org/wiki/Chinesisches_Zimmer