Sollen Maschinen die besseren Menschen sein?

Google und die Frau am Herd“, so die Überschrift eines Artikels in der ZEIT. Darin beschrieben: Die automatische Übersetzung von Google verwendet eine Sprache, die zu Rassismus, Rollenklischees und Vorurteilen neigt. Das ist logisch, meint unser Autor und studierter Computerlinguist. Und stellt die Frage: Wieso sollen intelligente Maschinen eigentlich die besseren Menschen sein?

Von Niels Ott

Um zu verstehen, warum die meisten automatischen Übersetzer anfällig für Sprache sind, die nicht mehr zeitgemäß ist, hilft ein kleiner Exkurs in die wissenschaftliche Disziplin der Computerlinguistik, genauer gesagt in die Ecke davon, die künstliche Intelligenz einsetzt. Wie funktioniert überhaupt eine automatische Übersetzung?

Zunächst werden große Mengen an übersetztem Text gesammelt. Also ein und derselbe Text aber in mindestens zwei Sprachen. In der Fachsprache nennt der Computerlinguist diese Sammlung ein paralleles Textkorpus. Dann werden einzelne Text-Teile zugeordnet: Wörter und Phrasen im Text in der einen Sprache bekommen eine Zuordnung zu den gleichbedeutenden Stellen im Text der in anderen Sprache. Dies geschieht heutzutage nur noch in Teilen in Handarbeit, auch dafür gibt es mittlerweile Algorithmen.

Sind nun größere Mengen Text mit diesen Zuordnungen verfügbar, so wird ein maschineller Lernalgorithmus darauf trainiert. Das heißt, eine spezielle Software wertet die Zusammenhänge von Phrasen und Wörtern zwischen den Sprachen aus und gießt sie in eine Sammlung von komplexen statistischen Formeln, resultierend in einem sogenannten Modell der Übersetzung.

Gibt nun der Benutzer einen Satz in einer Sprache ein, so wird das Modell befragt, was die wahrscheinlichste Entsprechung in der anderen Sprache wohl sein möge. Und das ist dann das Resultat der maschinellen Übersetzung. Ich schreibe hier bewusst ‚wahrscheinlichste Entsprechung‘ und nicht ‚Bedeutung‘ – denn was die Sprache wirklich bedeutet, darüber weiß die Maschine nichts. Man könnte sich als Gedankenexperiment vorstellen, dass die Maschine nicht mit Sprache, sondern mit einer Abfolge farbiger Bauklötze gefüttert wird. Diese Bauklötze wären einer anderen Abfolge an farbigen Legosteinen zugeordnet. Am Ende würde die Maschine von Bauklotzbauwerk nach Legobauwerk übersetzen können, ohne dass jemals eine Bedeutung der Bauwerke überhaupt relevant gewesen wäre.

Zurück zum Ausgangsthema: Warum ist maschinelle Übersetzung nun anfällig für nicht mehr zeitgemäße Sprache? Die Antwort ist: Weil diese parallelen Textkorpora gar nicht so leicht zu bekommen sind. Eine schon früh genutzte Ressource im Feld der Computerlinguistik ist daher ein Buch, das seit jeher in viele Sprachen übersetzt wurde: Die Bibel. Aber es muss nicht alle maschinelle Übersetzung biblisch sein. Es reicht, wenn der größere Anteil dieser sogenannten Trainingsdaten älter als – sagen wir einmal – fünfzehn Jahre ist. Denn statistisch überwiegt dann die Wahrscheinlichkeit für eine ‚alte‘ Übersetzung und diese wird gewählt.

Maschinelle Übersetzung – wie viele andere Formen künstlicher Intelligenz – bildet das ab, was bereits da war. Ein Modell entsteht immer aus der Vergangenheit. Treten Konstellationen auf, die das Modell noch nicht kennt, so steht es vor einem Problem. Im Gegensatz zum Menschen kann es sich (noch?) nicht spontan anpassen, und derzeit schon gar nicht ‚begreifen‘, dass nun eine bestimmte Übersetzungsvariante aus Gründen des gesellschaftlichen Diskurses nicht mehr angebracht ist und daher alle alten Fälle dieser Variante über Bord gehen müssen.

Das Problem geht aber noch weiter: Was, wenn menschliche Übersetzer auch weiterhin eher veraltete Sprache benutzen? Dann werden auch neue Trainingsdaten wieder nicht den neuen Ansprüchen genügen. Geschlechtergerechte Sprache ist ein Wunsch oder eine Forderung verschiedener Gruppierungen, deren Umsetzung in den Köpfen und Tastaturen der schreibenden und übersetzenden Zunft bei weitem noch nicht flächendeckend geschehen ist. Erwarten wir nicht also, dass maschinelle Übersetzung hier mit einem höheren ethischen Standard arbeiten soll als der Mensch? Die Maschine soll es richtig machen. Aber richtig ist nicht so wie bisher, sondern neu. So neu, dass es der Mensch noch nicht flächendeckend macht.

Die spannende Frage, die diese Thematik in der maschinellen Übersetzung, potenziell aber in der ganzen künstlichen Intelligenz aufwirft, ist also eine ethische gar philosophische: Sollen intelligente Maschinen die besseren Menschen sein? Und wenn ja, wer definiert dann überhaupt, was ein schlechter, guter, oder besserer Mensch ist? Es bleibt also spannend. Auf alle Fälle ist dieses Thema ein weiteres deutliches Indiz dafür, dass künstliche Intelligenz eine Ethik braucht.

Getagged mit: , , ,