Unser Blogger Michael Mörike beschäftigt sich weiter mit der Autonomie von Autos – heute vor allem mit der Frage, ob diese Autonomie Grenzen hat / haben wird. Allgemein versteht man unter autonom fahrenden Autos solche, die mit Hilfe von KI ihren Weg selbständig unfallfrei absolvieren, so dass sie auch von Menschen ohne Führerschein benutzt werden können. Wie viel Autonomie aber werden sie wirklich haben?

Um „Vertrauen“ in ein System zu haben, ist es notwendig, dass man dessen Entscheidungen nachvollziehen und so verstehen kann. Das ist bei komplexen, monolithischen KI-Systemen oft nicht der Fall. In diesem Beitrag präsentiert unser Blogautor Michael Mörike einen modularen Ansatz, in dem die Entscheidungen der KI prinzipiell nachvollziehbar sind. Oft wird bemängelt, dass man nicht feststellen kann, warum eine KI wie entschieden hat. Für ein großes neuronales Netz (NN), das aus vielen Schichten besteht, die alle aus vielen Knoten bestehen, ist das aktuell wohl auch richtig. Wer aber sagt, man müsse KI immer aus möglichst nur einem einzigen NN aufbauen? Bei der Konstruktion von KI für autonom fahrende Autos setzt man die eingebaute Intelligenz ja auch aus mehreren getrennten NN zusammen, wie mit dem folgenden Bild erläutert wird.