Die Vorstellung von Maschinen, die über ein Bewusstsein verfügen, wurde lange Zeit vor allem vom Science-Fiction-Genre verarbeitet und geprägt. Durch die beschleunigte Entwicklung der IT soll es in naher Zukunft jedoch tatsächlich schon möglich sein, Maschinen zu entwickelt, die über ein Bewusstsein verfügen. Unser Autor Michael Mörike, Vorstand der Integrata-Stiftung für humane Nutzung der IT, beleuchtet den Begriff „Bewusstsein“ und stößt mit seiner Einschätzung eine Debatte über die Folgen einer mit Bewusstsein ausgestatteten Maschine an.

Unser Blogger Michael Mörike beschäftigt sich weiter mit der Autonomie von Autos – heute vor allem mit der Frage, ob diese Autonomie Grenzen hat / haben wird. Allgemein versteht man unter autonom fahrenden Autos solche, die mit Hilfe von KI ihren Weg selbständig unfallfrei absolvieren, so dass sie auch von Menschen ohne Führerschein benutzt werden können. Wie viel Autonomie aber werden sie wirklich haben?

Um „Vertrauen“ in ein System zu haben, ist es notwendig, dass man dessen Entscheidungen nachvollziehen und so verstehen kann. Das ist bei komplexen, monolithischen KI-Systemen oft nicht der Fall. In diesem Beitrag präsentiert unser Blogautor Michael Mörike einen modularen Ansatz, in dem die Entscheidungen der KI prinzipiell nachvollziehbar sind. Oft wird bemängelt, dass man nicht feststellen kann, warum eine KI wie entschieden hat. Für ein großes neuronales Netz (NN), das aus vielen Schichten besteht, die alle aus vielen Knoten bestehen, ist das aktuell wohl auch richtig. Wer aber sagt, man müsse KI immer aus möglichst nur einem einzigen NN aufbauen? Bei der Konstruktion von KI für autonom fahrende Autos setzt man die eingebaute Intelligenz ja auch aus mehreren getrennten NN zusammen, wie mit dem folgenden Bild erläutert wird.