In dieser „Fortsetzungsgeschichte“ beschäftigt sich Barbara Liebermeister mit den Herausforderungen, die sich aus der Altersstruktur in heutigen Betrieben für die Führungskräfte ergeben. Sie stellt darin die heutige Situation dar, analysiert, wie sie entstanden ist und gibt Hinweise, wie die Führungskräfte damit konstruktiv und kreativ umgehen können.

Unser Blogger Michael Mörike beschäftigt sich weiter mit der Autonomie von Autos – heute vor allem mit der Frage, ob diese Autonomie Grenzen hat / haben wird. Allgemein versteht man unter autonom fahrenden Autos solche, die mit Hilfe von KI ihren Weg selbständig unfallfrei absolvieren, so dass sie auch von Menschen ohne Führerschein benutzt werden können. Wie viel Autonomie aber werden sie wirklich haben?

Dr. Klaus-Ulrich Moeller, Zeitgeist-Forscher aus Sasbach, beschäftigt sich mit dem Verhältnis von Menschen und Maschinen. Er schreibt (Zitat) „Für Unternehmen und Führungskräfte ist es dringend erforderlich zu entscheiden, was künftig von Maschinen, was von Menschen erledigt werden soll und wie ich den Menschen „enable“, das auch zu leisten. Viele gesellschaftliche Phänomene sind letzten Endes auf diese sich abzeichnende „Deprivation“ des Menschen gegenüber der immer intelligenter werdenden Software zurückzuführen.“ Noch vor einigen Jahren schien klar zu sein, dass Künstliche Intelligenz viel verändern, aber niemals dem Menschen seine ureigensten Fähigkeiten streitig machen könnte: Kreativität, Intuition, Emotionalität, Sinnlichkeit, Erkenntnisfähigkeit, Bewusstsein – das berühmte Wissen um die eigene Existenz. Wir sind inzwischen eines Besseren belehrt, seit intelligente Software Bilder wie van Gogh malt, Sinfonien wie Beethoven komponiert und Bücher schreibt, die von Tolstoi stammen könnten. Seit Software nicht nur Gesichter unterscheiden („facial recognition“), sondern anhand von Mimik, Gestik und Sprache auch emotionale und Stimmungszustände von …

Hat Künstliche Intelligenz Grenzen? Weiterlesen »

Um „Vertrauen“ in ein System zu haben, ist es notwendig, dass man dessen Entscheidungen nachvollziehen und so verstehen kann. Das ist bei komplexen, monolithischen KI-Systemen oft nicht der Fall. In diesem Beitrag präsentiert unser Blogautor Michael Mörike einen modularen Ansatz, in dem die Entscheidungen der KI prinzipiell nachvollziehbar sind. Oft wird bemängelt, dass man nicht feststellen kann, warum eine KI wie entschieden hat. Für ein großes neuronales Netz (NN), das aus vielen Schichten besteht, die alle aus vielen Knoten bestehen, ist das aktuell wohl auch richtig. Wer aber sagt, man müsse KI immer aus möglichst nur einem einzigen NN aufbauen? Bei der Konstruktion von KI für autonom fahrende Autos setzt man die eingebaute Intelligenz ja auch aus mehreren getrennten NN zusammen, wie mit dem folgenden Bild erläutert wird.

Die Diskussion, ob man Ethik in KI einbauen kann, geht weiter. Heute hat wieder Michael Mörike das Wort, der einige interessante neue Aspekte vorbringt. Ja – ich meine, das geht. Ich meine auch, wir haben keine Zeit zu verlieren. Allerdings gebe ich den beiden anderen Diskutanten (Karsten Weber und Georg Ludwig Verhoeven) durchaus auch recht. Wie reimt sich das zusammen?