Um „Vertrauen“ in ein System zu haben, ist es notwendig, dass man dessen Entscheidungen nachvollziehen und so verstehen kann. Das ist bei komplexen, monolithischen KI-Systemen oft nicht der Fall. In diesem Beitrag präsentiert unser Blogautor Michael Mörike einen modularen Ansatz, in dem die Entscheidungen der KI prinzipiell nachvollziehbar sind. Oft wird bemängelt, dass man nicht feststellen kann, warum eine KI wie entschieden hat. Für ein großes neuronales Netz (NN), das aus vielen Schichten besteht, die alle aus vielen Knoten bestehen, …
Vertrauen schaffen in KI Read more »