Die Tübinger Integrata-Stiftung plant ein Qualitätssiegel für den humanen Einsatz der IT. Doch die aktuellen Entwicklungen werfen neue Fragen an dieses Siegel auf. Von Egon Scherer Die chinesische Regierung plant bis zum Jahr 2020 das „System für Soziale Vertrauenswürdigkeit“. Das Ziel: „Die Vertrauenswürdigen sollen frei unter dem Himmel umherschweifen können, den Vertrauensbrechern aber soll kein einziger Schritt mehr möglich sein“. Ein System mit einem allwissenden und allsehenden digitalen Mechanismus, der mehr weiß über die Bürger, als sie selbst. Realisiert wird dieses System mittels einer App und Big Data, natürlich nach den Vorstellungen der Partei. Eine digitale Diktatur? Schrecklich dieser inhumane Einsatz der IT, werden wir in Deutschland sagen, aber wie weit sind wir eigentlich davon entfernt oder sind wir sogar schon weiter? Die chinesische Regierung kann derzeit noch weitestgehend ungestört, da ohne spürbare Opposition, über ihre digitalen Pläne und Ziele kommunizieren. Sicherlich ist man auch überzeugt, dass dies …

Qualitätssiegel Humane IT: Wer ein Interesse hat und wer nicht Weiterlesen »

Haushaltsroboter unterstützen uns bald bei der täglichen Arbeit. Dafür brauchen sie Regeln. Aber welche? Diskutieren Sie mit uns! Von Michael Mörike Am Institut for Artificial Intelligence in Bremen werden momentan humanoide Roboter entwickelt, die kochen können. Noch ist es viel, was sie lernen müssen: Backen, Pizza zubereiten, Popcorn herstellen, Kaffee servieren, Tisch decken. Aber die Entwicklung und der Lernprozess dieser Haushaltsroboter geht mit großen Schritten voran: Wenn einer von ihnen etwas gelernt hat, können es im Handumdrehen auch die anderen, denn das Wissen und das Können wird einfach vom einen Roboter auf den anderen kopiert. Sobald die einfachen Handgriffe bei den blechernen Haushaltshilfen klappen, können sie lernen, ein 3-Sterne-Menü zuzubereiten und zu servieren. Doch nicht nur in Bremen arbeitet man an solchen Robotern. Der Markt ist riesig, zumal in vielen Haushalten täglich gekocht wird. Wenn Haushaltsroboter für jeden Einzelnen erschwinglich werden, werden in vielen Küchen bald nicht mehr …

Welche Regeln sollten für Roboter gelten? Weiterlesen »

Kritische Anmerkungen zu einem aktuellen Interview mit dem Leiter des Deutschen Forschungszentrums für Künstliche Intelligenz, Wolfgang Wahlster von Michael Mörike In der neuesten Ausgabe von „brand eins wissen“ ist ein großes Interview mit Wolfgang Wahlster, Leiter des deutschen Forschungszentrums für künstliche Intelligenz, abgedruckt. Seine Aussagen zur Gefahren der Künstlichen Intelligenz verdienen Widerspruch. Wolfgang Wahlster sagt im Interview unter dem Titel „Abstand halten“, dass KI nicht so schlimm sei, wie sie von anderen dargestellt würde: „Das ist diese Idee der Super-Intelligenz, die eines Tages in jeder Hinsicht intelligenter ist, als der Mensch, sodass sie die Kontrolle und die Macht an sich reißt.  Aber das ist Unsinn.“ Er begründet seine These mit vielen Beispielen, die zeigen, welche Fähigkeiten Künstliche Intelligenz heute noch nicht hat. Wahlster sagt zum Beispiel, dass künstliche Intelligenz heute noch keine sensomotorischen Fertigkeiten wie ein Mensch besitzt: „Wir brauchen zum Beispiel sensomotorische Fähigkeiten – und keine Roboterhand …

Gefahren der KI: Wenn er sie nicht nennen kann, wer dann? Weiterlesen »

Der Begriff Künstliche Intelligenz ist aktuell in Mode. Aber halten die Produkte, die mit KI arbeiten, was sie versprechen bzw. was wir von ihnen erwarten? Die Antwort kann nur ein klares „Jein“ bzw. „kommt drauf an“ sein. Von Georg-Ludwig Verhoeven Wir empfinden unsere Navigationssystem im Auto als „intelligent“: Nicht nur schlägt es uns eine optimale Fahrtroute vor, sondern es nennt uns auch die voraussichtliche Ankunftszeit, informiert uns, wenn es Störungen auf dem Weg gibt und schlägt eine Alternativroute vor. Doch nicht nur das: Es nennt uns wichtige Punkte am Weg, Tankstellen, Radarkontrollen und vieles mehr. Aber ist das Navigationssystem deswegen „intelligent“? Das ist Definitionssache. Gängige Definitionen von „Intelligenz“ beinhalten immer das Lernen aus gemachten guten oder schlechten Erfahrungen. In dem Sinne ist das Navigationssystem nicht „intelligent“, denn es lernt nicht dazu aus Erfahrungen, ist aber sehr schnell, fleißig, präzise und zuverlässig beim Auswerten der riesigen und ständig aktualisierten …

Warum nicht alles intelligent ist, was sich intelligent nennt Weiterlesen »

Ob im Focus, der FAZ oder in der Zeit: Wissenschaftler, Philosophen und Naturwissenschaftler überschlagen sich darin, die Gefahren künstlicher Intelligenz aufzuzählen. Aber stimmt das? von Georg-Ludwig Verhoeven Gemäß „Moore’s Law“ verdoppelt sich die Komplexität integrierter Schaltkreise etwa alle zwei Jahre, und damit die Komplexität der Aufgaben, die sie bearbeiten können. Das gilt auch für Systeme mit Künstlicher Intelligenz – und wird Folgen haben. Ein zufälliger Blick in den medialen Blätterwald zeigt die Mannigfaltigkeit, mit der vor allem mit Sorge auf die Zukunft geschaut wird. Durch die Fortschritte bei künstlicher Intelligenz •    fahren unsere Autos bald autonom, wodurch es weniger oder gar keine Unfälle mehr gibt. Aber was wird aus den Taxi- und LKW-Fahrern, die diese Aufgaben bisher übernehmen? •    werden kranke und pflegebedürftige Menschen bald durch Roboter gepflegt, die 24 Stunden an sieben Tagen in der Woche arbeiten können. Aber was machen die Pflegekräfte dann? •    sind Computer …

Läutet Künstliche Intelligenz das Ende der Spezies Mensch ein? Weiterlesen »