Haushaltsroboter unterstützen uns bald bei der täglichen Arbeit. Dafür brauchen sie Regeln. Aber welche? Diskutieren Sie mit uns! Von Michael Mörike Am Institut for Artificial Intelligence in Bremen werden momentan humanoide Roboter entwickelt, die kochen können. Noch ist es viel, was sie lernen müssen: Backen, Pizza zubereiten, Popcorn herstellen, Kaffee servieren, Tisch decken. Aber die Entwicklung und der Lernprozess dieser Haushaltsroboter geht mit großen Schritten voran: Wenn einer von ihnen etwas gelernt hat, können es im Handumdrehen auch die anderen, denn das Wissen und das Können wird einfach vom einen Roboter auf den anderen kopiert. Sobald die einfachen Handgriffe bei den blechernen Haushaltshilfen klappen, können sie lernen, ein 3-Sterne-Menü zuzubereiten und zu servieren. Doch nicht nur in Bremen arbeitet man an solchen Robotern. Der Markt ist riesig, zumal in vielen Haushalten täglich gekocht wird. Wenn Haushaltsroboter für jeden Einzelnen erschwinglich werden, werden in vielen Küchen bald nicht mehr …

Welche Regeln sollten für Roboter gelten? Weiterlesen »

Kritische Anmerkungen zu einem aktuellen Interview mit dem Leiter des Deutschen Forschungszentrums für Künstliche Intelligenz, Wolfgang Wahlster von Michael Mörike In der neuesten Ausgabe von „brand eins wissen“ ist ein großes Interview mit Wolfgang Wahlster, Leiter des deutschen Forschungszentrums für künstliche Intelligenz, abgedruckt. Seine Aussagen zur Gefahren der Künstlichen Intelligenz verdienen Widerspruch. Wolfgang Wahlster sagt im Interview unter dem Titel „Abstand halten“, dass KI nicht so schlimm sei, wie sie von anderen dargestellt würde: „Das ist diese Idee der Super-Intelligenz, die eines Tages in jeder Hinsicht intelligenter ist, als der Mensch, sodass sie die Kontrolle und die Macht an sich reißt.  Aber das ist Unsinn.“ Er begründet seine These mit vielen Beispielen, die zeigen, welche Fähigkeiten Künstliche Intelligenz heute noch nicht hat. Wahlster sagt zum Beispiel, dass künstliche Intelligenz heute noch keine sensomotorischen Fertigkeiten wie ein Mensch besitzt: „Wir brauchen zum Beispiel sensomotorische Fähigkeiten – und keine Roboterhand …

Gefahren der KI: Wenn er sie nicht nennen kann, wer dann? Weiterlesen »

Der Begriff Künstliche Intelligenz ist aktuell in Mode. Aber halten die Produkte, die mit KI arbeiten, was sie versprechen bzw. was wir von ihnen erwarten? Die Antwort kann nur ein klares „Jein“ bzw. „kommt drauf an“ sein. Von Georg-Ludwig Verhoeven Wir empfinden unsere Navigationssystem im Auto als „intelligent“: Nicht nur schlägt es uns eine optimale Fahrtroute vor, sondern es nennt uns auch die voraussichtliche Ankunftszeit, informiert uns, wenn es Störungen auf dem Weg gibt und schlägt eine Alternativroute vor. Doch nicht nur das: Es nennt uns wichtige Punkte am Weg, Tankstellen, Radarkontrollen und vieles mehr. Aber ist das Navigationssystem deswegen „intelligent“? Das ist Definitionssache. Gängige Definitionen von „Intelligenz“ beinhalten immer das Lernen aus gemachten guten oder schlechten Erfahrungen. In dem Sinne ist das Navigationssystem nicht „intelligent“, denn es lernt nicht dazu aus Erfahrungen, ist aber sehr schnell, fleißig, präzise und zuverlässig beim Auswerten der riesigen und ständig aktualisierten …

Warum nicht alles intelligent ist, was sich intelligent nennt Weiterlesen »

Ob im Focus, der FAZ oder in der Zeit: Wissenschaftler, Philosophen und Naturwissenschaftler überschlagen sich darin, die Gefahren künstlicher Intelligenz aufzuzählen. Aber stimmt das? von Georg-Ludwig Verhoeven Gemäß „Moore’s Law“ verdoppelt sich die Komplexität integrierter Schaltkreise etwa alle zwei Jahre, und damit die Komplexität der Aufgaben, die sie bearbeiten können. Das gilt auch für Systeme mit Künstlicher Intelligenz – und wird Folgen haben. Ein zufälliger Blick in den medialen Blätterwald zeigt die Mannigfaltigkeit, mit der vor allem mit Sorge auf die Zukunft geschaut wird. Durch die Fortschritte bei künstlicher Intelligenz •    fahren unsere Autos bald autonom, wodurch es weniger oder gar keine Unfälle mehr gibt. Aber was wird aus den Taxi- und LKW-Fahrern, die diese Aufgaben bisher übernehmen? •    werden kranke und pflegebedürftige Menschen bald durch Roboter gepflegt, die 24 Stunden an sieben Tagen in der Woche arbeiten können. Aber was machen die Pflegekräfte dann? •    sind Computer …

Läutet Künstliche Intelligenz das Ende der Spezies Mensch ein? Weiterlesen »

Können Roboter ethische Rahmen stecken? Von Michael Mörike Wenn wir Roboter mit KI bauen, bringen wir ihnen nützliches Handeln bei: wir lehren sie, richtig zu handeln. In manchen Situationen kann nützlich dann auch „ethisch richtig“ bedeuten. Als Thema ist es nun in der Ingenieurwissenschaft angekommen – speziell in der KI. Sie macht die Erfahrung, dass es nicht immer einfach ist zu sagen, was eigentlich ethisch richtig ist und zieht Philosophen dazu. Ethisch richtig ist Handeln, wenn es nicht nur wenigen nützt und anderen schadet, sondern die Rechte aller Betroffenen achtet und möglichst vielen Menschen nützt oder wenigstens nicht schadet. Wenn es dabei auch die Lebensqualität der Menschen steigert, nennen wir es humane Nutzung der IT – hier der KI. Was ethisch richtig ist, bestimmt der Mensch. Eine Maschine kann dies nicht. Was dem Menschen nützt, was ethisch richtig ist und die Lebensqualität steigert, hat sich zusammen mit den …

Können Roboter ethische Rahmen stecken? Weiterlesen »