Wie KI in der Suizidprävention helfen kann. Ein Gastbeitrag von Astrid Fischer Was für eine seltsame Vorstellung, dass künstliche Intelligenz uns Menschen dabei helfen soll, den Weg zurück ins Leben zu finden. Die Rede ist von Suizidprävention mittels Facebook, Google und Co. und es zeigt sich bei näherer Betrachtung, dass lange nicht alle Ideen ethisch schlecht sein müssen und dass manche Überlegungen große Potenziale mit sich bringen. Tatsächlich arbeiten die Riesen aus Silicon Valley schon seit einer Weile an digitaler Unterstützung in der Suizidprävention. So gab Facebook im Herbst 2017 den amerikanischen Rollout eines Algorithmus bekannt, der in der Lage ist, die Stimmung eines Menschen anhand seiner geposteten Fotos und Texte einzuschätzen. Hat der Algorithmus eine Person als vermeintlich suizidal erkannt, wird ein Hinweis auf Hilfsangebote ausgespielt. Laut einem Bericht von CNBC hat Facebook seit dem Start des Algorithmus‘ diesen Hinweis doppelt so häufig ausgegeben, als zuvor. Was …

Alexa, zeige mir den Weg zurück ins Leben! Weiterlesen »

Künstliche Intelligenz wird heute bereits von Herstellern zum Download angeboten. Und niemand weiß, wie diese Systeme tatsächlich lernen. von Georg-Ludwig Verhoeven Im oft hochgesicherten „Giftschrank“ werden üblicherweise Gegenstände aufbewahrt, von denen eine Bedrohung ausgeht, wenn sie in die falschen Hände geraten. Gifte, die in der richtigen Dosis heilen, in der falschen töten, aber auch andere gefährliche Substanzen und Gegenstände wie Viren, radioaktive Präparate oder Bücher und Dokumente, die einem bestimmten Personenkreis gefährlich werden können, wenn sie an die Öffentlichkeit geraten. Nur mit besonderer Qualifikation, oft mit behördlicher Genehmigung und nach ausgiebiger Überprüfung, hat man Zugang zu den Inhalten des Giftschranks. Wenn wir heute lesen, was KI alles anrichten kann, wenn sie „freigelassen“ wird, dann läuft uns ein Schauer über den Rücken: KI steuert Autos, die im Zweifelsfall selbständig entscheiden, wer bei einem Unfall getötet wird; KI wertet Personalakten aus, die über den Arbeitsvertrag und damit die Zukunft eines …

Welche KI muss in den Giftschrank? Weiterlesen »

KI zählt zu den zentralen Zukunftsthemen. Die technologischen Entwicklungen haben in den letzten Jahren rasant an Fahrt aufgenommen und nehmen Einfluss auf immer mehr Lebensbereiche. Die scheinbar unbegrenzten neuen Möglichkeiten werden dabei auch begleitet von technischen, sozialen, rechtlichen und nicht zuletzt ethischen Herausforderungen. Diese Dimensionen wird der Verband bwcon nun mit der Integrata-Stiftung in einer neuen „Special Interest Group Künstliche Intelligenz“ thematisieren. Gerade im Südwesten gibt es zahlreiche Unternehmen, die sich mit Möglichkeiten der KI beschäftigen oder diese bereits einsetzen. Die SIG KI möchte den institutionellen Austausch im Rahmen der bwcon zwischen Unternehmensvertretern verschiedener Branchen ermöglichen und fördern. Für Mitglieder der bwcon ist die Veranstaltung kostenfrei. Weiterführende Links Neue Special Interest Group KI in Stuttgart Veranstaltung auf Facebook

Das Humanithesia-Team tourt auch im Jahr 2018 durch das Land, um über ethische Herausforderungen bei künstlicher Intelligenz zu sprechen. In der vergangenen Woche war der Vorstand der Tübinger Integrata-Stiftung, Michael Mörike, im Stuttgarter Augustinum, um mit Senioren zu diskutieren – und Regeln für den Einsatz und zur Realisierung von Robotern und KI anzuregen. Die Präsentation von Michael Mörike können Sie sich hier herunterladen. Wenn Sie auch mit uns diskutieren wollen: Unsere nächste Veranstaltung ist der Workshop „Wie muss Technik?“ im März in Berlin. Weiterführende Links: Vortrag von Michael Mörike [PDF] Workshop „Wie muss Technik“?

Wie soll der Gesetzgeber mit den Entwicklungen im Bereich KI umgehen? Wollen wir „Digital first, Bedenken second“? Politische Leitlinien zum Jahreswechsel. Von Georg Ludwig Verhoeven Im aktuellen Lagebericht des Bundesamts für Sicherheit in der Informationstechnik vom November 2017 beklagt der deutsche Innenminister Thomas de Maizière, dass „große Teile der Wirtschaft, aber auch Verwaltung und Privatleute“ nicht ausreichend gegen Cyberangriffe geschützt sind und so kriminellen Geschäftsmodellen das Leben leicht machen. Als einen Grund hierfür macht er aus: „Bequemlichkeit hat zu oft Vorrang vor Sicherheit“. Also liegt die Schuld beim User, beim Bürger selbst? In diesem Lagebericht geht es vorrangig um Schadsoftware und wie man sich dagegen schützen kann / soll / muss. Interessant dabei: Das Thema Künstliche Intelligenz kommt in diesem Bericht nicht vor. Da darf man fragen: Muss erst ein KI-Angriff vom Format eines WannyCry stattfinden, muss erst massiver Schaden entstehen, ehe sich Politik und Gesetzgeber darum kümmern? …

Ethik und KI: Was muss der Gesetzgeber im Jahr 2018 ändern? Weiterlesen »