Digitalisierung hin oder her: Auch künftig werden Führungskräfte Menschen führen – und keine Maschinen oder Algorithmen. Das sollten sie sich immer wieder ins Bewusstsein rufen. Barbara Liebermeister, Leiterin des Institut für Führungskultur im digitalen Zeitalter (IFIDZ), zeigt in 12 Thesen, wie es klappt.

In dieser „Fortsetzungsgeschichte“ beschäftigt sich Barbara Liebermeister mit den Herausforderungen, die sich aus der Altersstruktur in heutigen Betrieben für die Führungskräfte ergeben. Sie stellt darin die heutige Situation dar, analysiert, wie sie entstanden ist und gibt Hinweise, wie die Führungskräfte damit konstruktiv und kreativ umgehen können.

Wie mit der modernen Blockchain-Technologie unsere Privatsphäre wieder geschützt werden kann. Von Michael Mörike In der Internetwelt gibt es zwei gegenläufige Trends: Einerseits greifen Unternehmen mehr und mehr Daten von uns ab und verdienen damit Geld. Wir geben die Daten ziemlich freiwillig her – um nicht zu sagen ziemlich leichtfertig – ohne dafür eine angemessene Gegenleistung zu bekommen. Dabei wird unsere Privatsphäre immer kleiner. Andererseits werden immer neue gesetzliche Schutzmechanismen für unsere Privatsphäre erlassen, die wir eher als zusätzlichen Aufwand denn als wirklichen Schutz empfinden. Neuestes Beispiel in der EU ist die DSGVO. Aber auch anderswo gibt es solche Bestrebungen. Ist uns unsere Privatsphäre so unwichtig?

Vor zwei Wochen stritten unsere Blogger Michael Mörike und Georg Ludwig Verhoeven darüber, ob Maschinen und Roboter Ethik lernen können. Heute antwortet Prof. Dr. Karsten Weber, Ko-Leiter des Instituts für Sozialforschung und Technikfolgenabschätzung an der OTH Regensburg. Von Prof. Dr. Karsten Weber In seinem Maßstäbe setzenden Aufsatz „Computing Machinery and Intelligence“ aus dem Jahr 1950 schlug der britische Mathematiker Alan M. Turing einen Test vor, mit dessen Hilfe entschieden werden könne, ob eine Maschine intelligent sei bzw. denken würde – allerdings muss das Wort „denken“ in diesem Kontext in Anführungszeichen gesetzt werden. Die Idee Turings ist so einfach wie genial: Gelänge es einer Maschine in diesem Test nicht als Maschine identifiziert, sondern für einen Mensch gehalten zu werden, so hätte diese Maschine den Turing-Test bestanden: Die Maschine wäre „intelligent“ oder „denkt“. „Denken“ heißt im Kontext des Tests bestimmte kommunikative Fähigkeiten zu besitzen, ohne dass damit bereits unterstellt werden würde, …

Pro und Contra: Kann man Maschinen und Robotern Ethik beibringen? (3) – von Prof. Dr. Karsten Weber Read more »

Die HumanIThesia-Blogger Michael Mörike und Georg Ludwig Verhoeven streiten über die Frage, ob Maschinen und Roboter eines Tages auch Ethik lernen können. In der vergangenen Woche sagte Michael Mörike ja, heute sagt Georg Ludwig Verhoeven nein. Von Georg Ludwig Verhoeven Menschen sollen „moralisch“ handeln. Das bedeutet, sie haben gewisse Maximen akzeptiert und richten ihr Handeln danach aus. Offensichtlich ist das aber nicht so einfach wie es klingt, denn es gibt viele Situationen, in denen ein Mensch in einer Weise handeln, die er selbst „moralisch“, andere aber „umoralisch“ finden. Aber können Maschinen auch „moralisch“ handeln? Fest steht: Ihre Leistungsfähigkeit wächst exponentiell – da müsste doch irgendwann genug Leistung zusammenkommen, um neben komplexen Algorithmen auch moralische Aspekte in den Systemen unterzubringen! Aber: Ich glaube nicht, dass das möglich sein wird – nicht aus technischen oder moralischen Gründen, sondern aus logischen und praktischen. Das will ich im Folgenden begründen. I Welche …

Pro und Contra: Kann man Maschinen und Robotern Ethik beibringen? (2) Read more »