Immer mehr Entscheidungen, immer mehr Informationen – diese Kombination lähmt Führungskräfte. Das ist das Ergebnis einer aktuellen Studie. Bemerkenswert: Mehr als 70 Prozent würden schwierige Entscheidungen am liebsten an einen Roboter delegieren. Jenseits der Möglichkeit solcher Roboter stellt sich die Frage: Was sagt diese Präferenz eigentlich über uns Menschen aus? Über gute Gründe – und bedenkenswerte Folgen.

In einer weltweiten Studie hat der IT-Konzern Oracle mehr als 7.000 Führungskräfte und die gleiche Anzahl von Angestellten befragt: Fast Dreiviertel gaben an, dass sich die Anzahl der Entscheidungen in den letzten drei Jahren verzehnfacht habe. Gleichzeitig fühlen sich 78% der Befragten “bombardiert” von immer mehr Daten aus immer mehr Quellen. In der Konsequenz sehen sich viele Führungskräfte im “Entscheidungsdilemma”: Weil sie nicht wissen, an welchen Informationen und Quellen sie sich verlässlich orientieren können, vermeiden sie Entscheidungen entweder ganz – oder bereuen diese im Nachhinein. 85% der Führungskräfte geben an, dass diese Situation sie belastet.

70% der Führungskräfte (und insgesamt 64% der Befragten) würden diesen Zustand gern überwinden und äußern die Präferenz “[to] have a robot make their decisions”. Es geht ihnen also nicht um eine roboter- bzw. KI-geleitete Unterstützung im Entscheidungsprozess. “Make decisions” bedeutet unmissverständlich Delegierung an die KI – Maschine entscheidet, Mensch exekutiert. Dieses Ergebnis mag auf den ersten Blick irritieren. Es ist aber aus mindestens drei Gründen nachvollziehbar:

Erstens schätzen wir es zwar grundsätzlich, selbst Entscheidungen treffen zu können. Konkret gehen damit aber kognitive Anstrengungen einher. Und je mehr Entscheidungen wir fällen sollen, umso größer das Erschöpfungsrisiko, Stichwort “decision fatigue”. Der Wunsch nach Entlastung kommt also nicht von ungefähr.

Zweitens nimmt nicht nur die Zahl der Entscheidungen zu. Auch die Ansprüche steigen: Führungskräfte sollen immer nachhaltiger, informierter und integrativer handeln. Aber gleichzeitig schneller und verlässlich entscheiden. Kurzgefasst: Sie sollen immer mehr immer rascher immer besser machen. Und allen Sonntagsreden um Fehlertoleranz und Authentizität zum Trotz: Wer einen Fehler zugibt oder Unsicherheiten erkennen lässt, muss eher mit einem Shitstorm als einer Sympathiewelle rechnen. Die Beispiele in Unternehmen und Organisationen sind einschlägig.

Drittens erodiert das allgemeine Vertrauen in “die anderen”. Immer häufiger ist zu hören, “der Mensch” sei halt zu naiv, egoistisch oder einfältig, um komplexe Herausforderungen in der Gemeinschaft zu lösen. Gleichzeitig steigt der Handlungsdruck: Klimawandel, sozialer Zusammenhalt, Wettbewerbsfähigkeit – überall ist es kurz vor zwölf, die letzte Chance, der Scheideweg. Und nirgends sind echte Durchbrüche in Sicht. Umso mehr wächst der Wunsch nach einer kompetenten und zugleich fairen Instanz, die uns von unseren Unzulänglichkeiten befreit und uns vom Wollen ins Handeln bringt. Die Utopie vom “wohlmeinenden Diktator” lässt grüßen.

Hand aufs Herz: Wer hätte nicht schon einmal über die Vorzüge einer solchen Instanz nachgedacht? ChatGPT baut uns bereits eine Brücke und bietet plausibel klingende Antworten auf komplexe Fragen an. Die Diskussion zu den damit einhergehenden Chancen und Risiken ist einschlägig, siehe auch WZGE-Standpunkt “(Wie) Ist ChatGPT zu gebrauchen?”. Aber jenseits der Diskussionen von ermöglichenden und beschränkenden Bedingungen für KI, über rechtliche Normen und technische Standards hinaus wirft das Umfrageergebnis eine andere Frage auf: Wenn Führungskräfte aus freien Stücken, mehrheitlich und begründet eine Delegierung schwieriger Entscheidungen an Roboter wünschen, wird darüber zu entscheiden sein. Umso wichtiger ist es, den Gründen für eine solche Entscheidung deren Folgen entgegenzustellen. Und zwar aus der Führungsperspektive:

 

(1)   Mehr Entlastung bedeutet weniger Autonomie

Entlastung ist nicht zum Nulltarif zu haben. Wer Führung abgeben will, muss auch bereit sein, zu folgen. Entscheidungen an eine KI zu übertragen heißt, sich ex-ante an Ergebnisse zu binden, die man selbst nicht (mehr) beeinflussen kann. Der Preis der Entlastung liegt also im Verlust von Autonomie. Und wirft damit unweigerlich die Frage neuer Belastungen auf: Einerseits muss eine schwierige Entscheidung zwar nicht mehr selbst verantwortet werden. Andererseits muss man sich der Entscheidung eines Systems dann beugen – ob sie einem gefällt oder nicht. Dabei geht es auch um die Autonomie künftiger Führungsgenerationen: Denn je mehr Führungskräfte schwierige Fragen an Roboter delegieren, umso weniger erhalten und fördern sie ihre eigenen Entscheidungskompetenzen. Und je weniger künftige Führungsgenerationen auf dieses menschliche Erfahrungswissen zurückgreifen können, umso mehr müssen sie sich auf die KI verlassen.

 

(2)   Wer nicht mehr entscheidet, führt auch nicht mehr

Das zentrale Merkmal, das eine Führungskraft auszeichnet, ist zweifellos die Bereitschaft und Fähigkeit, andere zu führen. Oder anders formuliert: Wer Entscheider*in sein und bleiben möchte, muss entscheiden. Wer Entscheidungen an Roboter delegieren will, muss konsequenterweise den eigenen Führungsanspruch hinterfragen. Und damit die Relevanz der eigenen Position. Denn die reine Übermittlung einer KI-generierten Entscheidung “degradiert” die Führungskraft zum Botschafter. Doch warum sollten sich Institutionen, Organisationen und Unternehmen noch Führungskräfte leisten, die nicht mehr selbst entscheiden? Wozu bräuchte es überhaupt Botschafter, die eine “KI-gemachte” Entscheidung übermittelten? Denn gerade in der Kommunikation zeigen Bots wie ChatGPT bestimmte Stärken.

 

(3)   Akzeptanz lässt sich nicht programmieren

Führung beschränkt sich aber gerade nicht darauf, Entscheidungen zu fällen und zu verkünden. Vor allem muss sie Menschen dafür gewinnen, diese Entscheidungen mit umzusetzen. Die Realität zeigt: Ein beschlossener Change-Prozess führt nicht automatisch zur erfolgreichen Veränderung. Ein abgestimmtes Gesetzesvorhaben nicht zwangsläufig zu einem funktionierenden Gesetz. Denn je mehr eine Entscheidung mit Zumutungen einhergeht, umso mehr hinterfragen die Betroffenen deren Gründe. Und verlangen Einspruchsmöglichkeiten. Warum sollten Menschen darauf verzichten, nur weil eine Entscheidung von einer KI getroffen und kommuniziert wurde? Fakten allein “führen” jedenfalls nicht automatisch zur Akzeptanz von Zumutungen. So ringen wir trotz eines umfassenden Konsens über die Fakten der Klimaerwärmung um richtige Schritte. Und wir werden diese Schritte kaum durch die eine KI entscheiden und umsetzen lassen können. Vielmehr zeigt sich, dass verschiedene Interessengruppen unterschiedliche KI-gestützte Tools zur Durchsetzung ihrer Präferenzen und der Abwehr von Zumutungen einsetzen. Wir sollten uns also auf einen Wettbewerb mehrerer KIs um “Wahrheit” und Meinungsführerschaft einstellen, anstatt allgemein akzeptierte Entscheidungen durch Roboter zu erwarten.

 

Fazit: Der Wunsch nach Entlastung in der Führung ist nachvollziehbar. Auf den wohlmeinenden Roboter sollten wir dabei aber nicht bauen. Tatsächlich führt eine Delegierung von Entscheidungen an KI in folgende Sackgasse: Das Akzeptanzproblem bleibt fortbestehen, da Interessenkonflikte sich allenfalls verlagern. Die Technologie kann eben für und gegen Entscheidungen eingesetzt werden. Allerdings können Führende die damit einhergehenden Konflikte umso weniger verstehen und beeinflussen, je mehr sie Entscheidungen an die KI delegieren und damit ihr Mandat abgeben. Wir sollten also daran festhalten, KI-Systeme als Unterstützung – und nicht als Ersatz – für menschliche Entscheidungen zu nutzen.

 

HINWEIS:
Der Text erschien als aktueller Standpunkt unter:
https://www.wcge.org/de/veroeffentlichungen/wzge-standpunkt/aktuelles/719-sind-gute-entscheidungen-vorprogrammiert

 

Die Autoren

Dr. Martin von Broock

Dr. Martin von Broock (Jahrgang 1975) studierte Betriebswirtschaft, Politik, Publizistik und öffentliches Recht in Göttingen. Nach seinem Abschluss als Dipl.-Sozialwirt (2001) arbeitete er mehrere Jahre in einer internationalen Kommunikations- und Politikberatung für Unternehmen und Verbände aus den Branchen Finanzen, Immobilien und Energie sowie verschiedene Bundes- und Landesministerien. 2011 schloss er seine Promotion am Lehrstuhl für Wirtschafts- und Unternehmensethik an der HHL Leipzig Graduate School of Management ab. Seit 2012 ist er Mitglied des Vorstands am Wittenberg-Zentrum für Globale Ethik (WZGE), seit 2014 dessen Vorsitzender. Für Branchen, Unternehmen und ihre Stakeholder entwickelt er national und international Dialogprozesse und Projekte, die sich mit der moralischen Qualität der Marktwirtschaft, unternehmerischer Verantwortung und werteorientierter Führung befassen.

 

Prof. Dr. Andreas Suchanek

Prof. Dr. Andreas Suchanek ist Inhaber des Dr. Werner Jackstädt-Lehrstuhls für Wirtschafts- und Unternehmensethik an der HHL-Leipzig Graduate School of Management und Vorstandsmitglied des Wittenberg-Zentrums für Globale Ethik. Er studierte VWL an den Universitäten Kiel und Göttingen. Wichtigste Veröffentlichungen: Ökonomische Ethik, Tübingen 20072, Unternehmensethik. In Vertrauen investieren, Tübingen 2015

 

Ähnliche Beiträge

Sie forschen und lehren gemeinsam zu verantwortungsvollem und nachhaltigem Produzieren und...

Eine Plattform für den Austausch von Ideen, Forschungsergebnissen und Visionen für eine...

Die HHL Leipzig Graduate School of Management bewertet zum elften Mal die Finanzberichterstattung...

Hinterlassen Sie eine Antwort