Was Anführungszeichen mit unseren „Entscheidungen“ zu tun haben

Nur zwei kleine Anführungszeichen sind es, die auf ein wichtiges Thema hinweisen. Wenn autonome Systeme „entscheiden“, dann steht „entscheiden“ in Anführungszeichen – so zumindest in den Ethik-Leitlinien zum autonomen Fahren, welche Bundesverfassungsrichter Udo Di Fabio mit einer Kommission erarbeitet hat. Aber warum Anführungszeichen, wenn wir immer mehr davon lesen, dass Künstliche Intelligenzen (immer mehr) „entscheiden“ (werden) und andere die Frage stellt, wie man diese „Entscheidungen“ kontrollieren, überprüfen, einschränken, determinieren kann. Auch bei der CS“R“-Berichterstattung (schon wieder ein Anführungszeichen!) beginnt KI Einzug zu halten. Kein Wunder, bei all den Daten und Issues. Aber auch für die Materialitätsanalyse entstehen entsprechende Tools. Kein Wunder bei all den Stakeholdern.

Warum diese entfremdenden und distanzierenden Anführungszeichen zum „Entscheiden“ von sogenannten autonomen Systemen?

 

KI und Wir – immer ähnlicher

Schließlich nähern sich die Fähigkeiten künstlicher Intelligenzen doch rapide unseren Alltagsaufgaben in zahlreichen Zusammenhängen an – nicht nur beim Autofahren, sondern auch im Recruiting Prozess, schon länger im Banking, beim „Kundenmanagement“, und immer noch begeisternd ist die künstliche Intelligenz, die den Weltmeister im GO schlägt und das Spiel auch noch im Trial and Error System gelernt hat. Was in Zeiten der EDV (bis einschließlich Excel) noch ein Dreischritt war (Eingabe – Verarbeitung – Ausgabe) unterliegt zwei Veränderungen: Aus Eingabe und Ausgabe von Daten wird Wahrnehmung und Verhalten. Wahrnehmung durch Sensoren, die hören, sehen und tasten und Verhalten durch Lautsprecher, Beamer und Roboterarme. Aus der mechanischen Verarbeitung schließlich werden algorithmische Prozesse, die – und das ist entscheidend – ziemlich genau Ähnlichkeiten in großen Datenmengen erkennen und sich durch Rückkopplungen, Feedbacks und Erfahrungen weiter entwickeln. Sie können also so etwas wie „lernen“.

 

Lernen und Intelligenz

Darin liegt zwar so wenig Intelligenz, dass manche Technik-Profis sich wünschten, der Begriff „Künstliche Intelligenz“ wäre nie geprägt worden, weil er jetzt so viele Ängste auslöst. Aber darin liegt gleichzeitig so viel Ähnlichkeit mit unserem alltäglichen Verhalten, dass wir in einem humanoiden Roboter gleich ein menschenähnliches Wesen vermuten, das irgendwann so schlau wird, wie wir. Schließlich reden wir ja auch mit unseren Autos und Computern – vor allem dann, wenn sie sich „entscheiden“, nicht so zu funktionieren, wie wir das wollen.

 

Hund – KI – Mensch

Das gilt übrigens auch für Hunde: Algorithmen werden nicht programmiert, sondern trainiert – wie die Vierbeiner. Beide sind nicht einfach nur mechanische Werkzeuge, sondern interagieren mit ihren Herrchen und Frauchen. Und es gibt Anwender bzw. Hundeführer, welche diese Titel gar nicht verdienen, weil der Anwender die Maschine und der Hundehalter den Hund nicht versteht und gar nicht führen kann. Beides soll ja auch bei Autos vorkommen.

Menschen lernen und ab einem bestimmten Reifegrad, behaupten wir, dass sie Dinge entscheiden. Auch Hunde lernen und mancher Hundehalter meint, sein Dackel würde Entscheidungen treffen. Und so ist es auch mit der KI – diese ist so eigenständig, dass manche meinen, sie würde „entscheiden“.

 

Wo liegt der Fehler? Es ist das Verständnis von „Entscheidung“.

Wo liegt der Fehler? „Entscheidung bezeichnet den (freien) Entschluss von einzelnen oder von Gruppen, mit dem man aus verschiedenen Handlungsmöglichkeiten eine als die eigene ergreift und sich dadurch zu einem Tun oder Lassen bestimmt. … Mit der Zurückführung seiner Handlungen auf Entscheidungen wird der Mensch zum Ursprung seines Tuns, für das er deshalb Verantwortung trägt, …“ schreibt der Philosoph Otfried Höffe im Lexikon der Ethik. Nicht die körperliche Bewegung am Lenkrad oder am Gaspedal macht mein Autofahren zur Entscheidung, sondern die Rückführung dieser Handlung auf mich selber und die Übernahme der Verantwortung dafür. Auch die Verantwortung für das Verhalten eines Hundes liegt weder beim Hundezüchter noch beim Hund, sondern beim Hundehalter. (Zumindest war das mal so.) Nicht immer treffen wir nach langen Überlegungen bewusste Entscheidungen. Unser Alltag ist gemischt aus wenigen Entscheidungen und vielen Routinen. Das gilt vom Essen bis zum Autofahren. Solange wir uns aber wechselseitig für verantwortlich halten für unsere Einkäufe und unsere Betätigung des Gaspedals, solange sind dies unsere Entscheidungen, auch wenn sie mehr oder minder unbewusst ablaufen. Wirkliche Selbst-Bestimmung mittels durchdachter und sorgfältig abgewogener Entscheidungen ist natürlich ein Leitbild und keine empirische Tatsache.

 

Algorithmen alt und neu

Das Rechtssystem als der große gesellschaftliche Algorithmus ist nicht dafür da, bessere Entscheidungen zu erzeugen, sondern menschliche Entscheidungen zu kanalisieren und Entscheidungswillkür einzugrenzen. Die freiwillige Wahl des Menschen und Unternehmens, seine „Willkür“ im positiven Sinne, soll eingeschränkt werden. Verzweifelt versuchen manche mit Hinweis auf Selbstbestimmungs- oder Eigentumsrechte Räume für eigene Wahl und damit Willkür, Räume für Innovation und selbst bestimmten Unsinn zu erhalten oder zu erweitern.

Die Moral, das Recht und andere Institutionen versuchen, aus Willkür und Unplanbarkeit so etwas wie geplante Abläufe, Routinen und Erwartungssicherheit zu erzeugen. Würde man die Prozesshandbücher, die geschriebenen und ungeschriebenen, großer Unternehmen ausdrucken, wären auch das eindrucksvolle Beispiele der Reduktion von Entscheidungswillkür – nicht selten zur Klärung von Verantwortlichkeit und Haftungsvermeidung.

Der Hund ist trainiert, wenn aus der wiederholten Belohnung für „Still sitzen bei Fremdhundbegegnung“ eine Routine geworden ist. Und die Human-Resources-KI kann eigenständig werden, wenn die Vorauswahl von Bewerbungen ein Qualitätsniveau erreicht hat, das als ausreichend empfunden wird.

Doch für Hunde sind und bleiben die Hundehalter verantwortlich. Für die KI-gestützten HR-Verfahren bleiben die Unternehmen verantwortlich, welche diese in ihrem Namen laufen lassen. Und natürlich können wir entscheiden, auf der Straße oder beim Einkauf nicht mehr entscheiden zu wollen, sondern dies einer App zu übergeben, der wir aus welchen Gründen auch immer vertrauen. Aber diese Übergabe der Entscheidungsmacht ist dann eben die Entscheidung.

 

Ein Blick in die Zukunft

Es wäre absurd, die neuen und kommenden technischen Möglichkeiten nicht zu nutzen. Aber: „Entscheiden“ ist (auch) ein wichtiger Terminus in der wechselseitigen Zurechnung (und Zumutung) von Verantwortung (nicht nur juristisch, sondern auch moralisch). „Entscheidungen“ sind immer menschliche Entscheidungen. Worum es geht ist ein Klärungsprozess: Was soll entschieden, was soll abgearbeitet und was soll statistischen Korrelationen oder dem Zufall überlassen werden? In zig-tausenden Kleinigkeiten werden wir diese Frage beantworten vulgo entscheiden müssen.
Welche Anteile unseres Alltags sind Entscheidungen und welche sind Routinen? Darüber nachzudenken, könnte das Selbstwertgefühl des einen oder anderen negativ beeinträchtigen. Weil es nämlich viel weniger ist, was wir wirklich entscheiden. Und weil wir mit guten Gründen diskriminieren, wer was entscheiden darf. Z.B. verbieten wir Menschen ohne Führerschein, sich ans Steuer zu setzen. Noch dürfen wir selber bestimmen, was wir einkaufen und essen. Aber das Leitbild des selber entscheiden dürfenden Konsumenten ist massiv unter Beschuss. Vielleicht werden mit Gründen irgendwann die Führerscheine von viel mehr Menschen eingezogen, weil sie so schlecht fahren, dass es die Maschine besser könnte. Vielleicht werden die Menschen in 100 Jahren auf uns zurückschauen und kopfschüttelnd sagen: Was man damals alles der Entscheidungs-Willkür des Individuums überlassen hat ….. da hat doch tatsächlich jeder Volltrottel ein Auto mit 150 km/h steuern dürfen. Unglaublich ! Oder sie werden von der guten alten Zeit träumen, in der Menschen noch selbstbestimmt ihre Einkaufstüte gefüllt und Mahlzeiten zusammengestellt haben. Wahrscheinlich stimmt beides.

 

KI und Nachhaltigkeitsbericht?

Schreibt eine KI dann auch den Nachhaltigkeitsbericht? Während jetzt sich noch manche wünschen, dass da mehr routinefähig wäre, dass man z.B. nicht mit schwammigen und widersprüchlichen „Risikobegriffen“ allein gelassen wäre, dürfte zumindest die Pflichtberichterstattung soweit standardisiert sein, dass sie auch die Mitverantwortung des Handels für die Lebensgewohnheiten der Menschen (Wertschöpfungskette downstream) definiert hat und vom Hungersensor über die Bestellung und Lieferung bis zur Gesundheitswirkung nach SDG3 (Gesundheit) als Unternehmens“verantwortung“ in KI-Prozesse überführt hat. Aber um „Verantwortung“ geht es bei CS“R“ dann ja schon lange nicht mehr, sondern um die Definitionsmacht von gesellschaftlichen Regelkreisen und Haftungsverteilungen.

 

Entscheidungen mit und ohne Anführungszeichen

Fast schon rührend altmodisch fordert Udo Di Fabio fürs autonome Fahren, dass es auch in der KI-Zukunft noch Mensch-Gesteuerte-Automobile geben müsse, auch wenn diese dann die algorithmengesteuerten Verkehrsströme störten. Wir werden die Entwicklung nicht verhindern können. Aber wir können kleine Akte des Widerstands vollziehen, und das Wort „Entscheiden“ in Anführungszeichen setzen, wenn von KI die Rede ist. Das ist kein Symbol gegen moderne Technik, sondern ein Hinweis auf den Unwillen von Menschen, menschliche Entscheidungen einschließlich der dazu nötigen Freiheit und Willkür, zuzulassen und ggf. andere ex post zur Verantwortung zu ziehen.

Auf Dauer ist die Frage nicht, was die KI kann oder nicht kann. Alles was Routinen sind, wird früher oder später Gegenstand von KI werden. Die Frage lautet vielmehr: Was wollen wir als Routinen behandeln und was eben nicht. Der Rest sind dann Entscheidungen – durch Menschen und ohne Anführungszeichen.

 

HINWEIS:
Eine gekürzte Fassung des Textes erschien zuerst im Magazin Verantwortung – Magazin für Nachhaltigkeits- und CSR-Manager, Ausgabe 3/2018 (26. Oktober 2018).
www.verantwortung-magazin.de

 

Der Autor

Prof. Dr. Joachim Fetzer

Prof. Dr. Joachim Fetzer lehrt Wirtschaftsethik (www.wirtschaftsethik.com) und ist Mitglied im Lenkungsausschuss von Sustainable Development Solutions Network – SDSN Germany (www.sdsngermany.de).

fetzer@dnwe.de

 

Ähnliche Beiträge

Prof. Dr. Stephan Grüninger und Prof. Dr. Nick Lin-Hi sind die beiden neuen Vorsitzenden des...

Korruption ist noch immer ein wichtiges Compliancethema nicht nur in Konzernen, sondern auch KMU....

Adam Smiths Forderung nach einer staatlich fixierten Zinsobergrenze Der Nationalökonom und...

Hinterlassen Sie eine Antwort