• Ob Künstliche Intelligenz (KI) nutzt oder schadet, wird von gesellschaftlichen Lernprozessen abhängen. Nicht die Technik ist entscheidend, sondern deren Einbettung in Anwendungskontexte.
  • Die Frage, wem (Menschen als natürliche Personen) oder was (juristische Personen) Entscheidungsfähigkeit zugesprochen wird, ist eine gesellschaftliche Festlegung. Es gibt keine vernünftigen Argumente, Maschinen eigenständige Entscheidungsfähigkeiten zuzugestehen. Die Risiken wären zu groß.
  • Algorithmen können keine Entscheidungen treffen. Nur Menschen entscheiden und tragen Verantwortung. Algorithmen sind komplexe technische Instrumente, die lediglich unterstützen. Menschen entscheiden, wie und wo Algorithmen in Handlungsroutinen zum Einsatz kommen.
  • „Algorithmen entscheiden nie“ – dieser Leitsatz ist in künftigen Lernprozessen wichtig. Er bildet das Gegengewicht zu bewusster oder versehentlicher Verschleierung von Verantwortlichkeit. Verantwortlichkeit jedoch ist Grundelement einer freien Gesellschaft.

 

1. Jenseits von Euphorie und Panikmache

Künstliche Intelligenzen, das Zusammenspiel von algorithmischen Verfahren und großen Datenkorpora, sind längst in den Alltag von Menschen und Unternehmen involviert – als Alexa und Siri, als Google-Maps und Smartphone-basierter Coach zur Gewichtsreduktion, bei der Kreditvergabe und mancherorts beim Steuerbescheid.

Zugleich werden, ohne dass unterschiedliche moralisch-politische Grundpositionen der Öffentlichkeit deutlich sind, gesellschaftlich und politisch relevante Fachdebatten geführt. Sie tragen verschiedene Überschriften wie „algorithmische Entscheidungsfindung“, „Automatisierung von Entscheidungen“, „Entscheidungsunterstützung durch Künstliche Intelligenz“. Maßgebliche Treiber dieser Debatten sind Verbände (VZBV 2017; bitkom/DFKI 2017), zivilgesellschaftliche Akteure1, Medien2 und Juristen, die Regulierungsmöglichkeiten diskutieren (Martini 2017), und neuerdings auch die EU-Kommission mit einer High-Level-Expert-Group für Künstliche Intelligenz (EU-COMM 2019). Zu selten fragt man jedoch, was eine Entscheidung zu einer Entscheidung macht.

Die hier vertretene These lautet, dass Algorithmen nicht entscheiden und auch nie entscheiden werden. Nicht weil der Mensch ihnen überlegen ist, sondern weil der Begriff Entscheidung – richtig verstanden – grundsätzlich nicht auf technische Systeme anwendbar ist (Abschnitt 3).

Was folgt in Zeiten von KI daraus für Politik und Gesellschaft, wenn man konsequent davon ausgeht, dass technische Systeme nicht entscheiden? Unter dieser Prämisse könnte der Umgang mit autonomen Systemen einen heilsamen Lernprozess befördern, der in diesem Text nur skizziert werden kann (Abschnitt 4).

Doch zunächst: Was ist das Neue an KI, und warum hat es den Anschein, als würden Algorithmen immer mehr „entscheiden“ (Abschnitt 2)?

 

2. Wie Algorithmen arbeiten und scheinbar „entscheiden“

Nicht jedes technische Gerät vermittelt den Eindruck zu entscheiden. Ein Taschenrechner etwa übernimmt Aufgaben, die er besser löst als die meisten Menschen. Trotzdem würde niemand behaupten, der Taschenrechner habe „entschieden“, dass die Wurzel aus 144 zwölf sei. Anders beim autonomen Fahrzeug: Wenn es eigenständig eine Fahrtroute wählt, ist die Anmutung seines Agierens dem beobachtbaren3 menschlichen Verhalten und seiner Anpassungs- und Lernfähigkeit sehr angenähert.

Was ist neu? Vereinfacht ist es die Weiterentwicklung der vom Taschenrechner bekannten elektronischen Datenverarbeitung (EDV). Deren Grundlogik besteht in drei Stufen: Eingabe (z. B. mittels Tastatur), Verarbeitung (z. B. Berechnung) und Ausgabe (auf Bildschirm, Papier oder anderweitig). Selbst wenn es sich nicht um eine einfache Berechnung, sondern um ein Konzern-Rechnungswesen handelt, bleibt die Grundstruktur unverändert: Input – Prozess – Output.

Bei KI entwickeln sich die drei Modellelemente weiter, und es wird ein viertes hinzugefügt: Die „Erfassung“ hat sich zur „Wahrnehmung“ fortentwickelt: Spracherkennung, Bilderkennung, logistische Daten, Daten aus Sensoren unter Einschluss von Tastsinn und Geruchserkennung vervielfältigen das, was früher „Eingabe“ hieß. Mit Gerüchen können Alarme ausgelöst werden, und das Wahrnehmungsfeld wird erheblich erweitert, wenn die Straßenlage mittels Sensoren im Auto 500 Meter weiter vorn wahrgenommen werden kann.

Auch die „Ausgabe“ hat sich von der Anzeige am Bildschirm oder der Ausgabe auf Papier zur „Handlung“ weiterentwickelt: Robotergreifarme oder Bewässerungssysteme ändern lernend ihr Verhalten, Fahrzeuge sind in der Lage, Geschwindigkeits- und Richtungswechsel vorzunehmen, Musikstücke werden aus vorhandenen Elementen „komponiert“.

Die „Verarbeitung“ zwischen Input und Output, zwischen „Wahrnehmung“ und „Verhalten“ besteht nicht mehr nur aus definierten Rechenschritten, sondern aus verschiedenen Verfahren: etwa statistisch-analytischer Art, aus definierten Prozessregeln oder derzeit hoch im Kurs stehenden Methoden des maschinellen Lernens.4

Die Verarbeitungs- und Speicherkapazität moderner Computer übertrifft die Möglichkeiten des einzelnen Menschen: Werden etwa im digitalen Posteingang Worte wie „Beschwerde“ und seine Varianten zuverlässig erkannt, sortiert das System die Nachrichten zum „Beschwerdemanagement“ (und nicht zum „Auftragseingang“). Eine solche „Entscheidung“ ist deutlich schneller als bei menschlicher Bearbeitung getroffen – wenn man es denn Entscheidung nennen will.

Zu den beschriebenen drei Erweiterungen kommt bei KI noch ein zusätzlicher Schritt: die Weiterentwicklung zum Lern- oder Trainingssystem. Die Erfahrungen mit den „Handlungen“ gehen wieder in das kognitive System5, in den Datenkorpus, ein und entwickeln dieses weiter. Daher wird – bei bestimmten Verfahren der KI, etwa beim maschinellen Lernen – von Training und nicht von Programmierung oder Codierung gesprochen. Das technische System verändert sich im Verlauf selbst. Es lernt selbstständig.

Eine solche Entwicklungsfähigkeit ist für Werkzeuge ungewöhnlich – und sie ist das revolutionär Neue an KI. Ein Hammer darf sich beim Hämmern nicht verformen. Er sammelt auch keine Erfahrungen. Ein Taschenrechner muss in stetig gleicher Weise verlässlich funktionieren. KI dagegen verändert sich im Laufe ihrer Nutzung. Sie wird scheinbar lebendig und nähert sich dem menschlichen Verhalten an.

Diese Lern- bzw. Entwicklungsfähigkeit begründet neue Interaktionsmuster im Umgang mit technischen Systemen, neue zu klärende Haftungsfragen, und es entstehen neue Berufsgruppen, deren Professionsethos sich erst herausbilden muss (vgl. das Digital-Design-Manifest, bitkom 2018).

 

Was bedeuten diese Entwicklungen für die Gesellschaft?

KI ist eine Basistechnologie, in ihrer Bedeutung vermutlich mit der Erfindung des Buchdrucks vergleichbar. In Verbindung mit anderen technologischen Entwicklungen, wie Robotik, hat KI das Potenzial, einen neuen Industrialisierungsschub auszulösen. Die eigentliche Herausforderung für die Gesellschaft durch Big Data und KI ist wahrscheinlich nicht der Verlust von Arbeitsplätzen, es sind auch nicht ökologische oder soziale Fragen. Vielmehr ist die größte Herausforderung, dass sich mit der breiten Nutzung algorithmischer Verfahren die gesellschaftlichen Entscheidungsprozesse und Entscheidungsroutinen neu justieren – inklusive der vorbereitenden, begleitenden oder kommentierenden Information und Kommunikation.

Gewohnte Routinen werden sich verändern oder in neue Bedeutungsrahmen einfügen. Dies hat Auswirkungen auf die Qualität von Entscheidungsprozessen, auf die Verantwortlichkeit für Ergebnisse, aber auch auf die durch Entscheidungsverfahren erzeugte Legitimität – nicht zuletzt im politischen Prozess.

 

3. Warum es wichtig ist, dass wir Algorithmen nicht zu Entscheidungsträgern machen

Begrifflichkeiten wie „algorithmischer Entscheidungsfindung“ oder „algorithmische Entscheidungsverfahren“ werden in der Regel unreflektiert hingenommen.

Wenn wir uns fragen, was die Formulierung „Algorithmen entscheiden“ bedeutet, gilt es zunächst, den Begriff „Entscheidung“ zu hinterfragen. Dann erst kann man prüfen, ob er auf technische Systeme anwendbar ist.

 

Was heißt „entscheiden“?

Was impliziert der Begriff Entscheidung? Eine treffende Beschreibung des Tübinger Philosophen Otfried Höffe lautet (Höffe 2002):

„Entscheidung bezeichnet den (freien) Entschluss von einzelnen oder von Gruppen, mit dem man aus verschiedenen Handlungsmöglichkeiten eine als die eigene ergreift und sich dadurch zu einem Tun oder Lassen bestimmt. Durch Entscheidungen entsteht im persönlichen und politischen Raum geschichtliche Wirklichkeit. Mit der Zurückführung seiner Handlungen auf Entscheidungen wird der Mensch zum Ursprung seines Tuns, für das er deshalb Verantwortung trägt, allerdings keine totale, da er den persönlichen und gesellschaftlichen Kontext seiner Entscheidung nicht mitsetzt (sh. Determination).

Als Entscheidung ist nicht bloß der örtlich und zeitlich punktuelle Akt der Beschlussfassung zu verstehen, sondern der ganze Prozess der Entscheidungsfindung, in dem oft auf eine problemorientierte Phase die lösungsorientierte folgt. […]“

Zunächst zum zweiten Absatz, zum Entscheidungsprozess: Wie ähnlich sind algorithmische Entscheidungsverfahren menschlichen Entscheidungen? Sind sie besser oder schlechter? Für algorithmische Verfahren werden Transparenz und Nachvollziehbarkeit gefordert. Fordern wir dies auch von menschlichen Entscheidungen? Verstehen wir menschliche Entscheidungsprozesse? Erkennen wir an, dass unsere Entscheidungen häufig von Routinen und Intuitionen geleitet sind! Wir treffen Bauchentscheidungen. Die Intelligenz des Unbewussten und die Macht der Intuition heißt ein Buch des Bildungsforschers Gerd Gigerenzer. Wer die dort beschriebenen Beispiele analysiert, wird feststellen, dass menschliche Entscheidungen oft auf Erfahrungswissen und schneller Mustererkennung beruhen – in gewisser Weise vergleichbar mit großen Datenmengen und algorithmischen Verfahren der Mustererkennung.6

Die technischen Möglichkeiten werden häufig unterschätzt und die Besonderheiten menschlicher Entscheidungsprozesse deutlich überschätzt.

Doch nun zum ersten Absatz:7 Was sehen wir eigentlich als Entscheidung an? Nicht jede Auswahl aus mehreren Möglichkeiten bezeichnen wir als Entscheidung. Zur Entscheidung wird eine Auswahl durch unsere Deutung: Wir rechnen diese Auswahl uns selbst zu. Wir übernehmen Verantwortung – als Einzelner oder als Gruppe. Die Debatte über die äußere und innere Freiheit von Entscheidungen ist immer auch, wahrscheinlich sogar zuallererst, eine Debatte darüber, welchen Stellenwert Verantwortung und Verantwortlichkeit als Zurechnungs- und Steuerungsmodus in einer Gesellschaft haben.8

Dies sei an einem Beispiel veranschaulicht: Stellen wir uns einen Sportler vor – einen Tennisspieler. Er schlägt in die falsche Richtung und vergibt den entscheidenden Ball. Hat er es entschieden? Oder hat er nur reagiert? Im entscheidenden Moment mag es sich als Reaktion angefühlt haben. Wenn er anschließend sagt, er habe einen Fehler gemacht, deutet er es als eigene „Entscheidung“, als selbstbestimmte Auswahl unter verschiedenen Möglichkeiten. Doch wie oft werden vermeintliche Umstände, der Wind oder schlechte Trainingsmöglichkeiten ins Feld geführt. Wir nennen es Sportsgeist, wenn jemand eingesteht: Ich war es – und niemand sonst. Auf diese Haltung – die Übernahme von Verantwortung – kommt es an.

Übertragen auf sogenannte algorithmische Entscheidungsverfahren bedeutet das: Selbst eine KI, welche alle Turing-Tests bestehen würde, deren beobachtbares Verhalten sich also in nichts von menschlichem Verhalten unterschiede, würde erst dann „entscheiden“ können, wenn die Gesellschaft entschieden hätte, sie als Person und verantwortliches Subjekt in die Gesellschaft aufzunehmen.

 

Es geht nicht um Begriffszuweisungen, sondern um eine Lebensform

Obwohl es im Umgang mit Computern, besonders wenn sie KI enthalten (z. B. in Form von Sprachassistenten) verführerisch ist, mit ihnen zu kommunizieren und sie wie menschenähnliche Subjekte zu behandeln, sollten wir sie auf keinen Fall als verantwortliche Subjekte gesellschaftlich anerkennen.

Es geht dabei nicht um Begriffszuweisungen, sondern um eine gesellschaftliche Lebensform, in der Menschen sich wechselseitig Freiheit zugestehen und daher Verantwortung zumuten.9

Die Frage nach der Diffusion und Zurechnung von Verantwortung in komplexen Systemen ist nicht neu. Ist ein Unternehmenschef stellvertretend für strafbare Handlungen des Unternehmens verantwortlich? Sind Mitarbeiter nur Ausführende, solange sie im Rahmen ihrer Befugnisse arbeiten? Sind Gruppenentscheidungen optimal, weil sie eine Vielzahl von Perspektiven einbringen oder werden sie als Instrument genutzt, um individuelle Verantwortung zu vermeiden? Beides gibt es. Wir delegieren Entscheidungen an Gruppen, reduzieren mittels rechtlicher Standardisierungen Entscheidungsspielräume, organisieren Enthaftung durch Compliance-Systeme usw. Die Delegierung von Entscheidungen (und Verantwortung) muss in der analogen wie in der digitalen Welt immer wieder ausgehandelt werden.

Die zunehmende Bedeutung von künstlichen Intelligenzen kann eine Versuchung sein, menschliche „Unwilligkeit“ zur Verantwortung durch Verantwortungsverlagerung in die KI auszuleben. Das Diktum „Algorithmen entscheiden nie“ ist deshalb wichtig, weil es in einem gesellschaftlichen Lernprozess, in dem wir alle (Konsumenten und Bürger, Unternehmen und Behörden, Politik und Justiz) den Umgang mit algorithmischen Entscheidungsprozessen lernen, die Suchrichtung bestimmt oder eine gefährliche Suchrichtung verhindert.

 

4. Wenn die Maschinen zu „lernen“ beginnen, müssen wir doch damit nicht aufhören

Neue Technologien und deren Einführung sind immer auch mit Gefahren verbunden.10 Die Gefahr der Verantwortungsvermeidung durch Verlagerung in KI ist ein systemisches Risiko. Ihm muss entgegengewirkt werden.

Mit der breiten Nutzung algorithmischer Verfahren werden sich gesellschaftliche Entscheidungsprozesse und Entscheidungsroutinen neu justieren – inklusive der vorbereitenden, begleitenden oder kommentierenden Information und Kommunikation. Die Herausforderung speist sich aus zwei Quellen: „Die eine besteht im Zusammenwirken von Mensch und Technik in soziotechnischen Systemen […]. Die andere ist das Problem der kollektiven Verantwortung, welches entsteht, weil es in soziotechnischen Systemen eine Vielzahl möglicher Verantwortungsträger gibt.“ (Misselhorn 2018, S. 135).

Diese Neuauflage zweier bekannter Herausforderungen ruft den Gesetzgeber auf den Plan, aber Regulierung wird den gesellschaftlichen Lernprozess nicht ersetzen oder überflüssig machen. Vier Aspekte dieses Lernprozesses sollen skizziert werden:

Die erste Aufgabe wird sein, zwischen intelligenten Routinen und wohlüberlegten aktiven Entscheidungen zu unterscheiden. Alles, was mit beschreibbaren Entscheidungsroutinen bearbeitet werden kann, wird künftig unter Zuhilfenahme großer Datenpools und Algorithmen ausgeführt werden. Wir stehen nicht vor der Frage, ob wir die Ersetzung von Entscheidungsroutinen durch KI-Prozesse wollen, sondern was wir an Routinen übergeben oder wo tatsächlich eine Entscheidung stattfinden soll – und von wem entschieden wird.

Mit der zunehmenden Verlagerung von Routinen in KI wird die Gesellschaft lernen müssen, an welchen Stellen vermeintliche Entscheidungen schon längst keine Entscheidungen im eigentlichen Sinne mehr sind, sondern nur noch die Abarbeitung früher getroffener Entscheidungen oder eingeübter Gewohnheiten.11

Beispiel: Ist die Erlaubnis der Einreise durch einen Grenzbeamten bei Vorliegen eines gültigen Passes und der Identifizierung der Person eigentlich eine Entscheidung oder ist es die Ausführung einer rechtlichen Vorschrift, das heißt die Ausführung einer grundsätzlichen Entscheidung, dass Personen mit bestimmten Merkmalen einreisen dürfen.

Die zweite Aufgabe besteht in der Etablierung hinreichender Sorgfalts-Regeln (bereits in den frühen Phasen des Einführungsprozesses) und im Umgang mit Fehlern.

Mit KI wird es zu Entwicklungen und Entscheidungen kommen, die sich im Nachhinein als falsch herausstellen. Das spricht nicht gegen die Technologie. Was vielmehr in der noch zu lernenden Zusammenarbeit mit Algorithmen anzustreben ist, ist eine der jeweiligen Situation angemessene12 Sorgfalt13 und Qualität14.

Eine alltagstaugliche Formulierung für sorgfältige Entscheidungen lautet: „nach bestem Wissen und Gewissen“. Sie beschreibt das gelingende Zusammenspiel von fachlicher („Wissen“) und persönlicher Urteilskompetenz („Gewissen“). Wenn Teile der fachlichen Beurteilung von KI übernommen werden, ändert sich daran im Grundsatz nichts. Auch wenn die Versuchung groß sein mag, sich durch Hinweis auf eine falsche Datenbasis zu exkulpieren. Es gilt der Leitsatz: „Algorithmen entscheiden nie.“

Die dritte Aufgabe in diesem Lernprozess betrifft Unternehmen, aber auch andere korporative Akteure, etwa staatliche Behörden.

Unternehmen und andere Organisationen übernehmen in vielen Fällen Verantwortung, die nicht auf individuelle Verantwortung zurückgeführt werden kann (vgl. Fetzer 2004, v.a. Kap. 6). Dafür wurde die Kunstfigur der juristischen Person geschaffen. Künftig wird Unternehmen und Organisationen nicht nur das Handeln ihrer Mitarbeiter zugerechnet, sondern auch das Verhalten der jeweils eingesetzten KI. Wenn man die Idee der Verantwortung des korporativen Akteurs konsequent anwendet, sind viele der unter dem Schlagwort „algorithmenbasiertes Entscheiden“ diskutierten Probleme lösbar.

Korporative Akteure unterliegen internen Entscheidungsprozessen, deren Ergebnisse sie Dritten gegenüber vertreten müssen. Darin unterscheiden sie sich wesentlich von natürlichen Personen. Unternehmen und Behörden sind also aufgefordert, ihre Kommunikations- und Servicequalität sicherzustellen. Die Integration von KI-unterstützten Entscheidungsprozessen in Institutionen ändert nichts an diesem Grundsatz.15 Idealerweise sind Unternehmen Treiber von Innovationsprozessen und sind daher in vielfacher Hinsicht mitverantwortlich für das Gelingen eines gesamtgesellschaftlichen Lern- und Change-Prozesses infolge des Einsatzes von KI.

Die vierte Aufgabe umfasst einen Bildungsprozess für alle. Mehr Informatikkenntnisse sind nützlich, aber entscheidender dürfte der Umgang mit großen Datenmengen und statistischen wie stochastischen Zusammenhängen sein. Der Unterschied zwischen einer Kausalverknüpfung und einer Korrelation wird nicht mehr nur Expertenwissen sein, sondern erhält alltägliche Relevanz. Was bedeuten Wahrscheinlichkeitsaussagen für das eigene Leben? Sei es, weil andere auf dieser Basis Entscheidungen für mich treffen, die Auswirkungen auf mein Leben haben, oder sei es, dass ich selbst meine Entscheidungen an gesammelten Daten und stochastischen Ableitungen orientiere.16

 

5. Zwischen Chancen und Schicksal – ein Ausblick

Wie KI sich gesellschaftlich auswirkt, ist keine Frage der Technikgestaltung und nur bedingt regelbar durch Ethik-Richtlinien, wie sie zum Beispiel von der High-Level Expert Group on Artificial Intelligence der EU-Kommission entwickelt wurden (EU-COMM 2019). Auch die gesellschaftlichen Entwicklungen nach Erfindung des Buchdrucks (inklusive Reformation und Dreißigjähriger Krieg) wurden nicht von Ethik-Richtlinien begleitet und waren kaum steuerbar durch Druckgenehmigungen und Zensur. Im Ergebnis wurde nicht Analphabetismus verboten, sondern man hat Schulen gegründet und die Schulpflicht eingeführt.

Letztlich entscheidet auch im Falle der KI die Lernfähigkeit der Gesellschaft im Umgang mit den neuen technischen Möglichkeiten. Die Einführung von KI muss nicht zwingend die Idee und das Ideal der menschlichen Autonomie in Frage stellen.17 Denkbar ist auch das Gegenteil: Ihre Nutzung könnte dazu führen, dass persönliche Entscheidungen sehr viel stärker wertgeschätzt werden: Entscheidungen, die diesen Namen verdienen, und nicht nur Routinen sind.

Es sind die Alltagssituationen, in denen sich zeigen wird, wie wir mit uns selbst, den Mitmenschen und den neuen Technologien umzugehen gedenken.18

Die ontologisch vielleicht strittige, aber politisch wichtige These „Nur Menschen, nicht Algorithmen entscheiden“ (s. Kap. 3) zielt auf einen Klärungsprozess:

  • Was soll/darf „abgearbeitet“ werden? Und nach welchen und wessen Regeln?
  • Was soll/darf „entschieden“ werden? Und von wem?
  • Was soll/darf dem Zufall überlassen werden? Auch wenn es im Ergebnis ungerecht, möglicherweise undemokratisch und per definitionem unverantwortlich ist? In einer Gesellschaft, in der Schicksalsschläge gelegentlich zu Ungerechtigkeiten umfirmiert werden, wäre dies ein neues und ohne Bezug auf Religion kaum zu besprechendes Thema.

Nicht die Algorithmen, sondern wir Menschen werden diese drei Fragen in all ihren Aspekten immer wieder beantworten müssen. Zum jetzigen Zeitpunkt ist es vermessen, fertige Antworten haben zu wollen. Auch moralisch-politische Präferenzen sollten nicht unterschätzt werden. Wer etwa gewohnte Verfahren positiv beurteilt, wird sie auch in technisch veränderter Struktur erhalten wollen. Andere werden versuchen, technische Neuerungen zur Durchsetzung veränderter Standards zu missbrauchen. Es existiert keine positions- und parteiübergreifende Blaupause. Umso wichtiger, dass sich die politischen Gestalter des Themas annehmen und es nicht anderen Akteuren überlassen. Dann entmündigt der technisch induzierte, aber ethisch-politisch zu führende Klärungsprozess das Individuum nicht. Im Gegenteil: Er kann und soll auch für ein Revival bewusster Freiheit und Verantwortlichkeit genutzt werden.

 

Literatur

Bieri, Peter (2001): Das Handwerk der Freiheit. Über die Entdeckung des eigenen Willens, Frankfurt am Main.

Bitkom e.V. (2018): Digital-Design-Manifest. Eine selbstbewusste Gestaltungsprofession ist der Schlüssel für eine erfolgreiche und nachhaltige Digitalisierung, Berlin (http://www.digital-design-manifest.de, Abruf 10.01.2019).

Bitkom e.V. / DFKI GmbH (2017): Künstliche Intelligenz. Wirtschaftliche Bedeutung, gesellschaftliche Herausforderungen, menschliche Verantwortung, Berlin (https://bit.ly/2lh8kiJ, 20.12.2018).

Djeffal, Christian (2018): Künstliche Intelligenz in der öffentlichen Verwaltung (NEGZ Kurzstudie), (https://negz.org/wp-content/uploads/2018/11/NEGZ-Kurzstudie-3-KuenstlIntelligenz-20181113-digital.pdf, Abruf 10.12.2018).

EU-Commission (2019): Ethics Guidelines for Trustworthy AI (https://ec.europa.eu/ futurium/en/ai-alliance-consultation/guidelines, Abruf 15.05.2019).

Fetzer, Joachim (2004): Die Verantwortung der Unternehmung, Gütersloh (https://www.econstor.eu/handle/10419/172204, Abruf 10.12.2018).

Fetzer, Joachim (2018): Ethik der Kapitalbeteiligungen. Freiheit, Würde und Nachhaltigkeit in der Vermögensgesellschaft, in: Beyer, Heinrich / Naumer, Hans-Jörg (Hg.): CSR und Mitarbeiterbeteiligung. Die Kapitalbeteiligung im 21. Jahrhundert – Gerechte Teilhabe statt Umverteilung, Berlin, S. 55–69.

Gigerenzer, Gerd (2007): Bauchentscheidungen. Die Intelligenz des Unbewussten und die Macht der Intuition, 6. Aufl., München.

Gräb-Schmidt, Elisabeth (2018): Zwischen System und Verantwortung. Ethische Überlegungen zum Begriff der Autonomie angesichts der Entwicklung autonomer Systeme, Konrad-Adenauer-Stiftung, Analysen & Argumente Nr. 319, Berlin.

Höffe, Otfried (2002): Art. Entscheidung, in: Lexikon der Ethik, hv. v. Otfried Höffe, München, S.51f.

Martini, Mario (2017): Algorithmen als Herausforderung für die Rechtsordnung, Juristenzeitung 21, 72. Jahrgang, Tübingen, S. 1017–1025.

Misselhorn, Catrin (2018): Grundfragen der Maschinenethik, Stuttgart.

Vieth, Kilian / Wagner, Bernd (2017): Teilhabe, Ausgerechnet, Wie algorithmische Prozesse Teilhabechancen beeinflussen können (Bertelsmann Stiftung: Impuls Algorithmenethik #2), Gütersloh (https://doi.org/10.11586/2017027; Abruf 10.12.2018)

VZBV e.V. (2017): Algorithmenbasierte Entscheidungsprozesse, Thesenpapier der verbraucherzentrale Bundesverband, https://www.vzbv.de/sites/default/files/downloads/2018/05/22/dm_17-12-07_vzbv_thesenpapier_algorithmen.pdf, 20.12.2018).

Zweig, Katharina A. (2018): Wo Maschinen irren können. Fehlerquellen und Verantwortlichkeiten in Prozessen algorithmischer Entscheidungsfindung, (Bertelsmann Stiftung: Impuls Algorithmenethik #4), Gütersloh (https://doi.org/10.11586/2018006; 20.12.2018).

 

Fußnoten

1  Vgl. https://algorithmwatch.org/de/mission-statement/ (Abruf 20.12.2018).

2  Vgl. die Dokumentation „Unheimliche Macht – Wie Algorithmen unser Leben bestimmen“ von Franziska Wielandt, https://www.zdf.de/dokumentation/unheimliche-macht—wie-algorithmen-unser-leben-bestimmen-102.html, (Abruf 20.12.2018).

3  Es entspricht der Grundstruktur des berühmten Turing-Tests, das von außen beobachtbare Verhalten von Maschinen und Menschen zu vergleichen. Ob man mit dem beobachtbaren Verhalten das Menschsein hinreichend wahrnimmt, ist eine der philosophischen Grundfragen. Man stelle sich eine Gerichtsverhandlung vor, bei der jemand einzig und allein anhand des beobachtbaren Verhaltens verurteilt wird, ohne jede Berücksichtigung von Deutungen wie „aus Absicht oder aus Versehen“, mit bestimmten Intentionen usw.

4  Ob es klug ist, als Oberbegriff dieser Verfahren von „Comprehend / Verstehen“ zu sprechen (bitkom 2017, S. 32), ist genauso strittig wie der Begriff „Intelligenz“ in Künstliche Intelligenz. Auch der Begriff „Handeln“ ist eigentlich fragwürdig, wenn man „Handeln“ von „sich verhalten“ unterscheidet und als Unterscheidungsmerkmal wieder Verstehen, Bewusstsein, (freien) Willen oder ähnliches ansieht.

5  Dass irgendetwas von Algorithmen „entschieden“ werde, ist also schon im technischen Sinne falsch. Wenn, dann resultiert die „Entscheidung“ aus einem Zusammenspiel von Algorithmen mit großen Datenmengen. Ohne letztere gibt es auch keine funktionsfähige „Künstlichen Intelligenz“. Richtigerweise wird von Fachleuten darauf hingewiesen, dass besser von Algorithmischen Entscheidungsprozessen als von entscheidenden Algorithmen gesprochen werden solle. Es ist die gesamte Modellierung von Prozessen, welche die „Entscheidungsabläufe“ ausrichtet (Zweig 2018).

6  Es macht keinen Sinn, sorgfältig strukturierte Entscheidungsprozesse und schnelle Bauchentscheidungen gegeneinander auszuspielen. Der Stellenwert der Intuition hat beim Reden über Entscheidungen an Akzeptanz eingebüßt. Vielleicht zu unrecht (vgl. Gigerenzer 2007, S. 242).

7  Der größte Teil der Literatur bezieht sich auf Entscheidungsprozesse und Entscheidungstheorien und auf Fragen, wie Entscheidungen optimiert werden können. Wenig findet sich zur Frage, was eine Entscheidung eigentlich ist und was mit diesem Begriff bezeichnet wird.

8  Vgl. hierzu Fetzer 2004, v.a. Kap. 4. Über den Zusammenhang zwischen „Entscheiden“ und „Verantworten“ lässt sich einiges lernen, wenn man die Übertragung auf nicht-menschliche Akteure prüft. In Politik und Gesellschaft wird heute kaum mehr davon ausgegangen, dass die Welt von den vermuteten „Entscheidungen“ der Engel und Götter beeinflusst wird, die sich möglicherweise in den offensichtlichen „Entscheidungen“ von Naturgewalten äußern, wenn zum Beispiel der Sturm „entscheidet“, diese und nicht jene Route zu nehmen oder der Vulkan „beschließt“, genau jetzt und nicht später auszubrechen. Die „Entscheidungen“ von Naturgewalten werden naturwissenschaftlich untersucht und bei den „Entscheidungen“ von Göttern und Engeln wird entweder die unmittelbare Kausalwirkung auf die sichtbare Welt in Frage gestellt oder die Interpretation der sichtbaren Erscheinungen als Konsequenz göttlicher Entscheidungen als nicht mehr allgemeingültig angesehen. Das Entscheidungsverhalten von insbesondere höher entwickelten Tieren ist kaum von demjenigen von menschlichen Individuen zu unterscheiden. Bisher sind sie nicht als verantwortungsfähige Subjekte in die Zurechnungsmodi der Gesellschaft aufgenommen.

9  Das Handwerk der Freiheit heißt ein Buch des Berner Philosophen Peter Bieri. Nach ausführlichen Schilderungen von Entscheidungsprozessen unterschiedlichster Art diskutiert er die Frage, ob „ein Terrorist Herr über seinen Willen“ oder mit den Worten Dostojewskis „der Lakai eines fremden Gedankens“ (ist)? Dürfen wir ihn verurteilen, wenn es sich herausstellen sollte, dass er z. B. Opfer einer Gehirnwäsche islamischer Fundamentalisten war? Bieris Antwort: Wir haben zwei Gründe, ihn zu verurteilen: Erstens ist er in seiner Willensbildung nicht ohnmächtig; er hätte auch andere Dinge auf sich einwirken lassen können – anders als beispielsweise das Opfer einer Hypnose. Und zweitens geschieht durch eine Verurteilung einfach dieses: Wir verteidigen gegen ihn eine Lebensform der Verantwortlichkeit.

10  Die Frage des bewussten Missbrauchs – eine selbstverständlich immer vorhandene Möglichkeit – sei hier ausgeklammert. Missbrauch ist bei jeder hochleistungsfähigen Technologie natürlich eine Möglichkeit und ein Problem. Daraus einen Anwendungsverzicht abzuleiten ist nicht sinnvoll.

11  Instruktiv zu den Mühen dieses Lernprozesses sind die Ausführungen über automatisierte Verwaltungsverfahren, Kap. 4 in Djeffal 2018.

12  Eine Studie der Bertelsmann-Stiftung (Vieth/Wagner 2017) versucht, verschiedene Einsatzsituationen von Algorithmen anhand ihrer Bedeutung für „Teilhabechancen“ zu klassifizieren, um damit ein Raster für angemessene Sorgfalt und Nachvollziehbarkeit zu entwickeln. Methodisch ist das sinnvoll. Die Entscheidung für den normativen Bezugspunkt „Teilhabe“ kann allerdings in Frage gestellt werden, vgl. Fetzer 2018.

13 Vgl. Zweig 2018.

14  Es besteht die Gefahr, dass diese Qualitätsdebatte für politische Zwecke missbraucht wird. Wer schon immer Kreditunternehmen noch mehr unter staatliche Kontrolle stellen oder am liebsten in Staatseigentum überführen will, findet in der Debatte über „Kreditvergabe durch Algorithmen“ ein neues Argumentationspotenzial für zu erzwingende „Nachvollziehbarkeit“.

15  Der Hinweis des Kartellamtes, dass die Lufthansa für ihre Preisbildung selbstverständlich verantwortlich sei, auch wenn diese durch ein algorithmisches Verfahren geschehe, ist hierfür ein schönes Beispiel.

16  Ein nicht unwesentlicher Teil der Debatte zu „Diskriminierungsgefahren durch Algorithmen“ hat mit diesem häufig unverstandenen qualitativen Sprung zu tun.

17  In diese Richtung argumentiert Gräb-Schmidt 2018. Aber die gesellschaftlichen Herausforderungen mit der Vielzahl von künstlichen Intelligenzen (im Sinne „schwacher KI“) wird man besser gestalten können, wenn man sie nicht mit den (positiven wie negativen) Visionen einer „starken KI“ vermischt, von der kein Mensch sagen kann, ob es sie jemals geben wird. Die Debatte über Maschinen mit eigenem Bewusstsein als science-fiction-artige Verdichtung lenkt von den anstehenden Herausforderungen ab. Es ist sogar fahrlässig, die politische und kulturelle Entwicklung an Spekulationen über dominierende Technologien und selbst-bewusste starke Künstliche Intelligenz zu binden.

18  Es wäre daher ungeschickt, die Entwicklung von Technologien, welche in so hohem Maße die Abläufe der Gesellschaft durchdringen, den Forschern und vor allem Unternehmen in Ländern zu überlassen, die naturgemäß an mancher Stelle andere kulturelle Traditionen haben dürften.

 

Der Autor

Prof. Dr. Joachim Fetzer

Prof. Dr. Joachim Fetzer lehrt Wirtschaftsethik (www.wirtschaftsethik.com) und ist Mitglied im Lenkungsausschuss von Sustainable Development Solutions Network – SDSN Germany (www.sdsngermany.de).

fetzer@dnwe.de

 

 

Hinweis: Der Artikel ist zuerst erschienen in:
Konrad Adenauer Stiftung: Analysen & Argumente Nr. 358/ Juni 2019

 

Ähnliche Beiträge

Überlegungen zum Begriff des „Systemimperativs“ in der Wirtschaftsethik Auf den amerikanischen...

„AI for the benefit of humankind“ – „KI zum Wohle der Menschheit“… …war das Leitthema des...

Künstliche Intelligenz (KI) kommt bereits in zahlreichen Sektoren zum Einsatz, ob bei der...

Hinterlassen Sie eine Antwort