Von der Kreditvergabe über das Aufspüren von Anschlagsplänen bis hin zu einem Sozialkredit-System in China – Algorithmische Entscheidungssysteme kommen immer öfter zum Einsatz. Sie durchforsten große Datensätze und nehmen Bewertungen vor. Doch welche Rolle spielen Qualität und Fairness? Wie unterscheiden sich gute und schlechte Systeme? Wie muss ein Rechtsstaat sie gestalten? Um diese Fragen geht es in einem interdisziplinären Forschungsprojekt an der Technischen Universität Kaiserslautern (TUK). Ein Team aus Politikwissenschaft, Informatik und Philosophie arbeitet eng zusammen. Das Bundesministerium für Forschung und Bildung (BMBF) fördert es für zwei Jahre mit rund 316.000 Euro.
Bis 2020 möchte China ein Sozialkredit-System aufbauen, das die Bevölkerung in allen Lebenslagen bewertet. Erfasst werden sollen etwa Daten zu Kreditwürdigkeit, Kaufverhalten, Arbeitsleistung, Straftaten und Verkehrsdelikten. Algorithmische Entscheidungssysteme, in Fachkreisen auch ADM-systems (Algorithmic decision making systems) genannt, durchforsten dazu riesige Datensätze, in denen Verhaltensmuster von Menschen erfasst sind, und berechnen daraus für jeden Menschen eine Punktzahl als individuelle Bewertung.
Solche Verfahren kommen aber auch anderen Orts zum Einsatz, etwa wenn Banken Kredite vergeben, Sicherheitsbehörden Terroristen überwachen oder wenn Gerichte über vorzeitige Haftentlassungen entscheiden. Gegenüber dem Menschen haben diese Rechenprogramme einen klaren Vorteil: Systematisch durchsuchen sie Unmengen von Daten und spüren relevante Muster auf. Doch genau wie bei Menschen sind manche Systeme besser und andere schlechter darin, genaue Vorhersagen zu treffen.
Aber anhand welcher Qualitätskriterien treffen sie dabei eine Wahl? Woran erkennt man gute AMD-Systeme? Welche Rolle spielt Fairness dabei? Mit diesen Fragen beschäftigt sich das neue Forschungsprojekt an der TUK. “Während ADM-Systeme zunehmend zur Entscheidung gesellschaftlich relevanter Fragen eingesetzt werden, hinkt die Forschung zu diesen Fragen noch hinterher”, sagt Politikwissenschaftler Professor Dr. Georg Wenzelburger, der das Vorhaben koordiniert. “Unsere Arbeit soll helfen, diesen Rückstand aufzuholen.”
Wenzelburger arbeitet dabei eng mit seinen Forscherkolleginnen Informatik-Professorin Dr. Katharina Anna Zweig und der Philosophin Professorin Dr. Karen Joisten zusammen. Sie werden sich zum einen mit den informatisch-mathematischen Grundlagen befassen, die für solche ADM-Systeme gelten, und unterschiedliche Maße für Qualität und Fairness auswerten. Zudem werden sie diese Verfahren aus ethischer Sicht beleuchten und anhand von Beispielen überprüfen, wie der politische Prozess aussieht, der zu solchen Systemen führt.
“Wenn wir solche Verfahren einsetzen, müssen wir uns über Bewertungsrichtlinien im Klaren sein”, fährt Wenzelburger fort. Das Team um den Kaiserslauterer Politikwissenschaftler wird unter anderem untersuchen, wie die Qualität solcher Systeme gemessen und wie die Fairness bewertet werden kann. Außerdem wird es sich mit den Fragen befassen, wie solche Kriterien beim Design dieser Systeme oder beim Kauf künftig eine Rolle spielen können.
Anhand von Fallbeispielen möchte der Politikwissenschaftler darüber hinaus untersuchen, wie der politische Prozess ausgesehen hat, der zur Entscheidung für das entsprechende ADM-System geführt hat. “Wir wollen klären, wie solche Prozesse aussehen müssen, um der Anforderung eines demokratischen Rechtstaates zu entsprechen”, sagt Wenzelburger. Dabei geht es unter anderem um die Frage, wie in Polen ADM-Systeme in Arbeitsämtern eingesetzt werden. Hier ermittelt ein Algorithmus die Leistungsfähigkeit von Arbeitslosen und errechnet einen Score, der das “Beschäftigungspotential” ausdrücken soll und Personen in drei Kategorien sortiert. Je nach Kategorie unterscheiden sich dann die arbeitsmarktpolitischen Maßnahmen, die die Person erhalten kann (zum Beispiel Weiterbildungsangebote und so weiter).
Das Projekt “FairAndGood ADM” ist im Januar gestartet. Das BMBF fördert es für zwei Jahre.