DNEWS24 Demografie News

KI kann diskriminieren und hat ein „Black-Box-Problem“

Eine aktuelle DIA-Studie macht auf Risiken bei der Anwendung Künstlicher Intelligenz in den sozialen Sicherungssystemen aufmerksam.

Die Anwendung von KI in der Sozialversicherung ist mit einer Reihe von Risiken verbunden, die gerade in einem solch sensiblen Bereich wie der Renten-, Kranken- oder Arbeitslosenversicherung besonders schwerwiegende Folgen haben können. Darauf macht die jüngste Studie des Deutschen Instituts für Altersvorsorge (DIA) aufmerksam. Sie ging der Frage nach, wie KI die Sozialversicherung verändert.

Eines dieser Risiken ist die Diskriminierung einzelner Personen oder Personengruppen, die in anderen Bereichen, zum Beispiel bei Recrutingsoftware, bereits beobachtet werden konnte. Eine solche Diskriminierung, so die Studie, beruht auf einem Datenproblem. Die Annahme, dass es unverfälschte, neutrale Rohdaten gibt, mit denen KI-Systeme gefüttert werden, sei schlicht falsch, stellt die Studienautorin Nora S. Stampfl fest. „Daten sind ohne Akte der Selektion und Interpretation nicht zu haben – von der Auswahl dessen, was überhaupt gemessen werden soll, bis hin zur Auswertung von Ergebnissen hat man es mit subjektiven Entscheidungen zu tun. Sind bereits die Daten mit einem Bias behaftet, kann dieser durch die KI nicht als solcher erkannt werden, vielmehr wird dieser erlernt.“

KI, die diskriminierende Ergebnisse hervorbringt und damit Gerechtigkeitsprobleme aufwirft, ist gerade in Organisationen der sozialen Sicherung besonders kritisch zu beurteilen ist. Neben der Gefährdung der sozialen Gerechtigkeit besteht auch das Risiko von Sicherungslücken – etwa dort, wo Maßnahmen an KI-basierte Entscheidungen geknüpft sind, können falsch-negative oder falsch-positive Ergebnisse weitreichende Konsequenzen haben. Zum Beispiel bei der Beurteilung des Risikos der Langzeitarbeitslosigkeit, von der eine bestimmte Unterstützungsmaßnahme abhängig gemacht wird.

Eine zweite Herausforderung ist die Nachvollziehbarkeit und Rechtmäßigkeit von KI-Entscheidungen. Im Falle von Risikobewertungen, wie sie häufig Gegenstand von KI-Anwendungsfällen in der Sozialversicherung sind, geht es immer um die Berechnung von Wahrscheinlichkeiten. „Klarerweise ist es jedoch problematisch, wenn eine Sozialversicherungsorganisation auf der Grundlage von Wahrscheinlichkeiten und nicht auf der Grundlage von Tatsachen entscheidet bzw. handelt, denn das Gesetz knüpft Rechtsfolgen grundsätzlich nur an Gewissheiten“, warnt die DIA-Studie.

Außerdem gibt es ein „Black-Box-Problem“, das nicht ignoriert werden darf. Auf welchem Wege sich neuronale Netze bilden, ist per definitionem nicht festgelegt und daher nicht nachvollziehbar. Weil Algorithmen ihre eigenen Regeln generieren, um aus den Inputdaten ein Ergebnis zu gewinnen, ist der Entscheidungsprozess intransparent. „Für das rechtsstaatliche Erfordernis der Rechtsgebundenheit wirft dieser Umstand ernsthafte Probleme auf“, gibt die Studienautorin zu bedenken.

Hinzu kommen die Verantwortung für und Erklärbarkeit von KI-Entscheidungen, die jederzeit gegeben sein müssen. „Das Wissen, wann und wie KI-basierte Entscheidungen zustande kommen, ist von enormer Bedeutung. Das sollte bei allen Erwägungen, KI in der Sozialversicherung einzusetzen, bedacht werden“, resümiert DIA-Sprecher Klaus Morgenstern.

DNEWS24 stellt die DIA-Studie zum Download bereit: KI-Studie_DIA.

Bild: rawpixel, pikisuperstar freepik © DNEWS24

Sie können diesen Beitrag einfach teilen, benutzen Sie diese Buttons.