KI-Einsatz in der Unfallversicherung: Was der EU AI Act bedeutet

Transparenz und Verantwortung sind zentrale Werte des EU-Gesetzes über künstliche Intelligenz. 🤖 Auch bei der SIGUV-Gemeinschaft spielt ein verantwortungsvoller Umgang mit KI eine große Rolle. Unser Artikel gibt Einblicke in die Auswirkungen der KI-Regelungen, die seit Anfang Februar in Kraft sind.

Der Einsatz von KI unterliegt ab sofort besonderen Regeln: Seit dem 2. Februar gelten innerhalb der @Europäischen Union die ersten Vorschriften des Gesetzes über Künstliche Intelligenz. Davon betroffen ist auch der Einsatz von KI bei Sozialversicherungsträgern wie der gesetzlichen Unfallversicherung.

Das Gesetz, englisch: EU AI Act (Artificial Intelligence Act), gilt als bahnbrechend, da es weltweit das erste umfassende Regelwerk für Künstliche Intelligenz (KI) ist. Ziel des Gesetzes ist es, die Entwicklung und Nutzung von KI in der EU zu regulieren und gleichzeitig Innovationen zu fördern. Einer der Kernpunkte ist der risikobasierte Ansatz: Der AI Act unterscheidet verschiedene Risikostufen von KI-Systemen, von minimal bis hoch. Je nach Risiko werden unterschiedliche Anforderungen an die Entwickler und Nutzer gestellt.

Sozialversicherungsträger in der Pflicht

Die KI-Anwendungen, wie sie auch bei Unfallversicherungsträgern der SIGUV-Gemeinschaft zum Einsatz kommen, zählen nicht zu den Hochrisiko-Systemen. Als solche werden KI-Lösungen eingestuft, die eine Gefahr für die Sicherheit, die Gesundheit oder die Grundrechte von Menschen darstellen. Sie sind laut AI Act verboten. Dennoch sind Sozialversicherungsträger wie die gesetzlichen Kranken-, Renten- und auch Unfallversicherungen in der Pflicht.

Der Grund: Auch Systeme mit einer niedrigeren Risikoeinschätzung müssen hohe Qualitätsstandards erfüllen, transparent sein und eine menschliche Aufsicht ermöglichen. Die Entwickler von KI-Systemen in der Unfallversicherung müssen beispielsweise sicherstellen, dass Nutzer erkennen können, wann sie mit einer KI interagieren. Dies gilt insbesondere für Systeme, die wie Chatbots „menschenähnliche“ Inhalte generieren.

Entscheidungen eines KI-Systems müssen nachvollziehbar sein

Das Transparenzgebot des AI Acts gibt noch mehr vor. So müssen die Entscheidungen eines KI-Systems nachvollziehbar sein. Das heißt, es muss beispielsweise möglich sein, zu erklären, warum das System einen bestimmten Versicherten für eine Rehabilitation vorgeschlagen hat. Die Entscheidungsprozesse und die verwendeten Daten müssen sorgfältig dokumentiert werden, um im Bedarfsfall Auskunft geben zu können. In Sachen Datenschutz dürfen beim KI-Einsatz nur die Daten verwendet werden, die für die Entscheidung relevant sind. Diese müssen dann angemessen geschützt werden, um Missbrauch zu verhindern. Die Versicherten und Unternehmen müssen zudem über die Verarbeitung ihrer Daten informiert werden und ihre Einwilligung erteilen. Und schließlich muss es immer eine menschliche Instanz geben, die die Entscheidungen des KI-Systems überprüft und gegebenenfalls korrigiert.

SIGUV-Gemeinschaft setzt schon lange auf Transparenz

Beim Einsatz von KI innerhalb der SIGUV-Gemeinschaft ist die Erfüllung dieser Vorgaben selbstverständlich. Schon lange bevor der AI Act in Kraft trat, wurde hier auf Transparenz und den nötigen Datenschutz gesetzt. Die Anwendung „@Regress“ der @BG ETEM beispielsweise hilft dabei, potenzielle Regressfälle zu entdecken. Das System basiert auf einer Datenbank mit Millionen abgeschlossener Unfälle, darunter auch Informationen zu erfolgreichen Regressfällen. Anhand von Ergebnissen aus der Vergangenheit lernt das System, aktuelle Fälle auf ihre Chancen in einem möglichen Regressverfahren zu beurteilen. Aber ob in einem von der KI-Anwendung vorgeschlagenem Fall tatsächlich ein Regressverfahren eingeleitet wird, entscheidet ausschließlich ein Mensch.

Transparente KI-Modelle im Einsatz

Und da Vorschläge der KI hinsichtlich ihres Zustandekommens transparent sein müssen, hat die BG ETEM schon lange vor Inkrafttreten der EU-Regelungen auf sogenannte „white-box“-Modelle gesetzt. Im Gegensatz zu den wesentlich intransparenteren „black-box“-Modellen sind deren Ergebnisse verstehbar und nachvollziehbar. Ganz so, wie es das Gesetz heute verlangt.

Das EU-Gesetz zur künstlichen Intelligenz

Spannende Einblicke zum KI-Einsatz bei der BG ETEM und der SIGUV

Manuel Amor (SMK)

  • Webcode: 23858000
Diesen Beitrag teilen