KI: Warum Roboter Entscheidungen treffen, die Versicherer nicht verstehen

Gerd Altmann/ Pixabay

Algorithmen erstellen individuell angepasste Policen-Angebote. Sie entscheiden, wer überhaupt einen Vertrag bekommt und zu welchen Konditionen – oder abgelehnt wird. Diese Entscheidungen kann der Mensch aber oft nicht nachvollziehen oder überprüfen. In der Zukunft muss das aber der Fall sein, sonst wird sich der Einsatz der Künstliche Intelligenz in der Branche nicht durchsetzen.

Es gibt kühne Visionen, wie Versicherer mit Künstlicher Intelligenz (KI) ihre Prozesse automatisieren können. Doch die bisher angebotenen Policen sind vergleichsweise simpel, es geht um die Sparten Hausrat und Privathaftpflicht.

Bei aufwendigeren Sach- und insbesondere bei Personenversicherungen sind die Aufgaben erheblich komplexer, ebenso die regulatorischen Anforderungen. Zur zentralen Herausforderung wird dabei ein Punkt, der unter dem Kürzel „XAI“ in der Computerwissenschaft prominent geworden ist: Explainable Artificial Intelligence, zu Deutsch „Erklärbare Künstliche Intelligenz“. Dabei geht es um die Frage, wie die Ergebnisse eines KI-Entscheidungsprozesses so aufbereitet werden können, dass Menschen in der Lage sind, sie nachzuvollziehen und zu überprüfen. Es ist der Punkt, an dem sich entscheidet, ob KI in der Versicherungsbranche zum Erfolg wird.

Bisher sind von KI getroffene Entscheidungen für Menschen zumeist weder nachvollziehbar noch überprüfbar. Ein Algorithmus wird mit Daten-Sets trainiert, erkennt in großen Datenmengen Muster und wendet ihre Erkenntnisse dann an. Besonders zutage tritt das Problem beim Deep Learning, auch bekannt unter dem Namen „künstliche neuronale Netze“. Hier wandern Informationen durch verschiedene Schichten und erzeugen dabei Verknüpfungen. Ganz ähnlich lernen auch wir Menschen: Bei der Verarbeitung von Informationen werden Verknüpfungen zwischen den Nervenzellen im Gehirn erzeugt, sie repräsentieren quasi unser Gedächtnis. Deep Learning ist einer der derzeit vielversprechendsten KI-Ansätze.

Welche Merkmale und Kategorien die KI z.B. als „typisch Sonnenblume“ identifiziert hat, bleibt für Menschen unklar. Die Entscheidung „das ist eine Sonnenblume“ trifft sie als „Black Box“ nach unbekannten Maßstäben. Nicht einmal der Programmierer, der den Code geschrieben hat, weiß genau, nach welchen Kriterien die KI ein Objekt als Sonnenblume einstuft oder nicht. In einem solch harmlosen Fall mag das niemanden groß stören.

Bei Versicherungen sieht das ganz anders aus. Stuft ein Algorithmus jemanden aus gesundheitlichen Gründen als Risiko ein und bietet daher nur eine sehr teure Berufsunfähigkeits-Police an oder sogar gar keine, bedeutet das für den Betroffenen, dass er ein existenzielles Risiko nicht versichern kann. Genauso gravierend sind Ablehnungen bei Risiko-Lebensversicherungen oder privaten Krankenversicherungen. In solchen Fällen sind Entscheidungen aus der Black Box aus Sicht der Betroffenen inakzeptabel – und aus Sicht der Regulatorik unzulässig.

Was die Regulierer von KI-Systemen verlangen

Für den KI-Einsatz in Versicherungen sind mehrere Rechtsquellen von Bedeutung. Da KI-Systeme Daten verarbeiten, ist die Datenschutz-Grundverordnung zu beachten. Artikel 22 DSGVO legt fest: „Die betroffene Person hat das Recht, nicht einer ausschließlich auf einer automatisierten Verarbeitung – einschließlich Profiling – beruhenden Entscheidung unterworfen zu werden, die ihr gegenüber rechtliche Wirkung entfaltet oder sie in ähnlicher Weise erheblich beeinträchtigt.“ 

Das bedeutet, dass Antragsteller darüber informiert werden müssen, wenn ihre Antragsdaten mithilfe von KI ausgewertet werden. In Antragsunterlagen sind Daten zu Vorerkrankungen, Alter, Geschlecht, Größe und Gewicht, Beruf, gefährlichen Hobbys und vielem mehr enthalten. KI muss also komplexe Entscheidungen transparent machen: aus welchen Gründen sie die Ablehnung eines Antrags vorschlägt, warum sie den Antragsteller in eine bestimmte Tarifgruppe einstufen möchte, warum sie welche Haftungsausschlüsse vorschlägt.

Warum das Diskriminierungsverbot für KI eine Herausforderung ist

Hinzu kommen spezifische Regulierungsanforderungen aus dem Versicherungsrecht. Bei einigen Versicherungen, beispielsweise privaten Kranken- und Rentenversicherungen sowie Lebensversicherungen, darf das Geschlecht keine Rolle bei der Berechnung der Angebotskonditionen spielen, Männer und Frauen müssen dieselben Bedingungen angeboten bekommen („Unisex“-Tarife). Um sicherzustellen, dass eine KI das Geschlecht nicht zu einem Kriterium bei der Angebotsgestaltung gemacht hat, müssen ihre Kriterien nachprüfbar sein.

Ein weiteres Problem beim KI-Einsatz für Versicherer: Lebens- und Rentenversicherungen werden angesichts der andauernden Niedrigzinsphase immer häufiger als fondsgebundene Modelle gestaltet. Die Nachweis- und Dokumentationspflichten sind für den Einsatz von KI herausfordernd. Hier muss ein Beratungsprotokoll erstellt werden, in dem festzuhalten ist, wie das Risikoprofil des Kunden definiert wurde und warum ihm bestimmte Fonds empfohlen wurden.

Insgesamt ist die Regulatorik, obwohl schon jetzt herausfordernd, in diesem noch jungen Feld sehr unvollständig. Es ist damit zu rechnen, dass weitere Vorgaben hinzukommen werden. Sie dürften die Anforderungen an die Erklärbarkeit noch weiter erhöhen.

Entscheidungen von KI-Systemen nachvollziehbar machen zu können wird zum Schlüssel, um den regulatorischen Anforderungen gerecht zu werden – und, nicht zu vergessen, auch den Ansprüchen der Kunden. Es ist nicht anzunehmen, dass Menschen bereit sind, Entscheidungen über ihre Absicherung gegen existenzielle Risiken in die Hände einer Black Box zu legen.

Autor: Minh Nguyen, Sopra Steria Consulting

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht.

sechs − 4 =