Versicherungswirtschaft-heute

            Mobilsite

 

Wie können Versicherer ihre Daten intelligent nutzen?

15.03.2018 – it_rechenzentrum_foto_deutsche_telekomFür die Versicherungsbranche ist die Auswertung von Daten seit jeher eine Kernkompetenz. Deshalb ist der Einsatz moderner Methoden aus Data Analytics zur intelligenten Erkenntnisgewinnung ein zentraler Wettbewerbsfaktor. Jeder Versicherer kann und muss heute imstande sein, State-of-the-Art-Verfahren im Data Mining (wie Random Forests, Boosting Machines oder selbstlernende neuronale Netze) anzuwenden.

Allein – die Fähigkeit, komplexe Modelle rechnen zu können, führt nicht weit. Ein Irrglaube besteht darin, Machine Learning bedeute, irgendwelche Daten in eine Software einzuspeisen und per Knopfdruck sofort einen Erkenntnisgewinn inklusive Handlungsoptionen vorzufinden. Einerseits ist die Kenntnis der mathematisch-statistischen Modelle mit ihren Vor- und Nachteilen bezüglich Interpretierbarkeit und Performance eine Grundvoraussetzung. So unterscheiden sich bspw. die Datenvorverarbeitung und Kalibrierung der teils dutzenden Tuningparameter von Modell zu Modell und erfordern ein hohes Maß an Erfahrung zur erfolgreichen Optimierung.

Andererseits – und häufig unterschätzt – ist selbst bei diesem Knowhow der Einsatz von Data Analytics nur erfolgreich, wenn ein klares unternehmerisches Ziel verfolgt wird. Die Konkretisierung der ökonomischen Fragestellung anhand möglicher Handlungsoptionen, die Übersetzung des Problems in Datenanforderung und Bewertungskriterium sowie die eigentliche Modellierung sind untrennbar miteinander verknüpft. In allen Projekten des Instituts für Finanz- und Aktuarwissenschaften (ifa) haben sich genau diese fachliche Expertise und ihr Transfer in die Welt des Machine Learnings als Schlüssel zum Erfolg erwiesen.

Dies soll am Beispiel des Regulierungsprozesses eines Schadenversicherers mit jährlich 100.000 eingehenden Belegen (z. B. Werkstatt- oder Anwaltsrechnungen in der Kfz-Versicherung) verdeutlicht werden. Vereinfachend wird angenommen, dass deren Prüfung durch Sachbearbeiter zu Regulierungskosten von durchschnittlich zehn Euro pro Beleg führt. Bei 20 Prozent der Belege sei wegen fehlender Deckung, abweichender Gutachten oder anderen Gründen eine Kürzung des Erstattungsbetrags von durchschnittlich 100 Euro angezeigt.

Ökonomische Zielsetzung ist die Automatisierung des Regulierungsprozesses: Belege ohne Beanstandungen sollen zur Kosteneinsparung “dunkel” ohne manuelle Prüfung reguliert und vollständig ausgezahlt werden (“Nutzen”). Kürzungsbelege werden weiterhin manuell reguliert, da sonst der Kürzungsbetrag ungeprüft ausgezahlt würde („Kosten“). Zur Einfachheit lassen wir den Nutzen durch gesteigerte Kundenzufriedenheit oder freiwerdende Kapazitäten (durch die implizite Senkung der Durchlaufzeit) sowie die Implementierungskosten dieses Systems außer Betracht.

Basierend auf konsistent aufbereiteten vergangenen Belegdaten trainieren wir ein Data-Mining-Modell – in diesem Beispiel ein neuronales Netz – zur Identifikation komplexer Muster, die auf eine Kürzung hinweisen. Da statistische Zusammenhänge und keine deterministischen Gesetzmäßigkeiten erkannt werden, ermittelt das Modell statt eines eindeutigen Regelwerks das belegindividuell erwartete Korrekturpotenzial in Form eines vorhergesagten Kürzungsbetrags.

Für welchen Kürzungsbetrag soll bei dieser Unsicherheit ein Beleg weiterhin manuell geprüft werden? Je höher der Schwellenwert zur Aussteuerung zum Sachbearbeiter gelegt wird, desto weniger Belege werden manuell verarbeitet. Quote und Höhe von Kürzungen sind hier überproportional hoch. Belege mit Korrekturpotenzial unterhalb des Schwellenwerts werden dunkelverarbeitet; die darin enthaltene Kürzungsmöglichkeit geht verloren. Nur ein niedriger Schwellenwert würde die Realisierung dieser Kürzungen ermöglichen. Der optimale Ausgleich dieses Tradeoffs zwischen Nutzen (Kosteneinsparung) und Kosten (Kürzungsverlust) ist unternehmerisch zu bestimmen, womöglich unter Nebenbedingungen wie angestrebten Kapazitäten und Durchlaufzeiten oder technischen Restriktionen.

Abbildung1

Abbildung 1: Automatisiertes Routing eines Belegs mittels Data Analytics

Abbildung 1 zeigt das Routing mittels Schwellenwert 40 Euro. In der Validierung des neuronalen Netzes wird anschließend dessen Güte auf neuen Daten überprüft und die Kosteneinsparung durch Dunkelverarbeitung (hier: 750.000 Euro) den dabei verpassten Kürzungen (hier: 500.000 Euro) gegenübergestellt. In unserem Beispiel bringt der Einsatz eines neuronalen Netzes somit einen Profit von 250.000 Euro gegenüber einer vollständigen Prüfung und Kürzung (siehe Abbildung 2).

Abbildung2

Abbildung 2: Profit durch Automatisierung des Regulierungsprozesses

Der Schwellenwert wurde dabei so gewählt, dass dieser Betrag maximiert wird, wobei in diesem Projekt von vornherein diese Kosten-Nutzen-Optimierung als Gütekriterium zur Auswahl und Tuning des bestmöglichen Modells genutzt wurde.

Grundsätzlich ist die Automatisierung von Geschäftsprozessen in allen Versicherungssparten ein möglicher Ansatzpunkt für den erfolgsversprechenden Einsatz von Data Analytics. Auch im Bestandsmanagement, bei der aktuariellen Tarifierung und Reservierung, zur Vertriebs- und Marketingsteuerung oder im Risikomanagement und Controlling beantworten wir in unserer täglichen Arbeit im ifa komplexe Fragestellungen mittels Data Analytics. Abbildung 3 zeigt eine Auswahl an möglichen Anwendungsfeldern.

Abbildung3

Abbildung 3: Anwendungsfelder von Data Analytics in der Versicherung

Autoren: Lukas Hahn und Hans-Joachim Zwiesler vom Institut für Finanz- und Aktuarwissenschaften Ulm.

Grafikquellen: Institut für Finanz- und Aktuarwissenschaften Ulm

Bildquelle: Deutsche Telekom

- Anzeige -
- Anzeige -
- Anzeige -

 

VVW | Kontakt | AGB | Datenschutzerklärung | Impressum | Mediadaten