Versicherungswirtschaft-heute

            Mobilsite

 

360-Grad-Kundensicht braucht durchgängige Datenstrategie – Sponsored Post -

21.12.2017 – Internet_Der_Dinge_FotoliaVon Hartmut Schroth, Business Expert, SAS DACH Pre-Sales Insurance. Wer als Versicherer positive und langfristige Kundenbeziehungen pflegen will, braucht die vielbeschworene “360-Grad-Kundensicht”. Allerdings haben erst wenige Unternehmen diese Anforderung auch praktisch umgesetzt. Die Achillesferse ist immer wieder das Fehlen einer passenden Datenstrategie.

Bisher wurden aussagekräftige Informationen über den Kunden vorrangig aus den Informationssystemen des Unternehmens selbst (also aus dem Customer Relationship Management – CRM) ausgewertet, um sein persönliches Verhalten im Zusammenhang mit der Vertragsbeziehung oder einem zukünftigen Angebot möglichst sicher vorhersagen zu können. Heute genügen diese Informationen nicht mehr. Genau so wichtig sind externe Informationen und Daten – deren Umfang aktuell durch das “Internet of Things” (IoT) geradezu explodiert.

360GradKundensicht

Das bedeutet: Alle verfügbaren Kunden-, Angebots-, Antrags-, Policen- und Schadendaten müssen zusammen mit Big-Data-Informationen (zum Beispiel Verhalten des Kunden auf der eigenen Webseite, Daten von Telematik-Anwendungen) so vorliegen, dass eine zuverlässige Vorhersage des Kundenverhaltens durch analytische Methoden möglich ist: Stornowahrscheinlichkeit, Cross- und Up-selling-Scoring-Werte zu bestehenden Versicherungsverträgen, Abschlusswahrscheinlichkeit eines Interessenten, Schadenprognosen, Kundensegmentierung und Kundenwertberechnung.

Doch bislang hat vermutlich noch keine Versicherung ein Gesamtkonzept unter Einbeziehung dynamischer externer Daten zu 100 Prozent implementiert. Doch gerade dies ist entscheidend, um in dem wettbewerbsintensiven Versicherungsmarkt den jederzeit abwanderungsgefährdeten Kunden an das Unternehmen zu binden.

Auf die richtige Datenstrategie kommt’s an!

Die konkrete Implementierung einer 360-Grad-Kundensicht muss im Zusammenhang mit der Umsetzung einer Datenstrategie erfolgen, da sie sehr komplexe Anforderungen an die Datenmanagement-Prozesse mit sich bringt. Um dies zu bewerkstelligen, muss sie vier Punkte berücksichtigen.

  1. Die Kundendaten aller Informationssysteme der Versicherung müssen konsolidiert in einer dispositiven Datenschicht vorliegen, die darüber hinaus die Anforderungen der Europäischen Datenschutz-Grundverordnung (DSGVO) erfüllt.
  2. Die dispositive Datenschicht muss eine hohe Datenqualität erfüllen, um als Datenbasis für analytische Auswertungen und Prognosen geeignet zu sein.
  3. Die dispositive Datenschicht muss durch externe Informationen ergänzt werden können, zum Beispiel Scoring-Daten einer Wirtschafts-Auskunftei.
  4. Verfügbare IoT-Daten des Kunden müssen bezüglich Verwertbarkeit durch die Versicherung in Echtzeit analysiert werden, und die Ergebnisse mit den dispositiven Kundendaten verknüpft werden.

Eine entscheidende Rolle spielt also das IoT. Telematiktarife werden zunehmend wichtiger, da sie die Krankenversicherungen laufend mit aktuellen Gesundheitsdaten aus Wearables versorgen, auf deren Basis individuelle Tarife entwickelt werden können.

Ebenso dienen Streaming-Daten aus der Telematikbox eines Kfz dazu, das persönliche Fahrverhalten des Versicherten bestmöglich abzusichern. Einzelne Komponenten wie Streaming Analytics oder Data Lakes haben einige große Versicherer bereits realisiert, aber noch keine ganzheitliche Lösung unter Einbeziehung sämtlicher dispositiver Kundendaten umgesetzt.

Darüber hinaus ist es notwendig, das Verhalten des Kunden im Internet datenschutzkonform zu analysieren und ebenfalls mit den dispositiven Daten zu verknüpfen – und zwar am besten in Echtzeit. Denn nur so können zeitnah Entscheidungen getroffen werden, bevor sich das “Window of Opportunity” wieder schließt.

Und wie sieht das konkret aus?

Eine Datenstrategie, mit der sich diese Anforderungen vollständig umsetzen lassen, benötigt zunächst einmal ein versicherungsspezifisches Data Warehouse (DWH), in dem alle Partnerinformationen spartenübergreifend vorliegen. Zwar beanspruchen viele Versicherungen für sich, bereits über ein solches Data Warehouse zu verfügen. Die Realität zeigt aber, dass es sich dabei in vielen Fällen um spartenspezifische Datensilos handelt. Eine große Herausforderung in dem Zusammenhang bedeutet das Thema Datenschutz, das ab nächstem Jahr mit Inkrafttreten der DSGVO konsequent angegangen werden muss.

Die Datenqualität lässt sich erheblich verbessern, wenn leistungsfähige Tools dafür auf der dispositiven Ebene eingesetzt werden – denn somit haben Veränderungen nicht zwangsläufig Auswirkungen auf das operative Geschäft. Auf diese Weise lassen sich die “üblichen” Datenqualitätsprobleme – Dubletten im Partnerbestand, keine spartenübergreifende Sicht, falsche Daten – vermeiden. Ein Standarddatenmodell ist hilfreich für die Einbindung externer Informationen. Unternehmensintern entwickelte Modelle dagegen sind oft auf die Struktur der proprietären Systeme ausgelegt und daher nicht mit externen Quellsystemen kompatibel.

Fazit

Bordmittel reichen nicht aus, um die neuen Anforderungen an eine echte 360-Grad-Kundensicht bei Versicherungen zu erfüllen. Benötigt werden hier leistungsstarke Analytics- Lösungen, die sich auf die branchenspezifischen Herausforderungen konzentrieren und somit die erfolgreiche Realisierung der Datenstrategie begünstigen. Das Standarddatenmodell der SAS Insurance Analytics Architecture hilft dabei, ein versicherungsspezifisches dispositives DWH umzusetzen.

Das passende Data Management sorgt dafür, dass auf strukturierte und unstrukturierte Daten zugegriffen werden kann – egal, ob diese in Data Lakes, Hadoop oder SAP HANA liegen. Und last but not least vereinfacht ein solches Modell die Verbesserung der Datenqualität und Data Governance.

Bildquelle: Fotolia

Grafikquelle: Haffapartner

- Anzeige -
- Anzeige -
- Anzeige -

 

VVW | Kontakt | AGB | Datenschutzerklärung | Impressum | Mediadaten