Versicherungswirtschaft-heute

          Mobilversion

 

- Anzeige -

Big Data: Versicherer experimentieren mit dem Risiko

20.07.2017 – Digitalisierung, Big Data - quelle GDVVon Tobias Meffert, Senior Business Intelligence Analyst bei Bisnode Deutschland. Nach den Banken kommt die Versicherungswirtschaft. Kaum eine Branche steht aktuell stärker im Fokus, wenn es um Diskussionen zum Thema digitale Disruption geht. “In Palo Alto geben sich deutsche Versicherungsunternehmen gerade die Klinke in die Hand”, berichtet Daniel Kellmereit, Berater in Sachen digitalem Wandel.

Die Digitalisierung kommt in der Versicherungswirtschaft mit noch mehr Energie an, als in vielen anderen Branchen. Nicht nur die Vertriebsprozesse werden vollständig online abgewickelt – Verfahren zur Identifikation neuer Kunden per WebCam oder Smartphone befinden sich längst im Einsatz. Auch die zu versichernden Szenarien – mithin also das Herzstück des Angebots –wandeln sich. Sind digitale Schäden gleich oder anders zu bewerten als analoge?

Und mittendrin im Wandel steht der Kunde. Er digitalisiert nach und nach sein ganzes Leben. Das eröffnet neue Risiken, die es zu versichern gilt, aber natürlich liegen darin auch Chancen. Fitness-Tracker, Smart Home Sensoren oder ständig vernetzte Fahrzeuge eröffnen völlig neue Daten-Pools, aus denen ein Versicherer schöpfen kann. Die Risikoabschätzung bekommt eine breitere Datenbasis. Die Kalkulationsgrundlagen für Prämien werden ungleich tiefer – wobei sich gleichzeitig die Frage stellt, ob sich solche Tiefenanalysen und die daraus abgeleiteten Erkenntnisse unterm Strich überhaupt rechnen. Denn das ist das Hauptproblem: Wie findet man in dem Wust von Daten die wichtigen? Die Smart Data.

Es gibt mittlerweile moderne Datenanalysesysteme, die einen breiteren Kontext erzeugen. Sie schöpfen nicht nur aus den individuellen Datensätzen des einzelnen Kunden, sondern verbinden diese mit Querschnittsdaten aus ganzen Branchen, Regionen oder spezifischen Zielgruppen. Und sie tun das in Echtzeit. Jeden Morgen kann sich der Sachbearbeiter damit auseinandersetzen, wie sich Risiken entwickeln und mitunter aktiv auf Kunden zugehen und Produktoptimierungen anbieten. Geschäftsführer und Controlling schauen gleichzeitig auf das große Bild. Ist das Portfolio des Versicherers unter Berücksichtigung aktueller Risikoentwicklung so aufgebaut, dass es nachhaltig erfolgreich wirtschaftet.

Das Datenanalyse-Labor

Das Schlagwort Big Data ist fünf Jahre alt. Es wird Zeit zu handeln. Es ist fraglich, ob noch fünf Jahre ins Land gehen, bis disruptive Anbieter mit neuen Produkten, schlankeren Strukturen oder besseren Prozessen am Versicherungsmarkt auftauchen und sich die Filetstücke heraus trennen. Vermutlich nicht, die Bankenbranche kann ein Lied davon singen und bei vielen klassischen Bankhäusern ist es ein Klagelied.

Daher ist auch in einer Branche, die ihren Wert aus Konstanz und Stabilität zieht, zügiges Handeln gefordert. Agile Prozesse sind auch im Versicherungswesen unverzichtbar, wenn man mit schnellen Start-ups mithalten will. Es braucht eine Experimentierkultur – vermutlich der schwierigste Begriff für die Branche in diesem Zusammenhang.

Aber es geht. Agilität lässt sich üben. Experimente kann man wagen ohne gleich in die Bestandsprozesse eingreifen zu müssen. Entscheidend ist, dass diese Experimente auf echten Daten basieren. Nur so kann man vermeiden, dass eine Lücke zwischen experimenteller Theorie und umsatzrelevanter Praxis entsteht.

Umsichtige und zukunftsfähig aufgestellte Big-Data-Unternehmen betreiben so genannte Datenlabore. Das sind isoliert arbeitende Softwaresysteme, die häufig als Software as a service in der Cloud angeboten werden. Der Versicherer kann dorthin seine eigenen Daten mitbringen aber auch von umfassenden internationalen Datentöpfen profitieren und auf dieser Grundlage Tests und Simulation fahren. Diese Tests können die Erfolgsaussichten eines neuen Produkts ebenso zeigen wie die Risiken eines neuen Scoring-Mechanismus. Gerade die effiziente Verhinderung von Betrug stellt im digitalen Zeitalter eine große Herausforderung dar. Erfolgt die Vertragsunterschrift beim Kunden, ist auch immer eine “Augenschein-Prüfung” damit verbunden. Die entfällt beim Onlineantrag.

Professionelle Datenanalysten helfen dabei, einem solchen System die richtigen Fragen zu stellen und die ausgeworfenen Berichte auf das Geschäftsziel angewendet zu interpretieren. Das ist nicht trivial, denn oft liegen die spannenden Erkenntnisse in Korrelationen, die man vordergründig vielleicht nicht ins Kalkül zieht. Fragen wie: Sind Apple-Nutzer grundsätzlich bereit, mehr in Versicherungen zu investieren als Android-Nutzer? Welchen Einfluss hat das Wetter am Versicherungsort auf die Menge der Schadensmeldungen? Würde eine Insolvenz-Versicherung für Start-ups ein spannendes Geschäftsmodell sein können?

Nicht immer sind es die ganz großen Fragen, die mit Big Data beantwortet werden können. Oft hilft die schiere Datenmenge auch dabei, bei kleinen aber relevanten Details mehr Transparenz zu erlangen. Neben der Geschwindigkeit ist der große Vorteil einer solchen Simulationslösung natürlich die Tatsache, dass das Investitionsrisiko überschaubar bleibt. Bestehende Prozesse werden erst dann angetastet, wenn die Simulation ergeben hat, dass es sich lohnen wird. Das Experiment findet eben nicht am Kunden statt, wohl aber an dessen – anonymisierten –Daten.

Und natürlich versteht es sich von selbst, dass die Daten, die ein Versicherer zu solchen Experimenten mitbringt, nur ihm selbst zur Verfügung stehen. Schließlich sind diese Daten das Kapital der digitalen Zukunft.

Bildquelle: GDV

- Anzeige -
- Anzeige -
- Anzeige -

 

VVW | Kontakt | AGB | Datenschutzerklärung | Impressum | Mediadaten