Case Study: Wie Munich Re Daten aus 140 Jahren in Echtzeit abrufbar macht

Quelle: Free Photos / Pixabay

Kaum ein anderes Unternehmen verfügt über mehr Risikoinformationen als die Munich Re. Um dieses Wissen an einer zentralen Stelle zu sammeln und mit weiteren Daten anzureichern, entwickelte der Rückversicherer einen Data Lake. In Zusammenarbeit mit der Data Science- und KI-Beratung Alexander Thamm GmbH wurden interne und externe Systeme über Data Pipelines angebunden. Nun werden die Data Operations weiter standardisiert und professionalisiert, um in Zukunft Data Pipelines gewissermaßen am Fließband zu produzieren.

Über diese Pipelines werden Daten von internen Abteilungen und externen Kunden in den Data Lake „gepumpt“ und Datenanalyse-Services zur Verfügung gestellt. Im Laufe der 140-jährigen Unternehmensgeschichte hat Munich Re eine enorme Menge an Daten generiert. Dazu gehören unter anderem Daten aus den Bereichen Naturkatastrophen, Klima, Immobilien und Medizin, aber auch Informationen zu Cybercrime.

Die Zielsetzung des Data-Lake war es, diese Informationen zu nutzen, um Risiken besser zu verstehen, und überdies neue analytische oder daten-getriebene Services für Erstversicherer anbieten zu können. Dafür mussten die Daten an einer zentralen Stelle gesammelt und Datenquellen angebunden werden. „Wir verfügen über einen einzigartigen Risikodatenschatz. Um diesen zu heben, haben wir unsere bislang dezentral gehaltenen Daten in einen Data Lake migriert“, erklärt Andreas Kohlmaier, Head of Data Engineering bei Munich Re.

Ein Data Lake ist ein sehr großer Datenspeicher, der sich dadurch auszeichnet, dass er Daten in ihrem ursprünglichen Rohformat beinhaltet. Er speichert Daten aus unterschiedlichsten Quellen, unabhängig davon ob es sich dabei um Texte, Zahlen, Bilder oder Videos handelt. Die Inhalte bezieht der Data Lake über Data Pipelines. Um diese zu entwickeln und zu betreiben, hat Munich Re mit der Alexander Thamm GmbH, einer der führenden Data Science und KI-Beratungen Deutschlands, zusammengearbeitet.

Data Engineers entwickeln und betreiben Data Pipelines

Für die Umsetzung stellte Andreas Kohlmeier ein zehnköpfiges Team aus eigenen Experten, sowie Spezialisten wie der Alexander Thamm GmbH zusammen. Die Data Engineers kümmern sich um die Entwicklung der Data Pipelines, mit deren Hilfe Daten übertragen und transformiert werden können. Eine Data Pipeline stellt die Verbindung vom Quellsystem, wo die Daten ursprünglich liegen, zum zentralen Data Lake her. Sie extrahiert die Daten aus verschiedenen Systemen, prüft deren Qualität, bereinigt, transformiert und legt sie im Data Lake ab. So wird der Zeitaufwand bei der Exploration, Aufbereitung und Zusammenfassung von Daten enorm reduziert und übergreifende Datenanalysen werden überhaupt erst ermöglicht.

Datenpipelines können dabei sehr unterschiedlich ausgestaltet sein – ihr Potenzial reicht vom relativ simplen Übertragen strukturierter Versicherungsdaten bis hin zur KI-gestützten Aufbereitung von Satellitendaten. „Künstliche Intelligenz spielt schon heute eine wichtige Rolle im Data Management bei Munich Re und wird in den kommenden Jahren weiter an Bedeutung gewinnen“, erklärt Kohlmaier.

Munich Re arbeitet deshalb intensiv am Thema KI für Data Management, dem sogenannten Augmented Data Management. Ein konkreter, KI-gestützter Anwendungsfall bei Munich Re ist der Aufbau versicherungsspezifischer Datenpools für Kunden. Die KI von Munich Re hat dabei aus zigtausenden von verschiedenen Excel-Sheets gelernt, die richtigen Informationen zu extrahieren und in ein einheitliches Zielformat zu überführen. „Dieser Datenpool hat wesentlich mehr Wissen als ein einzelner Versicherer je aufbauen könnte. Munich Re bietet eigene Daten, die Technologie und das Versicherungs-Know-how und kann so Pools für Kunden bauen“ ergänzt Kohlmaier.

Standardisierung und Professionalisierung der Data Operations

In der Vergangenheit wurden alle Data Pipelines individuell programmiert. Ziel ist es nun bis Ende nächsten Jahres bis zu 100 neue Pipelines zu bauen. „Wir wurden gebeten, ein Konzept zu entwickeln, um die Pipeline-Entwicklung zu standardisieren, inklusive DevOps und effiziente Analytics Operations“, erläutert Andreas Gillhuber, Co-CEO und seitens Alexander Thamm GmbH der Leiter dieses Projekts. „Damit eine weitere Skalierung möglich ist und die Kosten nicht explodieren, müssen geeignete Prozesse und Methoden etabliert werden“. Durch die Standardisierung und anschließende Automatisierung können Kosten reduziert werden – Stichwort: Economies of Scale.

„Wir sind dem Ziel, unseren Mitarbeitern die richtigen Daten so effizient wie möglich zur Verfügung zu stellen, einen großen Schritt näher gekommen..“, schildert Kohlmaier. Munich Re ist im Prozess der Digitalisierung durch die neuen Services bereits weit vorangeschritten und ist damit in der Versicherungsbranche ein Vorreiter. Die Möglichkeiten des KI-gestützten Data Managements, der effiziente Aufbau weiterer Data Pipelines und die Professionalisierung der Data Operations sind nur der Beginn des Wegs zur weiteren Skalierung der vielfältigen, neuen digitalen Services.

Autor: Andreas Gillhuber von der Alexander Thamm GmbH

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht.

zwei × drei =