Von Anfang bis Ende digital: Was Industrieversicherer aus den Daten lesen können

Arek Socha auf Pixabay

Industrieversicherer leben von Daten – von Kundendaten und insbesondere von Risikodaten. Entsprechend sind schon heute Teile davon in Fachanwendungen digitalisiert, vor allem in Bestandsführungs- und Verwaltungssystemen. Was fehlt, ist eine systemübergreifende Sicht.

Ohne ein vollumfänglich digitales Produkt gibt es keine digitale End-to-End-Bearbeitung. Diese sollte jedoch das Ziel sein, um die Digitalisierungsvorteile wirklich langfristig voll auszunutzen. Eine End-to-End-Produktdigitalisierung bedeutet also die Beseitigung aller Medien-, System- und Prozessbrüche von der Anfrage bis zur Policierung und später dem Renewal. Sie ist die Grundlage für ein idealerweise in großen Teilen dunkel verarbeitetes Neu- und Altgeschäft. Ein dafür notwendiges digitales Produkt definiert: Deckungsmodell, Tarif- und Prämienberechnung, Bedingungswerke und Klauseln, Schadenmodell und alle hiermit verbundenen Prozessschritte und Vertragsdokumente.

Außerdem gilt es zu berücksichtigen, dass viele Produkte pro Vertriebskanal individuell anpassbar sein müssen, etwa für einen bestimmten Makler oder eine Facility. Seitens der Softwareentwicklung gibt es für diese Produktdigitalisierung verschiedene Ansätze. Wegen der Kombination aus hoher Komplexität und notwendiger Individualisierung bei einzelnen Policen eignet sich im besonderen Maße ein modellbasierter Entwicklungsansatz. Modellbasiert bedeutet in diesem Zusammenhang, dass ein Großteil der Entwicklung nicht über Programmcode, sondern über eine digitale Beschreibung erfolgt.

Fachliche Analyse des Produkts

In klassischen Entwicklungsprozessen klären Business Analysten mit der Fachabteilung zunächst die Anforderungen an die zu entwickelnde Software ab und beschreiben diese. Ein Entwicklungsteam implementiert dann den gesamten notwendigen Code. Solch ein Vorgehen setzt voraus, dass das Entwicklungsteam die Details und Abhängigkeiten des Produkts und seiner Prozesse bis ins kleinste Detail verstanden hat. Bei einem modellgetriebenen Ansatz in Kombination mit einer Low Code-Plattform ändert sich dagegen die Situation. Die klassische Form der Anforderungsanalyse bleibt zwar bestehen, aber Business Analysten und Fachexperten sind durch Modellierungswerkzeuge in der Lage, weite Teile des digitalen Produktes eigenständig zu entwerfen, zu testen und anzupassen.

Definition von Datenmodell und Fachlogik

Liegen alle Informationen aus der Analysephase entsprechend strukturiert vor, kann die Modellierung mithilfe von Low Code-Werkzeugen beginnen. Lediglich ein technisches Grundverständnis sowie ein gewisses Abstraktionsvermögen ist notwendig. Aus der Perspektive eines Experten, zum Beispiel eines Underwriters oder Business Analysten, gibt es dafür zwei wesentliche Arbeitsschritte: das Modellieren der Daten und die Definition der darauf operierenden Fachlogik.

Der größte Teil dieser Fachlogik lässt sich bei einem Low Code-Ansatz mittels entsprechender Werkzeuge ohne Programmierkenntnisse entwickeln. Die Arbeitsweise kann man sich wie bei der Erstellung einer komplexeren Exceltabelle vorstellen: Nachdem die Zeilen- und Spaltenstruktur steht (Datenmodell) können die Daten über Formeln verknüpft, validiert und berechnet werden (Fachlogik).

Erstellung von Oberflächen und Druckstücken

Auf Basis des Datenmodells können nun über weitere Low Code-Tools auch die Oberflächen für die Anwendung definiert werden, etwa Ein- und Ausgabeformulare für Webportale oder Fachanwendungen. Der Digitalisierungsprozess liefert im Ergebnis keine klassischen Prototypen, die als Mockups ein erstes Gefühl für die Anwendung vermitteln sollen und danach nicht weiter nutzbar sind. Die erstellten Daten- und Oberflächen-Modelle sowie Workflows werden Teil der Lösung. Erste Ergebnisse sind dadurch nicht nur sehr schnell sichtbar. Sie stellen als echte Anwendung eine viel konkretere Grundlage dar, um Abläufe zu erproben und weitere Anforderungen abzuleiten.

Implementierung in den Prozess

Ab einem bestimmten Reifegrad können dann Datenmodelle, Fachlogiken, Oberflächen und Druckstücke in den Prozess oder die Fachanwendung integriert werden. Das Ziel kann dabei etwa eine digitale Underwriting-Plattform sein oder eine Portalanwendung für externe Anwender. Hier können Softwareentwickler individuellen Programmcode beisteuern, um Drittsysteme zu integrieren oder komplexe Fachlogik abzubilden. Die existierenden Modelle sind dabei Grundlage für die Implementierung. Die Benutzeroberflächen und Workflows werden entsprechend angepasst, um alle nötigen Interaktionen zu verknüpfen. Fachexperten und Softwareentwickler arbeiten gemeinsam an der Lösung, wobei die Low Code-Plattform das direkte Zusammenspiel ermöglicht.

Schlussendlich unterstützt ein Low Code-Ansatz die agile Arbeitsweise: Endanwender können viel früher einbezogen werden und ihr Feedback in den oben beschriebenen iterativen Prozess einbringen. Änderungen an der Oberfläche oder der Fachlogik lassen sich teilweise direkt im gemeinsamen Workshop umsetzen. Low Code-Plattformen können somit als Katalysatoren bei der Einführung von agilen Methoden wirken.

Autor: Wolfgang Filser, Principal Consultant Industrieversicherungen bei mgm technology partners

Den vollständigen Beitrag lesen Sie in der aktuellen November-Ausgabe der Versicherungswirtschaft.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht.

fünf × 3 =