Milliardenrisiko Deepfake: Wenn Versicherer ihren Augen nicht trauen dürfen

Snag Eun Park auf Pixabay

Wer Mimik und Stimmen von Vorstandsvorsitzenden oder Regierungschef synthetisieren und sie beliebige Sätze sagen lassen kann, hat wirksame Werkzeuge für Betrug, Erpressung, Desinformation in der Hand. Sogenannte Deepfakes können genau das. Noch werden sie mit einem Augenzwinkern betrachtet, als kleine Späßchen, gerne genutzt etwa in Comedywelt als humoristische Einlage. Für die Versicherer gehören die virtuellen Fälschungen des realen Lebens zu einem Szenario, das die heutige Risikowelt auf den Kopf stellen könnte.

Man kann Personen Dinge sagen oder tun lassen, die sie nie gesagt oder getan haben. Vor wenigen Jahren noch war enormer Aufwand nötig, um das Gesicht einer Person in das Video von einer anderen Person einzufügen. Als Filme der „Star Wars“-Reihe verstorbene Schauspieler wieder auf die Leinwand brachten, galt das als Tricktechniksensation.

Heute werkeln Privatpersonen an Filmchen, in denen Facebook-Gründer Mark Zuckerberg damit prahlt, die Kontrolle über Milliarden von gestohlenen Daten zu haben.

2018 sorgte ein Clip für Aufsehen, hinter dem der Schauspieler Jordan Peele steckte: Darin bezeichnet Barack Obama seinen Nachfolger Donald Trump als Vollidioten. Wer die Clips ohne Misstrauen betrachtet, könnte sie für echt halten. So viel zur digitalen Beschleunigung.

Deepfake gehört zu den Schattenseiten der Künstlichen Intelligenz. Laut Euler Hermes gewinnen Methoden wie diese – befördert durch eben jene Entwicklungen rund um KI und Machine Learing – zunehmend an Raffinesse. Das Risikopotenzial ist groß und zumindest aus heutiger Sicht kaum zu bändigen.

„Software zur Stimm- oder Handschriftenimitation oder auch Deepfake-Videos eröffnen Betrügern in Zukunft noch viele neue Möglichkeiten“, warnte Ron van het Hof, Chef des Kreditversicherers in Deutschland, Österreich und der Schweiz 2019. „In einem oder zwei Jahren gibt es vielleicht den ersten Fake President Fall, bei dem die Zahlungsanweisung als Deepfake-Video per Whatsapp kam.“ Der sogenannte falsche Präsident nutzt durch geschickte Manipulation das Vertrauen seines Gegenübers aus.

So schnappte wohl auch die Fake-Falle zu, als der vermeintliche deutsche Vorstandschef eines Energieunternehmens bei seinem Pendant aus der britischen Niederlassung durchklingelte und Zahlungen anwies. Allianz-Tochter Euler Hermes gab letztes Jahr eine Pressemeldung dazu heraus, die medial vielfach aufgegriffen wurde.

Im konkreten Schadenmoment habe sich der britische Geschäftsführer zwar über den Inhalt des Telefonats gewundert, kannte aber die Stimme am anderen Ende der Leitung – und vertraute ihr. Das Geld wurde überwiesen. Satte 220.000 Euro landeten auf einem Konto in Ungarn. Weg war es.

Laut Internet Crime Report des US-Geheimdienstes habe es allein 2018 über 20.000 Opfer der Betrugsmasche gegeben – mit einem Schaden von rund 1,2 Mrd. US-Dollar. Zwischen 2013 und 2018 haben sich die bekannten weltweiten Schäden durch Fake President auf insgesamt 12,5 Mrd. US-Dollar summiert.

Deepfake macht eine ohnehin schon komplexe Risikowelt noch komplizierter 

Wer seinem Gegenüber vertrauen will, muss ihn ab jetzt also mit Trickfragen testen? Ungemütlich. Tendenzen dahin zeichnen sich allerdings immer mehr ab. Sicher scheint, dass Deepfake die ohnehin schon komplexe Risikowelt noch komplizierter macht. Manipulationen dieser Art können die finanzielle Gesundheit von Wirtschaftsunternehmen empfindlich belasten, glaubt Moody´s. Angriffe zu erkennen und zu bekämpfen erfordert laut der Ratingagentur langfristig eine Mischung aus technischem Know-how und Aufklärungsarbeit. Das wird nötig sein.

Denn je besser die Fälschungen, desto größer ihr Gefahrenpotenzial: Ein Fake-Video, das authentisch wirkt, kann den Ruf einer Person ruinieren oder sie für fremde Zwecke missbrauchen. Umgekehrt könnte jemand, der bei einer verbotenen oder moralisch fragwürdigen Handlung gefilmt wird, behaupten, es handle sich bei der Aufnahme um einen Deepfake. Auch Wissenschaftler Hao Li geht von einer wachsenden Bedrohung aus. Der Wissenschaftler arbeitet an der University of Southern California (USC) und hat sich auf die Technik spezialisiert. Heute seien die Fälschungen bei ganz genauem Hinsehen erkennbar.

Die Stimme klinge anders, die Lippensynchronisation sei nicht perfekt, die Gesichtsbewegungen wirkten unnatürlich. Das würde sich bald ändern, erklärte Li kürzlich in einem Zeitungsbericht. Der 39-Jährige weiß, wovon er spricht. Seit Jahren befasst er sich mit Computergrafik und dem Manipulieren von Videos. Heute hilft er, die Gesichter von Schauspielern auf die Körper von Stunt-Doubles zu projizieren und vertreibt eine App, mit der Nutzer ihre eigenen Avatare kreieren können.

Stand jetzt, sieht die Realität weniger düster aus. Zu unterschätzen ist das Risiko trotzdem nicht. Bereits heute werden hohe Summen für die Entwicklung neuer Werkzeuge ausgegeben, die Fälschungen auch dann erkennen sollen, wenn das menschliche Auge oder auch das Gehör überfordert sind.

Social-Media-Gigant Facebook holte etwa Microsoft an Bord, um die „Deepfake Detection Challenge“ mit insgesamt zehn Millionen US-Dollar Preisgeld auszuloben. Die Defense Advanced Research Projects Agency, eine Forschungsbehörde des US-Verteidigungsministeriums, hat seit 2016 rund 68 Mio. Dollar verteilt, um Fortschritte auf dem Gebiet zu erzielen.

Abzuwenden ist am Ende schließlich auch das Szenario einer Fake-Kultur, in der Menschen nicht mehr wissen, worauf sie sich verlassen können und nicht mehr glauben können, was sie sehen oder hören. Eine schöne Zukunftsperspektive wäre das wahrlich nicht – weder für die Gesellschaft noch die Wirtschaft und ihre Versicherer.

Autor: Michael Stanczyk

Mehr zum Thema lesen Sie in der aktuellen Märzausgabe des Magazins Versicherungswirtschaft.