
Betrug mit KI-Bildern und Videos
Dieser Artikel wurde zuletzt am 11. März 2026 aktualisiert.
Das ZDF hatte in den vergangenen Tagen einen handfesten Skandal. In einem Beitrag für die Nachrichtensendung wurde ein offensichtlich generiertes KI-Bild verwendet – sogar mit Wasserzeichen im Bild. Natürlich lies die Reaktion vor allem im Netz nicht lange auf sich warten und der öffentlich-rechtliche Sender kam unter massiven Druck.
Das Beispiel zeigt für mich aber, dass Deepfakes in der Realität angekommen sind und wir selbst bei einem sichtbaren Wasserzeichen im Bild Inhalte schnell für glaubwürdig halten. Sind wir mal ehrlich, wie vielen von uns hätte das auch passieren können? Vor allem im schnellen Social-Media-Feed? Ich möchte damit den Fehler des ZDFs definitiv nicht kleinreden und es gehört zum journalistischen Standard das zu prüfen, aber gerade unter Zeitdruck scheint das menschliche „Prüfen“ nicht mehr auszureichen.
Inhaltsverzeichnis
Was bedeutet diesen Fall für Unternehmen? Auf den ersten Blick scheint das kaum zusammenzuhängen, aber im Kern entwickeln sich durch immer bessere Deepfakes (ohne Wasserzeichen!) sowie die nachlassende kritische Prüfung ein großes Problem. Der Fall zeigt nämlich, wie leicht sich visuelle „Beweise“ heute manipulieren lassen. KI generierte Bilder und Videos werden immer häufiger für Betrug genutzt. Wir werden also zum einen durch eine bessere Qualität der Inhalte aber auch gleichzeitig durch eine gezielte Nutzung in Routineprozesse anfälliger für solche Betrugsmaschen.
Versicherungen: Betrug mit KI-Bildern und Videos
Eine Versicherung entscheidet in der Regel innerhalb kurzer Zeit, ob ein Schaden beglichen wird. Vor allem bei kleineren Schäden werden dazu meist Bilder genutzt, die den Schaden zeigen. In der Regel wurde das vom Versicherungsnehmer selbst aufgenommen. Was ist nun, wenn dieses Bild mit KI manipuliert wurde?
Erschwerend kommt hinzu, dass viele Versicherungen auf KI-Tools setzen und somit die Schäden automatisiert abwickeln. Ein Mensch greift dann bei Unstimmigkeiten oder hohen Summen ein. Der hochangesehene Beruf des Schadenregulierers oder Gutachters wandelt sich daher stark und die Rolle verschiebt sich: weniger Routine, mehr komplexe Prüfung, Plausibilisierung und Betrugsabwehr. Der wirtschaftliche Schaden durch Betrugsfälle dürfte trotz dieser Bemühungen immens sein, vor allem da sich eine intensive Prüfung bei kleineren Beträgen kaum lohnt.
Aber auch Banken sind vermehrt betroffen und kämpfen z. B. mit Identitätsbetrug.
Laut dem Bericht von Signicat sind 42,5 % der im Finanzsektor aufgedeckten Betrugsversuche inzwischen auf KI zurückzuführen. Vor drei Jahren gehörten Deepfakes noch nicht einmal zu den drei häufigsten Arten des digitalen Identitätsbetrugs, und heute sind sie die häufigste Art des digitalen Identitätsbetrugs, mit dem Unternehmen konfrontiert sind.
Signicat
Das ganze System gleicht mittlerweile einem Katz-und-Maus-Spiel. Viele nutze KI-Tools, um KI-Bilder zu erkennen. Das funktioniert in der Praxis nur eingeschränkt, da die technologische Entwicklung derzeit so schnell ist.
Schaden an Warensendungen
Im E-Commerce lässt sich ein vergleichbares Phänomen feststellen. Betrüger generieren z. B. Bilder von „beschädigter Ware“, um Rückerstattungen zu fordern, ohne das Produkt jemals besessen oder tatsächlich beschädigt zu haben.
Nehmen wir einmal an, ein Betrüger bestellt eine Schreibtischlampe, die bei ihm in einwandfreien Zustand eintrifft. Nun erstellt er mit KI ein Bild, das einen Schaden zeigt. Mit Bitte um Kulanz wendet er sich an den Händler. Dieser erstattet ihm nun den Betrag und da es sich für ihn nicht lohnt die kostengünstige Lampe zurückzunehmen macht der Betrüger maximalen Profit. KI kann hier vielseitig genutzt werden: Das beschädigte Produkt an sich, ein zerrissener Karton oder eine vermeintliche Falschlieferung durch ein ähnliches Produkt. Aber auch die Seriennummer oder Rechnungen können durch KI generiert werden.
Betrug auch bei Airbnb
Eine Frau entging im vergangenen Jahr nur knapp einer hohen Strafzahlung, als der Vermieter ihr mit KI-Bildern eine „Verwüstung“ in der Wohnung nachweisen wollte. Unstimmigkeiten auf den Bildern lieferten allerdings den Gegenbeweis. Airbnb warnt inzwischen deutlich vor KI-Bildern. Zwar nicht wie im genannten Fall, sondern bei der Buchung. Immer mehr Betrüger fälschen ihre Anzeigen für Ferienwohnungen.
KI-Bilder und Videos eröffnen Betrüger viele Möglichkeiten
Die Möglichkeiten mit KI-Tools sind groß und erlauben leider nicht nur positive Einsatzmöglichkeiten. Viele Betrugsmaschen in diesem Bereich nehmen stark zu und werden uns in Zukunft auch weiterhin beschäftigen. Daher ist es wichtig, die Kompetenz in diesem Bereich zu stärken. Dazu gehört nicht nur das (technische) Erkennen solcher Inhalte, sondern auch das kritische Einordnen und Hinterfragen.
Hast du schon Erfahrungen gemacht?
Tag:Recht



