Skip to main content

Cybersicherheit wird immer wichtiger – und gleichzeitig immer komplizierter. Seit dem massiven Anstieg KI-gestützter Betrugsmaschen bieten Antivirenprogramme und Firewalls nur noch grundlegenden Schutz, können aber gegen viele Arten von Cyberangriffen kaum etwas anrichten. Das Problem: Cyberkriminelle haben ihre Maschen soweit entwickelt, dass sie auf den ersten Blick kaum noch als solche zu erkennen sind. So bereiten nicht nur Phishing und ähnliche Methoden Unternehmen Kopfschmerzen. Experten warnen zunehmend auch vor sogenannten Deepfakes: Dabei handelt es sich um realistisch wirkende Medieninhalte, die mithilfe von künstlicher Intelligenz erzeugt wurden. Welchen Schaden die Fälschungen anrichten können und wie du dein Unternehmen davor schützen kannst, erklären wir dir hier.

Mehr spannende News über künstliche Intelligenz findest du am Ende dieses Beitrags.

Was sind Deepfakes und wie bedrohlich sind sie?

Während Deepfakes noch vor etwa drei Jahren für kaum mehr als Spielereien und miese Promi-Fakes nützlich waren, hat sich die Technologie rasant weiterentwickelt. Das zeigt auch das „Risk-Barometer“ der Allianz-Versicherung: Cybergefahren sind an Platz eins der Gefahren für Unternehmen – und zwar vor allem dank künstlicher Intelligenz. Die neuen KI-Modelle hinter den Fakes können realistische Stimmen synthetisieren und in Echtzeit Gesichter, Körper und Bewegungen sowie Dokumente erstellen. Selbst Fachleute können mittlerweile Schwierigkeiten dabei haben, Originale von Fälschungen zu unterscheiden.

Besonders in Europa und Nordamerika sind die Betrugsversuche mithilfe von gefälschten Dokumenten deutlich angestiegen. Laut dem Sumsub-Report sind die mit KI-gestützten Maschen um bis zu zwei Prozent gestiegen. Die Tools der Betrüger werden dabei immer besser. Vor allem komplexe, mehrstufige Angriffe haben weltweit um 180 Prozent zugenommen.

Wie funktioniert die Betrugsmasche mit Deepfakes?

Was nach dystopischer Science-Fiction klingt, ist jetzt schon Alltag. Der Betrug mit Deepfakes funktioniert in etwa so: Betroffene erhalten beispielsweise eine Einladung zu einem Videocall, augenscheinlich vom Geschäftsführer. Wer die annimmt, sieht tatsächlich auch seinen Geschäftsführer: Der erklärt, dass eine Zahlung rausgehen muss – möglichst schnell, da dieser die Zahlung gerade selbst nicht tätigen kann, weil er aktuell zu beschäftigt ist oder unter ähnlichen Vorwänden. Das Aussehen stimmt, die Stimme passt, sogar Gestik und Dialekt sind korrekt.

Und dennoch ist es nicht der echte Geschäftsführer – das kommt spätestens dann raus, wenn die Zahlung auffällt. Dumm nur, dass das Geld dann bereits weg ist. Für den Betrug benötigen die Kriminellen nicht viel:

  • Ein paar Minuten Videomaterial reichen der KI, um Aussehen, Gestik und Mimik zu imitieren.
  • Etwa 30 Sekunden Audiomaterial – beispielsweise aus einem Podcast oder einem Werbevideo – reichen aus, um die Stimme bis auf kleinste Details zu klonen.
  • Hintergrundinformationen zur Person lassen sich über LinkedIn oder ähnliche Plattformen abrufen.
  • Echtzeit-Deepfake-Softwares sind frei verfügbar, teils Open Source und es gibt sie sogar als App. Technisches Hintergrundwissen ist nicht vonnöten.

Das ganze funktioniert gerade deshalb so gut, weil Angestellte die Anweisungen von Vorgesetzten nur selten hinterfragen – besonders, wenn die Person scheinbar in einem Echtzeit-Videocall zu sehen ist. Wo normalerweise grundlegendes Wissen um Cybersecurity vor betrügerischen E-Mails schützen würde, umgehen Betrüger mit Deepfakes jeglichen gesunden Menschenverstand.

Arup: 25 Millionen Dollar einfach weg

Dass diese Masche nicht nur in ausgedachten Szenarien funktioniert, zeigt der Fall des britischen Ingenieurbüros Arup: Dieses wurde 2024 Opfer eines Deepfake-Betrugs in Hongkong, der so perfekt war, dass keiner der involvierten Mitarbeiter Verdacht schöpfte. Durch gefälschte Stimmen und Bilder in einem Videocall, bei dem sich Kriminelle als Führungspersonal ausgaben, wurde ein Mitarbeiter dazu gebracht, mehr als 25 Millionen US-Dollar in mehreren Transaktionen zu überweisen.

Bemerkenswert: Laut Aussage des Mitarbeiters kam ihm zwar die E-Mail verdächtig vor, doch sämtliche Zweifel wurden durch den Videocall mit mehreren ihm vertrauten Personen aus dem Weg geräumt. Dabei war jede einzelne Person im Call von der KI erzeugt worden. Die Firma selbst sagte aus, dass ihre Systeme nicht gehackt worden seien – der Betrug lief also allein über das sogenannte „Social Engineering“, also die Manipulation des Mitarbeiters durch das Ausnutzen seines Vertrauens.

Schutzmaßnahmen gegen Deepfakes

Lassen sich Deepfakes dann überhaupt noch erkennen? Ja – auch wenn es immer schwieriger wird. Einige wichtige Warnsignale, auf die Unternehmen und ihre Angestellten achten sollten, sind:

  • Unnatürliche Lippenbewegungen, leichte Verzögerungen der Mundbewegungen beim Sprechen
  • zu seltenes Blinzeln, fehlende Reflexionen in den Augen
  • Haare und Übergänge zum Hintergrund zeigen Fehler oder verschwommene Grenzen und flackernde Konturen
  • Tonqualität ist eigenartig (metallisch oder mit seltsamer Raumakustik)
  • Zeitdruck und Geheimhaltung sind klassische Indikatoren einer Social-Engineering-Strategie, Sätze wie „Möglichst schnell überweisen“ fallen
  • Ungewöhnliche Kommunikationskanäle, beispielsweise über WhatsApp oder sonst nicht genutzte Konferenztools
  • Rückfragen werden abgelenkt, oft mit dem Hinweis, dass schnell gehandelt werden muss

Grundsätzlich gilt: Das Bauchgefühl ist auch bei Deepfakes noch immer ein guter Indikator, um zu erkennen, dass doch etwas komisch ist. Auch mithilfe einiger organisatorischer Maßnahmen lassen sich Deepfakes schnell enttarnen. So sollten Anweisungen zu Zahlungen beispielsweise immer durch eine zweite Person überprüft werden und nicht auf eigene Faust durchgeführt werden. Zusätzlich sollten die Anweisungen noch einmal durch einen Anruf über einen anderen Kanal abgesichert werden. Für besonders sensible Transaktionen können auch etablierte „Code-Wörter“ helfen, einander als echt zu erkennen.

Mehr interessante Infos rund um das Thema künstliche Intelligenz liest du hier:

Der Artikel hat dir gefallen? Gib uns einen Kaffee aus!

Kommentar hinterlassen