Neuer Missbrauchstäter: Künstliche Intelligenz?

Laut den Daten des ACFE 2024 verlieren Unternehmen 5 % ihrer Einnahmen durch Betrug. Künstliche Intelligenz ist nicht mehr nur ein Werkzeug, sie wird zum Gegenstand von Betrug.
Laut ACFE’s 2024 Report to the Nations verlieren Unternehmen jedes Jahr durchschnittlich 5% ihrer Einnahmen durch Betrug. Betrug wird nicht mehr von Menschenhand begangen, sondern mit Hilfe von Algorithmen!
Warum können wir sagen „Künstliche Intelligenz ist der neue Täter von Betrug“ – mit Beweisen von ACFE 2024
Die Daten des ACFE-Berichts 2024 zeigen, dass Unternehmen jedes Jahr durchschnittlich 5 % ihrer Einnahmen durch Betrug verlieren. Dieses Mal ist jedoch ein neuer Akteur hinzugekommen: Künstliche Intelligenz. Die ACFE-Trendanalysen für 2024 zeigen, dass Technologie nicht mehr nur ein Werkzeug ist, sondern sogar selbst zum Täter von Betrug werden kann.
1) KI-gestützte Betrügereien werden zum Trend
Die Analysen der Top 5 Fraud Trends of 2024 von ACFE zeigen den rasanten Anstieg des durch künstliche Intelligenz unterstützten Betrugs. Deepfake Audio- und Videoproduktion, gefälschte E-Mails und automatisierte Dokumentenerstellung können Unternehmensdaten und Algorithmen manipulieren, um herkömmliche Prüfungen in die Irre zu führen.
Beispiel:
Im Jahr 2024 löste ein KI-gesteuerter Sprachanruf, der sich als Finanzchef eines europäischen Unternehmens ausgab, eine betrügerische Überweisung von 15 Millionen USD aus. Der Betrüger hatte mit einem nur 10-minütigen Anruf Vertrauen aufgebaut.
2) Die Täter haben bereits begonnen, künstliche Intelligenz zu nutzen, bevor Organisationen sie einsetzen
Der Anti-Fraud Technology Benchmarking Report (2024), eine gemeinsame Studie von ACFE und SAS, zeigt, dass nur 18 % der Unternehmen künstliche Intelligenz aktiv nutzen, während die große Mehrheit plant, sie in den kommenden Jahren zu integrieren. Mit anderen Worten: Die Betrüger übernehmen die Technologie zuerst, während die Kontrollsysteme hinterherhinken.
Beispiel:
Demselben Bericht zufolge können Betrüger mit generativer künstlicher Intelligenz in Sekundenschnelle gefälschte Lieferantendatensätze erstellen. Viele Unternehmen versuchen jedoch immer noch, verdächtige Transaktionen mit manuellen Analysen zu erkennen.
3) Deepfake-Betrugsfälle verursachen Millionen von Dollar an Verlusten
Beispiele im FraudMagazine zeigen einen Betrug in Höhe von 25 Mio. USD bei einem Unternehmen in Hongkong durch gefälschte Videokonferenzen. Den Betrügern gelang es, mit einem KI-generierten Video, das eine Führungskraft des Unternehmens imitierte, eine Genehmigung zu erhalten.
Beispiel:
Bei der Untersuchung nach dem Vorfall konnte der Betrüger nicht identifiziert werden, weil der „Täter“ in Wirklichkeit eine Software war – das Gesicht, die Stimme und die Mimik wurden vollständig vom Algorithmus erzeugt.
4) Mit zunehmender Verbreitung der Technologie steigen die Möglichkeiten des Missbrauchs
Die ACFE-Analysen zu Technologie und Betrug zeigen deutlich, dass die Verbreitung von Technologie neue Möglichkeiten für Betrüger schafft. Besonders deutlich wird dies beim Klonen von Stimmen, bei automatischen Unterschriften und bei Systemen zur Erstellung von Dokumenten.
Beispiel:
Bei einem Cybersicherheitstest im Jahr 2024 gelang es einer gefälschten Managerstimme, die mit nur 3 Sekunden Tonaufnahme erzeugt wurde, die Zahlungsgenehmigung der Finanzabteilung zu erhalten. Künstliche Intelligenz unterstützt jetzt Fälschungen mit digitalen „Beweisen“.
5) Der Akteur des Missbrauchs ändert sich: Code, nicht menschliche Hände
Das Konzept des „Fraud Enabler“, das in den allgemeinen Bewertungen des ACFE für 2024 hervorsticht, zeigt, dass es nicht mehr die Menschen, sondern die Systeme sind, die Betrug ermöglichen. Automatisierte Dokumentenerstellung, E-Mail-Ketten und algorithmische Buchhaltungsmanipulationen führen dazu, dass Software zum direkten Täter von Betrug wird.
Beispiel:
Im Jahr 2024 wurde festgestellt, dass ein KI-basiertes System zur Automatisierung von Dokumenten in einer Regierungsorganisation gefälschte Rechnungen mit falschen Parametern erstellt und durch den Genehmigungsprozess geleitet hat. Es wurde niemand als Täter ermittelt, da es sich um ein „Modul“ handelte.
Fazit: Der neue Betrüger – Künstliche Intelligenz vor der Tür
Die Ergebnisse des ACFE 2024 sind eindeutig: Die Art des Betrugs hat sich geändert. Es geht nicht mehr darum, dass ein Angestellter Geld aus der Kasse nimmt; es geht darum, das System zu manipulieren. Künstliche Intelligenz ist eine neue Bedrohung, die falsche Dokumente erstellt, Identitäten nachbildet und sich mit einer Geschwindigkeit bewegt, die die menschliche Kontrolle übersteigt.
Die Unternehmen bereiten sich noch immer auf diesen Wandel vor. Während viele KI als „Präventionswerkzeug“ betrachten, haben Betrüger sie bereits in ein „Missbrauchswerkzeug“ verwandelt. Heute wird KI vielleicht noch in den Fußnoten von Berichten erwähnt, aber schon bald wird sie Gegenstand von Ermittlungsakten sein.