Suistimalin Yeni Faili: Yapay Zeka mı?

ACFE 2024 verilerine göre kurumlar, gelirlerinin %5’ini suistimale kaybediyor. Yapay zekâ artık yalnızca bir araç değil, suistimalin öznesi haline geliyor.

ACFE’nin 2024 Report to the Nations verilerine göre kurumlar her yıl gelirlerinin ortalama %5’ini suistimale kaybediyor. Artık suistimal yalnızca insan eliyle değil, algoritmaların yardımıyla işleniyor!

Neden “Yapay Zeka Suistimalin Yeni Faili” Diyebiliriz? – ACFE 2024’ten Kanıtlarla

ACFE’nin 2024 Report to the Nations verileri, kurumların her yıl gelirlerinin ortalama %5’ini suistimale kaybettiğini ortaya koyuyor. Ancak bu kez tabloya yeni bir aktör eklendi: Yapay zeka. ACFE’nin 2024 trend analizleri, teknolojinin artık yalnızca bir araç değil, suistimalin bizzat faili haline gelebileceğini hatta geldiğini gösteriyor.

1) Yapay zeka destekli dolandırıcılıklar trend haline geliyor

ACFE’nin Top 5 Fraud Trends of 2024 analizleri, yapay zekâ destekli dolandırıcılıklardaki hızlı yükselişi ortaya koyuyor. Deepfake ses ve video üretimi, sahte e-postalar ve otomatik belge üretimi; şirket veri ve algoritmalarını manipüle ederek geleneksel denetimleri yanıltabiliyor.

Örnek:
2024’te bir Avrupa şirketinde CFO’yu taklit eden yapay zekâ destekli bir sesli çağrı, 15 milyon USD’lik sahte transferi tetikledi. Dolandırıcı, yalnızca 10 dakikalık bir görüşmeyle güven tesis etmişti.

2) Kurumlar yapay zekâyı kullanmadan önce suistimalciler kullanmaya başladı bile

ACFE–SAS ortak çalışması olan Anti-Fraud Technology Benchmarking Report (2024), kurumların yalnızca %18’inin yapay zekâyı aktif kullandığını; buna karşılık büyük çoğunluğun önümüzdeki yıllarda entegre etmeyi planladığını ortaya koyuyor. Yani suistimalciler teknolojiyi önce benimsiyor, kontrol sistemleri ise geriden geliyor.

Örnek:
Aynı rapora göre dolandırıcılar, generatif yapay zekâ ile sahte tedarikçi kayıtlarını saniyeler içinde oluşturabiliyor. Buna karşın birçok kurum hâlâ şüpheli işlemleri manuel analizlerle tespit etmeye çalışıyor.

3) Deepfake dolandırıcılık vakaları milyonlarca dolar kayba neden oluyor

Fraud Magazine’de yer alan örnekler, Hong Kong merkezli bir şirkette deepfake video konferans yoluyla gerçekleştirilen 25 milyon USD’lik dolandırıcılığı ortaya koyuyor. Dolandırıcılar, şirket yöneticisini taklit eden yapay zekâ üretimi video ile onay almayı başardı.

Örnek:
Olay sonrası yapılan incelemede, dolandırıcının kimliği saptanamadı çünkü “fail” aslında bir yazılımdı — yüz, ses ve mimikler tamamen algoritma tarafından oluşturulmuştu.

4) Teknoloji yaygınlaştıkça suistimal fırsatları artıyor

ACFE’nin teknoloji ve suistimal analizleri, teknolojinin yaygınlaşmasının suistimalciler için yeni fırsatlar yarattığını açıkça gösteriyor. Bu durum özellikle ses klonlama, otomatik imza ve belge üretim sistemlerinde öne çıkıyor.

Örnek:
2024’te yapılan bir siber güvenlik testinde, yalnızca 3 saniyelik bir ses kaydıyla üretilen sahte yönetici sesi, finans departmanından ödeme onayı almayı başardı. Yapay zekâ, sahteciliği artık dijital “kanıt” ile destekliyor.

5) Suistimalin aktörü değişiyor: insan eli değil, kod

ACFE’nin 2024 genel değerlendirmelerinde öne çıkan “fraud enabler” kavramı, suistimali kolaylaştıran unsurun artık insan değil sistemler olduğunu gösteriyor. Otomatik belge üretimi, e-posta zincirleri ve algoritmik muhasebe manipülasyonları, yazılımın doğrudan suistimal failine dönüşmesine neden oluyor.

Örnek:
2024’te bir kamu kurumunda, AI tabanlı belge otomasyon sisteminin yanlış yönlendirilmiş parametrelerle sahte fatura üretip onay sürecinden geçtiği tespit edildi. Fail olarak kimse bulunamadı çünkü işlemi yapan bir “modül”dü.


Sonuç: Suistimalin Yeni Faili – Yapay Zeka Kapıda

ACFE 2024 bulguları net: Suistimalin doğası değişti. Artık mesele bir çalışanın kasadan para alması değil; sistemin kandırılması. Yapay zeka, sahte belgeler üreten, kimlikleri çoğaltan ve insan denetimini aşacak hızda hareket eden yeni bir tehdit.

Kurumlar hâlâ bu dönüşüme hazırlanıyor. Çoğu yapay zekâyı bir “önleme aracı” olarak görürken, suistimalciler onu çoktan bir “suistimal aracı”na dönüştürdü. Bugün yapay zeka raporların dipnotlarında geçiyor olabilir; ancak çok yakında soruşturma dosyalarının öznesi olacak.

Sorularınız İçin, Bize Ulaşın

Onay kutusu
Onay kutusu (kopya)
Bültene Abone Ol

.

error: Content is protected !!