Toygun ATİLLA
Sosyal medyanın yaygınlaşması ve yapay zekâ takviyeli görüntü-üretim araçlarının ucuzlayıp erişilebilir hâle gelmesi; dolandırıcıların elini güçlendirdi. Artık yayınladığı birkaç fotoğraftan yahut görüntüden yola çıkarak bir ünlünün “gerçek” görüntüsünü, iletisini yahut sesi taklit etmek mümkün. Son aylarda Jennifer Aniston ve Brad Pitt üzere ünlü isimlerin manzaraları kullanılarak yapılan romance-type (duygusal) ve yatırım/tanıtım gayeli dolandırıcılık olayları dünya çapında çoğaldı.
DOLANDIRICILIK HADİSELERİ
İngiltere’de bir erkek, kendisine “Jennifer Aniston” olduğu söylenen bireylerce gerçekleştirilen deepfake görüntüler ve uydurma kimliklerle kandırıldı; binlerce sterlin ziyan ettiği haber oldu.
Fransa’da yayınlanan bir evrakta, “Brad Pitt” kılığına giren dolandırıcıların neredeyse 700.000 sterlin topladığı, uzun periyodik bir manipülasyon sonrası mağdurun önemli maddi ve ruhsal kayıplar yaşadığı bildirildi. Olay, AI-üretimli fotoğraf ve görüntülerin romantik itimat oluşturup para talep etmek maksadıyla nasıl kullanıldığını gözler önüne serdi.
DOLANDIRICILARIN ÇALIŞMA YOLLARI
Hedef seçimi: Tanınan ünlüler, kamuoyunda sempati/şaşkınlık doğuran figürler olduğu için tercih ediliyor.
1.Görüntü ve ses üretimi: Kamuya açık fotoğraf ve görüntülerden yararlanılarak AI modelleriyle kısa müddette yüksek inandırıcılığa sahip video/audio klipler üretiliyor.
2.İletişim inşası: Kurbanla duygusal bir bağ kuruluyor; vakitle mesajlaşmalar, sesli aramalar, hatta görüntülü “özel görüşmeler” gösteriliyor.
3.Para isteme / yönlendirme: Tıbbi masraflar, vergi/mahkeme ödemeleri, bâtın yatırım fırsatları üzere hikayelerle para talep ediliyor.
4.İzlerin silinmesi: İrtibat kanalları değiştirilip yönlendiriliyor; mağdur itimat düzenekleri çalıştığı için kuşku geç oluşuyor. Bu model, yüksek duygusal yatırım gerektiren “romance scam”lerin AI ile güçlendirilmiş hâlidir.
MİLYONLARCA DOLARLIK VURGUNLAR
Deepfake içeriklerin sayısı ve buna bağlı dolandırıcılık olayları son yıllarda süratle arttı. 2025 başında yapılan araştırmalar, ünlülere yönelik deepfake taarruzlarında ve genel deepfake olaylarında önemli artış olduğunu gösteriyor; çeyrek periyotlarda yüzlerce hadise raporlanıyor ve kayıplar milyon dolarları bulabiliyor. Uzmanlar, bu teknolojinin kabahat ekosisteminde kullanımının yakın vakitte daha da yaygınlaşacağını uyarıyor.
TEHLİKENİN FARKINDA MIYIZ?
Birçok ülke hâlâ bu yeni cins sahtekârlığı kapsayan spesifik düzenlemeler geliştirmeye çalışıyor. Mevcut ceza maddeleri dolandırıcılığı, sahtecilik ve kişilik hakları ihlallerini kapsayabilse de; AI-destekli deepfake’lerin tespit edilmesi, kanıtlanması ve kanıt sürecinin yürütülmesi pratikte zorluklar çıkarıyor. Uzmanlar teknoloji firmaları, toplumsal ağlar ve isimli merciler ortasında daha süratli protokoller oluşturulmasını öneriyor. Dünya Ekonomik Forumu ve hukuk etrafları de tehlikenin ciddiyetine dikkat çekiyor.
MAĞDURLARIN KAYBI
Bu dolandırıcılığın en acı istikameti sırf maddi değil. Romantik bağ kurulmuş mağdurlar; utanç, izolasyon, depresyon ve toplumsal prestij kaybı yaşıyor. Yüzbinlerce dolar birtakım hadiselerde milyonlara varan kayıplar bildirildi. Rehabilitasyon, ruhsal dayanak ve hukuksal süreç mağdurlar için uzun soluklu sürece dönüşüyor.
KORUNMA METOTLARI
1-Şüpheli duygusal bağlantılar: Hemen resmi kanallara taşıyın. Ünlü olduğunu sav eden birisi ile maddi talepler olursa durun, doğrulama isteyin.
2.İki faktörlü kimlik doğrulama kullanın: Finansal transferlerinizi ses, görüntü yahut “acımasız aşk” vaat eden kanallarda gerçekleştirmeyin.
3.Medya / marka takımları: Ürün tanıtımı için ünlü iş birliklerini doğrulamadan kabul etmeyin; talep gelen içeriklerin özgünlüğünü teknik doğrulama araçlarıyla denetim ettirin.
4.Hukuki adım: Şüpheli bir deepfake ile karşılaşırsanız ekran imajı, URL, vakit damgası üzere kanıtları saklayın ve siber kabahat ünitelerine başvurun.
5.Şirketler için: Marka ve yönetici imgelerinin berbata kullanımını izlemek için izleme servisleri (brand monitoring), derin geçersiz içerik tespit tahlilleri ve acil müdahale planları oluşturun.
NE YAPILMALI?
Platform sorumluluğu: Toplumsal ağlar, kısa doğrulama düzenekleri geliştirip uydurma içerikleri süratle kaldırmalı; tezlerin doğruluğunu teyit eden “trusted flagging” ağları kurulmalı.
Eğitim: Kamu spotları, yaşlı ve dijital olarak daha az savunmasız kümeler için özel bilinçlendirme kampanyaları koşul.
Teknoloji yatırımı: Derin uydurma içerik tespiti, watermarking, blockchain-tabanlı içerik doğrulama tahlillerine yatırım hızlandırılmalı.
Kamusal siyaset yapıcıları ile özel sektörün iş birliği, mağdurları korumak ve kabahat gelirlerini izole etmek için hayati ehemmiyet taşıyor.
YILDIZ MASKELİ DOLANDIRICILIK
Jennifer Aniston, Brad Pitt üzere isimlerin yüzü ve sesi, internette sırf magazin haberleri üretmiyor; dolandırıcılığın aracı hâline geliyor. Bu hadiseler bize şunu hatırlatıyor: Teknoloji nötrdir; onu kim nasıl kullanırsa o maksat hâline gelir. Hem bireyler hem kurumlar bilhassa medya ve finans kurumları hazırlıklı olmalı, erken ihtar sistemleri kurmalı ve mağdur düşmemek için temkinli davranmalı.
patronlardunyasi.com