Yakın zaman önce Google, GPU’lardan yardım alan ücretsiz bilgi işlem hizmeti Google Colaboratory’deki deepfake (Derin Hile) algoritmalarını yasakladı. Deepfake’leri düzenleyen bir kişi veya teknoloji devinden oluşmuyor, o kadar yaygın ki birkaç ABD eyaletinin bunları düzenleyen yasaları var. Çin yasa tasarısı da bilgisayar tarafından oluşturulan medyanın tanımlanmasını gerektiriyor ve olası AB yapay zekâ düzenlemesinin bu özel teknoloji hakkında madde içermesi bekleniyor.
Kaspersky uzmanları, deepfake sahtekarlığının ne olduğunu, neden bu kadar çok tartışmaya yol açtığını ve kullanıcıların kendilerini nasıl koruyabileceklerini şöyle açıklıyor:’Deepfake’ genellikle insanlara dair özellikleri konu alan ve derin sinir ağları yardımıyla üretilen sentetik, bilgisayar tarafından oluşturulmuş medya türlerini ifade ediyor. Bunlar video, fotoğraf veya ses kaydı olabiliyor. Geleneksel görüntü düzenleme teknikleri yerine derin öğrenmenin kullanılması, inandırıcı bir sahte parça oluşturmak için gereken çabayı ve beceriyi büyük ölçüde azaltıyor.
Endişeler gündeme geliyor
Başlangıçta bu terim Reddit’te popülerlik kazanmış belirli bir yazılım parçasına atıfta bulunuyordu. Yazılım, bir kişinin yüzünü başka kişinin bulunduğu bir videoya yerleştirebiliyordu ve ünlülerin taklitleriyle rıza dışı porno görüntüleri oluşturmak için kullanıldı. Tahminlere göre tüm deepfake sahtekarlıkların %96’sı pornografik görüntülerden oluşuyor. Deepfake’in kötüye kullanımı, itibar gaspı ve kamuyu önünde utandırma gibi kullanımlara dair endişeleri gündeme getiriyor.
Bu teknoloji siber suçlulara da yardımcı olabiliyor. İngiltere ve Hong Kong’daki en az iki vakada, ilgili şirketlerin yöneticisi gibi davranarak şirketleri dolandırıcılara para aktarmaları için kandırmak üzere kurgulanmış deepfake ses sahtekarlığı kullanıldı. Yeni araştırmalar, finans kurumları tarafından KYC prosedürlerinde kullanılan ticari canlılık tespit algoritmalarının kimlik fotoğraflarını kullanan deepfake uygulamaları tarafından kandırılabileceğini ve yeni saldırı vektörleri oluşturabileceğini, bunun sızdırılmış kimlik bilgilerini ciddi bir sorun haline getirdiğini gösteriyor.
Diğer bir sorun da deepfake sahtekarlıklarının, kötü amaçlarla kullanılabildikleri için ses ve video içeriğine olan güveni sarsması. Örneğin yakın tarihli bir vakada, kripto para birimi dolandırıcılığını desteklemek için Elon Musk ile yapılan sahte bir röportaj kullanıldı. Europol gibi çeşitli uzmanlar ve kurumlar, deepfake görüntülerinin artan kullanılabilirliğinin internette dezenformasyonun daha da yayılmasına yol açabileceği konusunda uyarıyor.
Teknolojiyi kullanmanın yeni yolları
Haberlerin hepsi gerçek haber değil. Görüntü manipülasyonu, görüntülemenin kendisi kadar eski bir konu. CGI onlarca yıldır piyasada ve her ikisi de deepfake gibi geniş bir kullanım alanı buldu. Örneğin Kendrick Lamar’ın yakın tarihli Heart Part 5 videosunda, rapçinin yüzünü Kanye West gibi diğer ünlü ünlülere dönüştürmek için deepfake teknolojisi kullanıldı. Top Gun: Maverick filminde oyuncu sesini kaybettikten sonra Val Kilmer’in karakterini seslendirmek için bir algoritmadan yardım alındı. Sahte Tom Cruise’un oynadığı viral bir TikTok serisi oluşturmak için de yine deepfake algoritmaları kullanıldı. Birkaç girişim, örneğin gerçeğe yakın metaverse avatarları oluşturmak için bu teknolojiyi kullanmanın yeni yollarını arıyor.
Deepfake’leri çevreleyen tüm güven sorunlarıyla birlikte, bir deepfake’in nasıl tespit edileceği merak ediliyorsa işe aşağıdaki ipuçlarıyla başlanabilir:Tom Cruise’un yer aldığı örneklerdeki gibi inandırıcı deepfake örnekleri hala çok fazla uzmanlık, çaba ve hatta bazen profesyonel bir oyuncu gerektiriyor. Dolandırıcılık için kullanılan sahtekarlıklar hala düşük kaliteli olma eğiliminde ve doğal olmayan dudak hareketleri, kötü işlenmiş saçlar, uyumsuz yüz şekilleri, çok az göz kırpma veya hiç kırpmama, ten rengi uyumsuzlukları gibi unsurlarla fark edilebiliyor. Giysilerin işlenmesindeki hatalar veya yüzün üzerinden geçen bir el de amatör bir deepfake çalışmasını ele verebiliyor.
Ünlü veya halka açık bir kişinin çılgın iddialar veya gerçek olamayacak kadar iyi teklifler yaptığına rastlanılırsa, video ikna edici olsa bile gerekli özen gösterilmeli ve bilgileri saygın kaynaklardan kontrol edilmelidir. Dolandırıcıların deepfake eksikliklerini gizlemek için videoları kasıtlı olarak kodlayabildiği unutulmamalıdır. Bu nedenle en iyi strateji videoya bakarak ipucu aramak değil, sağduyu ile gerçekleri kontrol etme becerilerini kullanmaktır.
Güvenilir bir güvenlik çözümü, yüksek kaliteli bir deepfake sahtekarlığının kullanıcıyı kötü amaçlı dosyaları veya programları indirmeye, şüpheli bağlantıları veya kimlik avı web sitelerini ziyaret etmeye ikna etmesi durumunda korunmada destek sağlayabilir.
Deepfake pornosunun kurbanı olunması durumunda, videonun kaldırılmasını talep etmek için hem web sitesine (birçok web sitesi deepfake göndermeyi yasaklar) hem de deepfake oluşturmak ceza gerektiren bir suç olduğu için kolluk kuvvetlerine başvurulabilir.