Deepfakes, üretken yapay zeka (GenAI) kullanılarak oluşturulan üzerinde oynanmış ses, görüntü veya metin içeriği içerebilen varlıklardır. Siber suçlular tarafından öncelikle finansal kazanç, aldatma ve manipülasyon için kullanılırlar.
İçindekiler
Yapay zeka tarafından üretildiğini tespit etmenin giderek zorlaştığı gerçekçi, inandırıcı videolar oluştururken, deepfake videolar önemli bir veri güvenliği riski oluşturmaktadır. Genellikle siyasi figürler ve ünlüler gibi yüksek profilli, tanınmış kişileri tasvir ettikleri görülür, ancak diğer bireylerin benzerliğini yakalamak için de üretilebilirler. Oluşturan kişinin amacına bağlı olarak dezenformasyon yaymak, bir kişi veya kuruluşu dolandırmak veya hassas veri ve/veya fon talep etmek için kullanılabilirler.
Deepfake videolar, kaynak içeriğin karmaşık analizi yoluyla oluşturulur. Yüz özellikleri ve hareketleri, boyutlar, cilt tonu, saç ve göz rengi ve vücut dili gibi temel ayrıntılar, mümkün olduğunca doğru bir temsil oluşturmak için yapay zekaya beslenir. Bu aynı zamanda arka plan için de geçerlidir; öznenin göründüğü ofis, toplantı odası veya başka bir ortam iyi biliniyorsa, tehdit aktörü tarafından kaynak görüntüler ve video kullanılarak mümkün olduğunca doğru bir şekilde taklit edilmesi için çaba gösterilecektir.
Derin sahte video içeriği oluşturmaya benzer şekilde, çevrimiçi olarak bulunan mevcut eğitim materyalleri kullanılarak yapay zeka ile ses oluşturulabilir. Referans kaynakları arasında sesli mesajlar, telefon görüşmeleri, podcast ve haber kayıtlarında konuk olarak yer alma ve önemli bir kişi veya grubun benzerliğini içeren ses içeren gerçek video içeriği yer almaktadır.
Oluşturulan ses son derece inandırıcı hale getirilebilir ve mümkün olduğunca inandırıcı olması için kaynak malzemeyle yakından eşleştirilebilir. Siber saldırgan tarafından kullanılan üretici yapay zeka aracı, referans materyallerde konuşanların tonu, ses perdesi, konuşma şekli, netliği, telaffuzu ve duyulabilir duyguları dahil olmak üzere birçok önemli ayrıntıyı analiz eder.
Ses ve video GenAI kullanılarak deepfaked yapılabilirken, cheapfakes bu tür teknolojilerin kullanımından kaçınır. Bunun yerine, genellikle bireyleri veya grupları kandırmak için manuel olarak oluşturulurlar. Bunlar, aciliyet duygusuyla karşılaşıldığında veya duygusal stres yaşandığında olduğu gibi, yeterince dikkat etmeyenleri kandırmaya yönelik optik, ses veya metin tabanlı yanılsamalar olma eğilimindedir. ABD İç Güvenlik Bakanlığı’nın da belirttiği gibi, sahte içerikler (cheapfakes) dijital çağdan çok önce de vardı; bu da tehdit aktörlerine yüzyıllar boyunca birbirlerinden öğrenme ve yeteneklerini geliştirme fırsatı sağladı.
Kötü niyetli kişiler, aşağıdakiler dahil ancak bunlarla sınırlı olmamak üzere çeşitli amaçlarla deepfakes ve/veya cheapfakes kullanmaktadır:
Deepfake ve Cheapfake
Deepfake
Cheapfake
Yapay zeka/derin öğrenme
Temel düzenleme araçları
Son derece gerçekçi
Düşük ila orta düzeyde gerçekçilik
Yüksek çaba
Düşük çaba
Tespit edilmesi zor
Tespit edilmesi daha kolay
Sofistike aldatma için kullanılır
Hızlı yanlış bilgi için kullanılır
Bir deepfake veya cheapfake'in hedefi olma riskinizi azaltmak için atabileceğiniz birkaç adım vardır. Bunlar, birçoğu Ulusal Siber Güvenlik İttifakı tarafından tavsiye edilen aşağıdaki önlemleri içermektedir:
Siber güvenlikte sıfır güven yaklaşımı çok önemlidir. Deepfake'lere karşı koruma söz konusu olduğunda, ilkeleri riski en aza indirmek için bir plan olarak düşünülebilir. Örneğin:
Buna ek olarak, amaca yönelik olarak geliştirilmiş deepfake inceleme ve tespit çözümleri kullanıcıların kimliklerinin, refahlarının ve verilerinin korunmasına yardımcı olabilir. Deepfake'lerin insanlar tarafından manuel olarak tespit edilmesi genellikle zor olduğundan, bu tür araçlar sürekli hızlanan yapay zeka inovasyonu çağında çok önemlidir. Konuyla ilgili ayrıntılı bir 2023 Ulusal Tıp Kütüphanesi raporunda, “Konuşma sentezi algoritmaları geliştikçe ve daha gerçekçi hale geldikçe, tespit görevinin zorlaşmasını bekleyebiliriz” deniyor. “Konuşma sahtekarlıklarını tespit etmenin zorluğu, bunların kötüye kullanım potansiyelini doğruluyor ve bu tehdide karşı savunmaya ihtiyaç duyulduğuna işaret ediyor.”
Kuruluşunuzu ve kişisel etkileşimlerinizi artan yapay zeka kaynaklı aldatma tehdidinden koruyun. Trend Micro, gerçek zamanlı ve yapay zeka destekli deepfake tespiti için Deepfake Detector ve Deepfake Inspector araçlarını sunar; bu araçlar Trend Vision One™ platformuna sorunsuz şekilde entegre edilmiştir. Böylece her dijital etkileşimde güven, doğruluk ve güvenlik sağlanmasına yardımcı olur.
İlgili Makaleler
2025 Yılı için Büyük Dil Modelleri (LLM) ve Üretici Yapay Zeka Uygulamaları İçin En İyi 10 Risk Azaltma Önlemi
Yükselen Riskleri Kamu Güvenliğine Göre Yönetme
Uluslararası Standartlar Bizi Ne Kadar Uzaka Götürebilir?
Üretken Bir Yapay Zeka Siber Güvenlik Politikası Nasıl Yazılır
En Önemli Riskler Arasında Yapay Zeka ile Geliştirilmiş Kötü Amaçlı Saldırılar
Deepfake Kimliklerin Artan Tehdidi