Gelişen yapay zeka teknolojileri, bilgi güvenliği ve kamuoyunun yönlendirilmesi açısından yeni risk alanları yaratıyor. Yapay zeka ile üretilmiş görseller, videolar ve ses kayıtları, seçimlerden savaş alanlarına kadar birçok kritik senaryoda manipülasyon aracı olarak kullanılabiliyor.
Sensity AI kurucu ortağı Francesco Cavalli, bu teknolojilerin bilinçsiz ya da kasıtlı kötüye kullanımının, küresel çapta ciddi tehditlere yol açabileceği uyarısında bulunuyor.
Deepfake Tehlikesi: Savaşlar, Seçimler ve Dezenformasyon
Sensity AI’nin yürüttüğü araştırmalar, yapay zekayla oluşturulan içeriklerin halihazırda çeşitli jeopolitik ve toplumsal süreçlerde manipülasyon amaçlı kullanıldığını ortaya koyuyor. Örneğin Rusya-Ukrayna Savaşı sırasında, Ukraynalı askerler ve siyasetçileri hedef alan deepfake videolarla kamuoyunda “teslim çağrısı yaptıkları” ya da “savaş suçu itiraf ettikleri” izlenimi yaratılmaya çalışıldığı bildiriliyor.
Tayvan’da ise seçim dönemlerinde Çin kaynaklı yapay zeka içeriklerinin sosyal medya üzerinden yayılmasıyla, adaylar sahte konuşmalar, uydurma skandallar ve gaflara benzer videolarla hedef alınıyor. Japonya’da da benzer bir tablo söz konusu; yapay zekayla oluşturulan sahte doğal afet görüntüleri, nükleer kazalar ya da sel felaketleri gibi kurgularla halkta panik yaratılmaya çalışıldığı belirtiliyor.

Gerçeği Ayırt Etmek Zorlaşıyor
Francesco Cavalli, yapay zekanın geldiği noktada gerçek ile yapay içerik arasındaki sınırların giderek bulanıklaştığını belirtiyor. Görsellerde yüzde tutarsız ışıklandırmalar, aşırı pürüzsüz cilt dokusu gibi ipuçları halen geçerli olsa da, düşük çözünürlüklü veya sıkıştırılmış videolarda bu tür farkların tespiti oldukça zorlaşıyor.
Cavalli, özellikle yapay zekayla üretilmiş seslerin artık insan kulağı tarafından ayırt edilmesinin neredeyse imkânsız hale geldiğini ifade ediyor. Örneğin, ABD Dışişleri Bakanı Marco Rubio’yu taklit eden bir kişi, yapay zeka destekli sahte sesle oluşturduğu Signal hesabı üzerinden çeşitli ülke yetkilileriyle iletişim kurmayı başardı. Bu tür olaylar, ses taklitlerinin ne kadar tehlikeli bir hale geldiğini ortaya koyuyor.
Dijital Manipülasyon Küresel Bir Silaha Dönüşüyor
Cavalli’ye göre yapay zeka destekli içerikler yalnızca teknik bir tehdit değil; aynı zamanda toplumsal ve siyasi yapıları hedef alan, küresel ölçekte kullanılan yeni nesil propaganda araçları haline geliyor. Sensity AI’nin tespit ettiği örnekler arasında sahte basın toplantıları düzenleyen politikacılar, savaş görüntüleriyle kamuoyu yönlendirmeleri ve dolandırıcılık platformlarını tanıtan yapay içerikler yer alıyor. Bu materyaller çoğunlukla sahte haber siteleri ve sosyal medya reklamları yoluyla yayılıyor.
Cavalli, “Tüm bu örnekler, yapay zekanın sadece deneysel bir tehdit değil, çatışmalarda ve siyasi süreçlerde aktif olarak kullanılan stratejik bir araç haline geldiğini gösteriyor,” diyor.

Denetim ve İşbirliği Çağrısı
Uzmanlar, yapay zeka ile üretilen içeriklerin oluşturduğu risklerle mücadele edebilmek için teknoloji şirketleri, sosyal medya platformları ve düzenleyici kurumlar arasında daha güçlü bir iş birliği gerektiğini vurguluyor. Cavalli, bazı platformların dolandırıcılık kampanyalarından bilinçli şekilde kazanç sağladığını, ancak yalnızca dış baskı altında müdahalede bulunduklarını ileri sürüyor.
Yapay zeka içeriklerinin “etiketlenmesi” gibi çözümlerin tek başına yeterli olmadığını ifade eden Cavalli, sosyal medya platformlarının proaktif denetim mekanizmaları geliştirmesi gerektiğini belirtiyor. Kullanıcı şikâyetlerine göre değil, önleyici sistemlere göre hareket edilmesinin zorunlu hale gelmesi gerektiğini savunuyor.
Sensity AI'nin Analiz Sistemi: Dört Aşamalı Güvenlik Yaklaşımı
Sensity AI tarafından geliştirilen sistem, yapay içerikleri tespit etmeye yönelik dört aşamalı bir analiz süreci içeriyor. Bu süreçte yüz manipülasyonlarının tespiti, tamamen yapay görsellerin analizi, ses taklitlerinin belirlenmesi ve adli incelemeler yer alıyor. Elde edilen bulgular, resmi soruşturmalarda ve mahkemelerde delil olarak kullanılabiliyor.
Cavalli, görsel medyaya duyulan güvenin giderek azaldığını, bu nedenle toplumsal farkındalığın artırılması gerektiğini ifade ediyor. Hem bireylerin hem de medya profesyonellerinin yapay içeriklerle mücadele konusunda eğitilmesinin önemine dikkat çekiyor.
“Görmek artık inanmak anlamına gelmeyecek,” diyen Cavalli, dijital çağda gerçeklik algısının köklü bir şekilde değiştiğini hatırlatıyor.
