menu_open Columnists
We use cookies to provide some features and experiences in QOSHE

More information  .  Close

Gözümüzle Gördüğümüze İhanet: Deepfake Çağında ‘Gerçeklik’ Krizimiz

8 0
28.02.2026

2023 seçimleri öncesinde sosyal medyaya düşen o meşhur montaj videonun yayılma hızını bir hatırlayın. Saniyeler içinde milyonların ekranına düştü, infial yarattı. Sonradan teknik analizler yapıldı, gerçeği yansıtmadığı kanıtlandı ama nafile; atı alan Üsküdar’ı çoktan geçmişti. Algı yönetimi hedefine ulaşmış, gerçeklik tartışması o ilk kıvılcımla alev almıştı.

Eskiden algoritmaları tartışırken bir "bilimkurgu" senaryosu olarak konuştuğumuz şeyler, bugün sabah kahvesini yudumlarken önümüze düşen gündelik olaylar haline geldi. Tanıdık bir yüz, bildik bir ses tonu, kusursuz senkronize olmuş dudak hareketleri... Her şey o kadar "gerçek" ki, inkar etmek akıl dışı görünüyor. Ta ki altındaki o küçük uyarıyı görene kadar: "Bu içerik sentetik olarak üretilmiştir."

Yüzyıllar boyunca insanlık için "gözümle gördüm" cümlesi tartışmayı bitiren o nihai mühürdü. Şimdiyse bir fotoğraf ya da video, tartışmayı bitirmek bir yana, tartışmanın tam olarak başladığı yer. Çünkü artık bir şeyi kendi gözümüzle görmemiz, onun gerçekten yaşandığı anlamına gelmiyor.

Deepfake (derin sahtecilik) teknolojilerinin asıl yıkıcı tarafı sadece kusursuz sahte videolar üretmesi değil. Asıl hasar, o incecik epistemolojik sınırda, "gerçek ile sahte" arasındaki çizginin tamamen silikleşmesinde yatıyor. Üstelik bu teknoloji, bunu standart bir kullanıcının asla algılayamayacağı bir pürüzsüzlükte yapıyor.

Bugün bir devlet başkanının konuşması ya da global bir şirketin CEO'sunun açıklaması anında dolaşıma girip, hemen ardından "Bu bir yapay zekâ üretimi" şüphesiyle etiketlenebiliyor. Böyle bir ekosistemde toplum iki sağlıksız uca savruluyor: Ya gördüğümüz her sentetik veriye anında inanıyoruz ya da paranoyakça her şeyi toptan reddediyoruz.

Fakat burada gözden kaçan çok daha tehlikeli bir risk var: Liar's Dividend (Yalancının Temettüsü). Yani teknolojinin gerçeği bile şüpheli hale getirme gücü. Düşünsenize, birisi çıkıp gerçekten skandal bir söz söylüyor ve anında o sihirli cümleyi kurabiliyor: "O ben değilim, deepfake ile yapmışlar." Tarihte ilk kez gerçek, bu kadar ucuz ve kolay bir şekilde inkar edilebilir hale geldi.

Bu kriz sadece Twitter'daki kısır çekişmelerin meselesi değil; bütün bir sistemi sarsıyor:

Hukukta: Video ve ses kayıtları hâlâ tartışmasız birer delil mi? Görsel kanıtın ağırlığı sıfıra yaklaştığında, mahkemeler adaleti neye dayanarak tesis edecek?

Medyada: Haberciliğin yüzyıllık "Görüntü var mı?" kuralı, yerini çoktan "Bu görüntü doğrulanabilir mi? (Hash'i, meta verisi temiz mi?)" sorusuna bıraktı.

Bizim tarafa, yani yapay zekâ mutfağına baktığımızda ise kendi kuyruğunu ısıran bir yılan görüyoruz. Teknoloji burada hem zehir hem de panzehir. Bir tarafta GAN'lar (Çekişmeli Üretici Ağlar) ve difüzyon modelleriyle kusursuz sentetik veri üretenler var; diğer yanda bu sahteliği piksel piksel yakalamaya çalışan tespit algoritmalarını kodlayanlar... Nefes kesen bir kedi-fare oyunu.

Ama günün sonunda mesele, teknik bir benchmark yarışını çoktan aştı. Mesele, toplumun üzerinde anlaştığı o "ortak gerçeklik" zemininin çökmesi. Eğer herkes sadece kendi inancına uygun olan "gerçekliği" seçip diğerine "sentetik" derse, o ortak zemin kaybolur ve yerini mutlak bir güvensizliğe bırakır.

Belki de yeni çağın kuralı şudur: Artık mesele gözümüze güvenmek değil, doğrulama kültürünü bir refleks haline getirmek.

Hızın kutsandığı bir devirdeyiz ama gerçeğin bir hızı yoktur. Gerçek inatçıdır; sabır ister, çapraz kontrol ister, şüphe kaslarının çalışmasını ister. Gözümüzle gördüğümüze güvenemiyorsak neye güveneceğiz?

Cevap aslında çok net:

Tek bir pikseller bütününe değil, sürecin kendisine.

Tek bir videoya değil, teyit mekanizmalarına.

Tek bir viral paylaşıma değil, bağlamın bütününe.

Çünkü bu çağda gerçeğin en büyük sorunu artık yalanlar değil; yalanların algoritmik bir kusursuzlukla gerçeğin kılığına girebilmesi.


© Yeniçağ