DEEPFAKE ÇAĞINDA EN KRITIK IHTIYAÇLARDAN BIRI, DIJITAL MEDYANIN ORIJINALLIĞINI
DOĞRULAYACAK YÖNTEMLER GELIŞTIRMEKTIR. SAHTE BIR VIDEONUN VEYA GÖRSELIN
HIZLICA IFŞA EDILEBILMESI HEM YANLIŞ BILGININ YAYILMASINI ENGELLEMEK HEM DE DOĞRU
IÇERIKLERE GÜVENI TESIS ETMEK AÇISINDAN BÜYÜK ÖNEM TAŞIR. BU DOĞRULTUDA, SON
YILLARDA IÇERIK PROVENANSI (IÇERIĞIN KAYNAĞI VE ÜZERINDE YAPILAN IŞLEMLERIN KAYIT
ALTINA ALINMASI) VE DOĞRULAMA TEKNOLOJILERI ALANINDA ÇEŞITLI STANDARTLAR VE
ARAÇLAR GELIŞTIRILMIŞTIR.
Derin öğrenme tekniklerinin ürünü olan deepfake teknolojisi, son yılların en dikkat çekici ve tartışmalı dijital gelişmelerinden biridir. “Deepfake” terimi, deep learning (derin öğrenme) ve fake (sahte) kelimelerinin birleşiminden türetilmiş olup, yapay zekâ algoritmaları kullanılarak gerçekçi biçimde üretilen veya değiştirilmiş görüntü, video ve sesleri ifade eder. İlk örnekleri 2017 dolaylarında çevrimiçi ortamlarda ortaya çıkan deepfake’ler, başlangıçta eğlence ve parodi amacıyla sınırlı bir kitle tarafından üretiliyordu. Ne var ki, generatif yapay zekâ tekniklerindeki hızlı ilerlemeler ile birlikte deepfake’lerin kalitesi ve erişilebilirliği çarpıcı biçimde arttı. Özellikle 2014’te Goodfellow ve arkadaşlarının Generative Adversarial Network (GAN) mimarisini tanıtması, sahte medya üretiminde bir dönüm noktası oldu. Bu ilerleme sayesinde, birkaç yıl öncesine kadar gelişmiş donanım ve uzmanlık gerektiren sahte video/ses üretimi, günümüzde nispeten mütevazı bilgisayarlarla veya hatta mobil uygulamalarla mümkün hale gelmiştir. Deepfake teknolojisinin toplumsal hayata etkisi en çok sosyal medya ve çevrimiçi haberleşme alanlarında hissedilmektedir. Sahte içerikler, Facebook, Twitter (X), YouTube, TikTok gibi platformlarda bir anda milyonlarca kullanıcıya ulaşabilmektedir. Üstelik insanlar görsel ve işitsel içeriklere doğal olarak güven eğiliminde olduklarından, iyi tasarlanmış bir deepfake ile kitleleri aldatmak eskisine kıyasla çok daha kolay hale gelmektedir. Nitekim günümüzde “dijital manipülasyon çağında gerçeğin sınırları” belirsizleşirken, bilgi kirliliği ve güven erozyonu önemli bir sorun olarak öne çıkmaktadır. Deepfake’ler sadece birer teknoloji merak objesi olmaktan çıkmış, sahte haber yayma, itibara zarar verme, seçimleri etkileme gibi pek çok endişe verici senaryonun aracı haline gelmiştir. Bununla birlikte film ve oyun yapımı, eğitim simülasyonları veya sağlık gibi alanlarda deepfake ve benzeri sentetik medya tekniklerinin olumlu potansiyeli de dile getirilmektedir. Dolayısıyla deepfake teknolojisi hem fırsatlar hem de riskler barındıran çift yönlü bir bıçak gibidir.
Bu bölümünde, söz konusu teknolojinin özellikle “sahte içerik doğrulama ve medya provenansı” ile “toplumsal etkiler ve regülasyon” boyutları ele alınacaktır. İlk olarak, deepfake’lerin tespitine ve orijinal içeriğin doğrulanmasına yönelik teknik ve standartlar (dijital provenans sistemleri, C2PA, filigranlama, blokzincir uygulamaları) incelenecek; aktif ve pasif doğrulama yaklaşımları…
ile dijital adli bilişimde açıklanabilirlik ihtiyacı vurgulanacaktır. Ardından, deepfake’lerin yol açtığı dezenformasyon, kutuplaşma, siyasi manipülasyon, itibar suikastları ve mahremiyet ihlalleri gibi toplumsal etkiler tartışılacak; medya okuryazarlığı ve halkın bu fenomene karşı algısı değerlendirilecektir. Üçüncü olarak, hukuki ve regülasyonel yaklaşımlar başlığı altında uluslararası arenada (AB, ABD, Çin vb.) ve Türkiye’de deepfake’lere ilişkin yasal düzenlemeler, platform sorumlulukları ve etik-etiketleme zorunlulukları ele alınacaktır.
1.İÇERIK DOĞRULAMA VE PROVENANS
Deepfake çağında en kritik ihtiyaçlardan biri, dijital medyanın orijinalliğini doğrulayacak yöntemler geliştirmektir. Sahte bir videonun veya görselin hızlıca ifşa edilebilmesi hem yanlış bilginin yayılmasını engellemek hem de doğru içeriklere güveni tesis etmek açısından büyük önem taşır. Bu doğrultuda, son yıllarda içerik provenansı (içeriğin kaynağı ve üzerinde yapılan işlemlerin kayıt altına alınması) ve doğrulama teknolojileri alanında çeşitli standartlar ve araçlar geliştirilmiştir.
C2PA Standardı ve “Content Credentials”, Adobe, Microsoft, BBC gibi kurumların öncülüğünde kurulan Coalition for Content Provenance and Authenticity (C2PA) girişimi, dijital içeriklerin kaynağını ve üzerinde yapılan değişiklikleri güvenilir bir biçimde belgelemek için açık bir teknik standart sunmaktadır. C2PA standardı kapsamında tanımlanan Content Credentials sistemi, adeta dijital içerikler için bir “besin etiketi” işlevi görür: Bir fotoğraf, video veya ses dosyası üretilirken, ilgili yazılım tarafından içeriğin geçmişine dair kriptografik olarak imzalanmış bir meta-veri manifestosu oluşturulur. İmza için standart açık anahtar altyapısı kullanılır; içerik üreticisinin özel anahtarıyla imzalanan manifestonun doğrulanması için gerekli açık anahtar da sağlanır. Bu sayede, içerik dağıtılırken söz konusu kimlik bilgileri dosyayla birlikte taşınır ve herhangi bir noktada, uygun araçlar kullanılarak, içeriğin bütünlüğü ve kaynağı doğrulanabilir. Eğer içerik üzerinde manifestonun oluşturulmasından sonra bir değişiklik yapılmışsa, kriptografik hash değerleri tutmayacağı için bu durum kolayca anlaşılacaktır. Kısacası, C2PA standardı dijital içeriklere bir tür değişmez kimlik kartı kazandırarak sahtecilik tespitine yardımcı olmayı hedefler.
Dijital Filigranlar ve Blockchain ile Doğrulama, İçerik doğrulamada genel olarak aktif ve pasif yaklaşımlar şeklinde iki yöntem benimsenir. Pasif doğrulama, halihazırda üretilmiş ve dağıtılmış bir içeriğin sonradan analiz edilerek sahte olup olmadığının anlaşılmasını içerir. Örneğin bir videodaki piksel artefaktları, yüz hatlarının doğal olmayan görünümü, ışık-gölge uyumsuzlukları veya ses dosyasındaki frekans anorile dijital adli bilişimde açıklanabilirlik ihtiyacı vurgulanacaktır. Ardından, deepfake’lerin yol açtığı dezenformasyon, kutuplaşma, siyasi manipülasyon, itibar suikastları ve mahremiyet ihlalleri gibi toplumsal etkiler tartışılacak; medya okuryazarlığı ve halkın bu fenomene karşı algısı değerlendirilecektir. Üçüncü olarak, hukuki ve regülasyonel yaklaşımlar başlığı altında uluslararası arenada (AB, ABD, Çin vb.) ve Türkiye’de deepfake’lere ilişkin yasal düzenlemeler, platform sorumlulukları ve etik-etiketleme zorunlulukları ele alınacaktır.
1.İÇERIK DOĞRULAMA VE PROVENANS
Deepfake çağında en kritik ihtiyaçlardan biri, dijital medyanın orijinalliğini doğrulayacak yöntemler geliştirmektir. Sahte bir videonun veya görselin hızlıca ifşa edilebilmesi hem yanlış bilginin yayılmasını engellemek hem de doğru içeriklere güveni tesis etmek açısından büyük önem taşır. Bu doğrultuda, son yıllarda içerik provenansı (içeriğin kaynağı ve üzerinde yapılan işlemlerin kayıt altına alınması) ve doğrulama teknolojileri alanında çeşitli standartlar ve araçlar geliştirilmiştir.
C2PA Standardı ve “Content Credentials”, Adobe, Microsoft, BBC gibi kurumların öncülüğünde kurulan Coalition for Content Provenance and Authenticity (C2PA) girişimi, dijital içeriklerin kaynağını ve üzerinde yapılan değişiklikleri güvenilir bir biçimde belgelemek için açık bir teknik standart sunmaktadır. C2PA standardı kapsamında tanımlanan Content Credentials sistemi, adeta dijital içerikler için bir “besin etiketi” işlevi görür: Bir fotoğraf, video veya ses dosyası üretilirken, ilgili yazılım tarafından içeriğin geçmişine dair kriptografik olarak imzalanmış bir meta-veri manifestosu oluşturulur. İmza için standart açık anahtar altyapısı kullanılır; içerik üreticisinin özel anahtarıyla imzalanan manifestonun doğrulanması için gerekli açık anahtar da sağlanır. Bu sayede, içerik dağıtılırken söz konusu kimlik bilgileri dosyayla birlikte taşınır ve herhangi bir noktada, uygun araçlar kullanılarak, içeriğin bütünlüğü ve kaynağı doğrulanabilir. Eğer içerik üzerinde manifestonun oluşturulmasından sonra bir değişiklik yapılmışsa, kriptografik hash değerleri tutmayacağı için bu durum kolayca anlaşılacaktır. Kısacası, C2PA standardı dijital içeriklere bir tür değişmez kimlik kartı kazandırarak sahtecilik tespitine yardımcı olmayı hedefler.
Dijital Filigranlar ve Blockchain ile Doğrulama, İçerik doğrulamada genel olarak aktif ve pasif yaklaşımlar şeklinde iki yöntem benimsenir. Pasif doğrulama, halihazırda üretilmiş ve dağıtılmış bir içeriğin sonradan analiz edilerek sahte olup olmadığının anlaşılmasını içerir. Örneğin bir videodaki piksel artefaktları, yüz hatlarının doğal olmayan görünümü, ışık-gölge uyumsuzlukları veya ses dosyasındaki frekans anorile dijital adli bilişimde açıklanabilirlik ihtiyacı vurgulanacaktır. Ardından, deepfake’lerin yol açtığı dezenformasyon, kutuplaşma, siyasi manipülasyon, itibar suikastları ve mahremiyet ihlalleri gibi toplumsal etkiler tartışılacak; medya okuryazarlığı ve halkın bu fenomene karşı algısı değerlendirilecektir. Üçüncü olarak, hukuki ve regülasyonel yaklaşımlar başlığı altında uluslararası arenada (AB, ABD, Çin vb.) ve Türkiye’de deepfake’lere ilişkin yasal düzenlemeler, platform sorumlulukları ve etik-etiketleme zorunlulukları ele alınacaktır.
1.İÇERIK DOĞRULAMA VE PROVENANS
Deepfake çağında en kritik ihtiyaçlardan biri, dijital medyanın orijinalliğini doğrulayacak yöntemler geliştirmektir. Sahte bir videonun veya görselin hızlıca ifşa edilebilmesi hem yanlış bilginin yayılmasını engellemek hem de doğru içeriklere güveni tesis etmek açısından büyük önem taşır. Bu doğrultuda, son yıllarda içerik provenansı (içeriğin kaynağı ve üzerinde yapılan işlemlerin kayıt altına alınması) ve doğrulama teknolojileri alanında çeşitli standartlar ve araçlar geliştirilmiştir.
C2PA Standardı ve “Content Credentials”, Adobe, Microsoft, BBC gibi kurumların öncülüğünde kurulan Coalition for Content Provenance and Authenticity (C2PA) girişimi, dijital içeriklerin kaynağını ve üzerinde yapılan değişiklikleri güvenilir bir biçimde belgelemek için açık bir teknik standart sunmaktadır. C2PA standardı kapsamında tanımlanan Content Credentials sistemi, adeta dijital içerikler için bir “besin etiketi” işlevi görür: Bir fotoğraf, video veya ses dosyası üretilirken, ilgili yazılım tarafından içeriğin geçmişine dair kriptografik olarak imzalanmış bir meta-veri manifestosu oluşturulur. İmza için standart açık anahtar altyapısı kullanılır; içerik üreticisinin özel anahtarıyla imzalanan manifestonun doğrulanması için gerekli açık anahtar da sağlanır. Bu sayede, içerik dağıtılırken söz konusu kimlik bilgileri dosyayla birlikte taşınır ve herhangi bir noktada, uygun araçlar kullanılarak, içeriğin bütünlüğü ve kaynağı doğrulanabilir. Eğer içerik üzerinde manifestonun oluşturulmasından sonra bir değişiklik yapılmışsa, kriptografik hash değerleri tutmayacağı için bu durum kolayca anlaşılacaktır. Kısacası, C2PA standardı dijital içeriklere bir tür değişmez kimlik kartı kazandırarak sahtecilik tespitine yardımcı olmayı hedefler.
Dijital Filigranlar ve Blockchain ile Doğrulama, İçerik doğrulamada genel olarak aktif ve pasif yaklaşımlar şeklinde iki yöntem benimsenir. Pasif doğrulama, halihazırda üretilmiş ve dağıtılmış bir içeriğin sonradan analiz edilerek sahte olup olmadığının anlaşılmasını içerir. Örneğin bir videodaki piksel artefaktları, yüz hatlarının doğal olmayan görünümü, ışık-gölge uyumsuzlukları veya ses dosyasındaki frekans anormallikleri gibi dijital adli göstergeler üzerinden deepfake tespiti yapılabilir. Nitekim günümüzde derin sinir ağları kullanılarak eğitilmiş dedektörler, sahte videoların belirli karakteristik izlerini yakalayarak yüksek doğruluk oranları bildirmektedir. Bununla birlikte, pasif tespit yöntemleri içerik oluşturulduktan sonra devreye girdikleri için çoğu zaman kovalamaca oyunu şeklinde ilerler; sahte içeriğin yayılması engellendikten ziyade, yayıldıktan sonra anlaşılabilmektedir. Ayrıca yeni ve görülmemiş bir sahtecilik yöntemi ortaya çıktığında, eğitilmiş dedektörlerin hazırlıksız yakalanıp yanılma payı yüksektir. Bu nedenle araştırmacılar, aktif (proaktif) doğrulama yöntemlerine de yönelmişlerdir. Aktif yöntemler, içeriğin üretildiği anda içine gizli işaretler ekleyerek, bu orijinal içeriğin daha sonra izinsiz manipüle edilmesi durumunda tespitini veya engellenmesini sağlamaya çalışır.
SAHTE IÇERIKLER TOPLUMDA VAR OLAN KUTUPLAŞMAYI DAHA DA KESKINLEŞTIREBILIR;
ZIRA ÖNYARGILARI TEYIT EDEN SAHTE VIDEOLAR, KARŞIT GRUPLARA DUYULAN
DÜŞMANLIĞI KÖRÜKLEYEBILMEKTEDIR. AYRICA BIR SIYASETÇI VEYA KAMU FIGÜRÜ
HAKKINDAKI GERÇEK BIR SKANDAL GÖRÜNTÜSÜ BILE, DEEPFAKE ÇAĞI SAYESINDE INKÂR
EDILEBILIR HALE GELMEKTEDIR. LITERATÜRDE “YALANCI PAYI” (LIAR’S DIVIDEND) OLARAK
ADLANDIRILAN BU OLGUYA GÖRE, KAYITLI GERÇEKLER DAHI “MONTAJ BU” DENILEREK
BIR BILGI KIRLILIĞI PERDESINE SARILABILIR. DEEPFAKE TEKNOLOJISININ VARLIĞI, KÖTÜ
NIYETLI AKTÖRLERE GERÇEK KANITLARI ITIBARSIZLAŞTIRMA FIRSATI SUNMAKTADIR.
SONUÇ OLARAK, TOPLUMUN HAKIKAT ÜZERINE KURULU ORTAK ZEMINI ZEDELENMEKTE;
HER ŞEYIN MANIPÜLE EDILEBILIR OLDUĞU PARANOYASI YERLEŞMEKTEDIR.
Blokzincir (blockchain) tabanlı doğrulama sistemleri de önerilmektedir. Blokzincir, dağıtık ve değiştirilemez yapısıyla, dijital içeriklerin özgünlük kayıtlarını tutmada cazip bir araçtır. Örneğin bir haber videosu üretildiğinde, bunun eşsiz hash değeri ve kaynak bilgisi bir blokzincirine kaydedilebilir. İleride internette dolaşan aynı videonun hash değerini kontrol ederek orijinal kayıtla eşleşip eşleşmediği doğrulanabilir. Bu yöntem, herhangi bir merkezi otoriteye ihtiyaç duymadan, toplu halde içerik doğrulamayı mümkün kılar. Her ne kadar blokzincir tek başına bir deepfake’i tespit edemez ise de, gerçek içeriklerin kaynağını teyit eden sistemleri destekleyerek dolaylı bir güvenlik katmanı sağlayabilir. Pilot projeler, haber ajanslarının çektikleri görüntüleri blokzincire damgalaması ve sosyal medyada bu içeriklerin doğruluğunun “yeşil tik” benzeri bir özellikle gösterilmesi üzerine çalışmaktadır. Sonuç olarak, aktif doğrulama (dijital imza, filigran) ve pasif doğrulama (yapay zekâ tabanlı analiz) yöntemlerinin birleşimi, sahte içerik sorununa bütüncül bir çözüm paketi sunabilir.
Deepfake tespitindeki teknik yeniliklerin yanı sıra, açıklanabilirlik (explainability) ve dijital kanıt kavramları da giderek önem kazanmaktadır. Günümüzün en başarılı deepfake dedektörleri çoğunlukla derin sinir ağlarına dayalı “kara kutu” modeller olduğundan, verdikleri kararın ardındaki nedenleri insanların anlaması güçtür. Oysa özellikle hukuki süreçlerde veya gazetecilikte, bir videonun sahte olduğunun nasıl anlaşıldığı büyük önem taşır. Sadece “yapay zekâ" öyle söyledi” argümanı, bir mahkemede delil olarak kabul görmek için yeterli değildir. Bu nedenle araştırmacılar ve adli bilişim uzmanları, deepfake tespitine daha şeffaf ve açıklanabilir yöntemler entegre etmeye çalışmaktadır. Örneğin bir video sahteyse, hangi karelerinde veya bölgelerinde anormallik tespit edildiği görsel olarak işaretlenebilir; yüz ile beden arasındaki orantısızlık, göz kırpma sıklığı, ışık yansımaları gibi spesifik ipuçları raporlanabilir. Geleneksel görüntü adli bilişimi yöntemleri – örneğin gölge analizi, kamera piksel deseni (noise) incelemesi, meta veri doğrulaması – hali hazırda açıklanabilirliği yüksek araçlar sunmaktadır. Bu klasik teknikler, derin sahte görüntülerde de işe yarayabilmektedir; örneğin fizik kurallarına dayalı bir gölge uyumsuzluğu analizi, bir görselin yapay olduğunu ortaya koyabilir ve bu yöntem fizik prensiplerine dayandığı için kolayca izah edilebilir durumdadır. Uzmanlar, ideal yaklaşımın yapay zekâ tabanlı dedektörlerle geleneksel adli analizleri çok katmanlı bir incelemede birleştirmek olduğunu belirtmektedir. Böylelikle, bir şüpheli videoya hem bir derin öğrenme modeli uygulanarak genel bir skor alınabilir hem de farklı açılardan klasik analizlerle desteklenmiş somut bulgular elde edilebilir.
2.TOPLUMSAL ETKILER VE ZARARLAR
Deepfake teknolojisi, teknik bir mesele olmanın ötesinde toplumsal düzeyde önemli yansımaları olan bir fenomendir. Gerçekçi sahte içeriklerin dolaşıma girmesi, bilgi ekosisteminden siyasete, kişilik haklarından güven duygusuna kadar pek çok alanda etkisini göstermektedir. Bu bölümde deepfake’lerin başlıca toplumsal etkileri üzerinde durulmaktadır:
Dezenformasyon, Kutuplaşma ve Siyasi Manipülasyon: Deepfake’ler, yanlış bilgi (disinformation) yayma araçlarının en sofistike ve tehlikeli formlarından biri olarak görülmektedir. Geleneksel “sahte haber” metinlerinin aksine, sahte videolar ve ses kayıtları inandırıcılık eşiğini çok daha yukarı çekmiştir. Bu durum, özellikle siyasi ve toplumsal gerilim dönemlerinde son derece zararlı olabilmektedir. Deepfake videolar aracılığıyla kitlelerin aldatılması, yönlendirilmesi veya kışkırtılması ciddi bir endişe kaynağıdır. Yakın geçmişte bunun örnekleri görülmeye başlamıştır: 2022’de Rusya’nın Ukrayna’ya saldırısı sırasında, Ukrayna Devlet Başkanı Zelenskiy’yi teslim çağrısı yapıyor gibi gösteren bir deepfake video kısa süreliğine de olsa sosyal medyada dolaşıma sokulmuştur. Sahte içerikler toplumda var olan kutuplaşmayı daha da keskinleştirebilir; zira önyargıları teyit eden sahte videolar, karşıt gruplara duyulan düşmanlığı körükleyebilmektedir. Ayrıca bir siyasetçi veya kamu figürü hakkındaki gerçek bir skandal görüntüsü bile, deepfake çağı sayesinde inkâr edilebilir hale gelmektedir. Literatürde “yalancı payı” (liar’s dividend) olarak adlandırılan bu olguya göre, kayıtlı gerçekler dahi “montaj bu” denilerek bir bilgi kirliliği perdesine sarılabilir. Deepfake teknolojisinin varlığı, kötü niyetli aktörlere gerçek kanıtları itibarsızlaştırma fırsatı sunmaktadır. Sonuç olarak, toplumun hakikat üzerine kurulu ortak zemini zedelenmekte; her şeyin manipüle edilebilir olduğu paranoyası yerleşmektedir.
İtibar Suikastları ve Mahremiyet İhlalleri: Deepfake’lerin bireysel düzeydeki en somut zararları, itibarın sarsılması ve özel hayatın hedef alınması şeklinde karşımıza çıkmaktadır. Özellikle rızaya dayanmayan pornografik deepfake’ler, dijital şiddetin yeni bir biçimi olarak endişe yaratmaktadır. 2017’den bu yana internetteki deepfake içeriklerin büyük bölümünü ünlü kadınların yüzlerinin pornografik videolara montajlandığı görüntüler oluşturmuştur. Son araştırmalara göre, çevrimiçi ortamdaki tüm deepfake videoların %98’i pornografik niteliktedir ve bu videoların hemen hepsinde hedef alınan kişi kadındır. Bir başka deyişle, deepfake teknolojisinin ilk kitlesel kötüye kullanım alanı, kadınların görüntülerini istismar eden cinsel montajlar olmuştur.
Medya Okuryazarlığı ve Halkın Algısı: Toplumsal etkiler bağlamında bir diğer önemli boyut, genel kamuoyunun deepfake’lere karşı farkındalığı ve bu teknolojinin yaygınlaşmasının algısal sonuçlarıdır. İlk olarak, insanların sahte ile gerçeği ayırt edebilme becerisine dair çalışmalar, durumun endişe verici olduğunu göstermektedir. Özellikle yüksek kaliteli deepfake’lerin sıradan kullanıcılar tarafından anlaşılması son derece zor olabilmektedir. Hatta bilgi teknolojileri alanında uzman kişilerin bile yapay üretim içerikleri ayırt etmekte güçlük çekebildiği rapor edilmiştir. Avrupa Parlamentosu için hazırlanan bir çalışmada, bilişim uzmanlarının AI ile üretilmiş görüntü ve ses örneklerinin %62’sini gerçek zannettikleri (sadece %38 oranında doğru tespit yapabildikleri) belirtilmiştir. Genel halkta bu oranın daha da düşük olması muhtemeldir. Bu durumda, deepfake’lere karşı medya okuryazarlığı eğitiminin kritik hale geldiği açıktır. Okullarda ve toplum genelinde, dijital içeriklerin doğruluğunu sorgulama, kaynak denetimi yapma, görsel işaretlere dikkat etme gibi becerilerin öğretilmesi gerekmektedir. UNICEF ve UNESCO gibi kuruluşlar, çocuklara ve gençlere yapay zekâ okuryazarlığı kazandırmanın, onları bu tür aldatıcı içeriklere karşı dirençli kılmak için şart olduğunu vurgulamaktadır. Deepfake’lerin toplumsal etkileri çok yönlüdür ve bilgi güvenliği, demokrasi, kişilik hakları gibi temel değerleri sarsma potansiyeline sahiptir. Bu etkinin boyutunu, toplumların bu teknolojiye ne kadar hazırlıklı olduğu belirleyecektir.
ÖZELLIKLE
YÜKSEK KALITELI DEEPFAKE’LERIN SIRADAN
KULLANICILAR TARAFINDAN ANLAŞILMASI SON DERECE ZOR
OLABILMEKTEDIR. HATTA BILGI TEKNOLOJILERI ALANINDA
UZMAN KIŞILERIN BILE YAPAY ÜRETIM IÇERIKLERI AYIRT ETMEKTE
GÜÇLÜK ÇEKEBILDIĞI RAPOR EDILMIŞTIR. AVRUPA PARLAMENTOSU
IÇIN HAZIRLANAN BIR ÇALIŞMADA, BILIŞIM UZMANLARININ
AI ILE ÜRETILMIŞ GÖRÜNTÜ VE SES ÖRNEKLERININ %62’SINI
GERÇEK ZANNETTIKLERI (SADECE %38 ORANINDA DOĞRU TESPIT
YAPABILDIKLERI) BELIRTILMIŞTIR. GENEL HALKTA BU ORANIN DAHA
DA DÜŞÜK OLMASI MUHTEMELDIR. BU DURUMDA, DEEPFAKE’LERE
KARŞI MEDYA OKURYAZARLIĞI EĞITIMININ KRITIK HALE
GELDIĞI AÇIKTIR.
3.HUKUKI YAKLAŞIMLAR
Deepfake teknolojisinin yol açtığı riskler karşısında, son yıllarda çeşitli ülkeler ve uluslararası örgütler hukuki düzenlemeler geliştirmeye başlamıştır. Amaç, bir yandan bu teknolojinin kötüye kullanımını caydırmak ve mağdurları korumak, diğer yandan ifade özgürlüğü ve inovasyon dengesini gözetmektir. AB, 2024 itibarıyla nihai onay aşamasına gelen Yapay Zekâ Yasası (AI Act) ile deepfake konusunu düzenleyen ilk supranasyonel çerçeveyi oluşturmuştur. AB AI Act, yapay zekâ sistemlerini risk seviyelerine göre sınıflandırmakta ve deepfake üretimini belli koşullara tabi kılmaktadır. Özellikle, bir yapay zekâ sistemi metin, görüntü, video veya ses üreterek deepfake benzeri bir çıktı oluşturuyorsa, sağlayıcısı bu çıktının yapay üretim olduğunu açıkça belirtmek zorundadır. AB düzeyinde bir diğer önemli düzenleme olan Dijital Hizmetler Yasası (Digital Services Act, DSA) da dolaylı olarak deepfake’lerle ilgilidir. DSA, büyük çevrimiçi platformlara yasa dışı içeriklerin hızlı kaldırılması, risk değerlendirmesi yapmaları ve dezenformasyonla mücadele için önlemler almaları yönünde yükümlülükler getirmiştir. Bu bağlamda, eğer deepfake içerikler nefret söylemi, taciz, dolandırıcılık gibi yasa dışı kategorilere giriyorsa, platformlar bunları bildirildikten sonra en geç 24 saat içinde kaldırmakla sorumlu olacaktır. AB üye ülkeleri düzeyinde de bazı ulusal girişimler görülmektedir. Örneğin, Almanya halihazırda sahte görüntü ve videoların zararlı kullanımlarına karşı ceza yasasında düzenlemeler planlamakta; Fransa “haberin manipüle edilmesi” kavramını ele alan yasalar çıkarmaktadır. Genel olarak AB, deepfake sorununu dijital içerik güvenliği başlığı altında ele alan kapsamlı bir politika paketiyle yanıt vermeye çalışmaktadır.
ABD’de federal düzeyde kapsamlı bir deepfake yasası henüz bulunmamakla birlikte, çeşitli yasal girişimler ve eyalet bazında kanunlar ortaya çıkmıştır. Mevcut durumda ABD’de çevrimiçi platformlar, 1996 tarihli İletişim Ahlakı Yasası’nın 230. Maddesi (CDA 230) sayesinde kullanıcı içeriklerinden büyük ölçüde sorumlu tutulmamaktadır. Bu koruma kalkanı, platformları kullanıcıların yayınladığı deepfake videolar nedeniyle hukuki sorumluluktan muaf kılmakta, mağdurların ise doğrudan içerik üreticisine dava açmasını gerektirmektedir. Ne var ki deepfake üreticilerinin çoğu anonim kaldığından veya yabancı ülkelerde bulunduğundan, pratikte mağdurların yasal yollara başvurması çoğu zaman sonuçsuz kalmaktadır. Bu durum, ABD’de bazı hukukçuları platformlara daha fazla sorumluluk yüklenmesi gerektiğini savunmaya yöneltmiştir. Ancak ifade özgürlüğü ve inovasyon dengesi nedeniyle federal Kongre’de temkinli bir yaklaşım görülmektedir.
Türkiye, 2020 ve 2022 yıllarında yaptığı yasal düzenlemelerle sosyal medya ve çevrimiçi haber akışını yakından denetim altına alan ülkelerden biridir. Ekim 2022’de yürürlüğe giren 7418 sayılı yasa (kamuoyunda “Dezenformasyon Yasası” veya “Sosyal Medya Yasası” olarak anılmıştır), Türk Ceza Kanunu’na “sırf halk arasında endişe, korku veya panik yaratmak saikiyle gerçeğe aykırı bir bilginin yayılması” şeklinde yeni bir suç eklemiştir. Bu suç kapsamında, bilerek ve isteyerek yalan haber/dezenformasyon yayan kişi 1 ila 3 yıl hapis cezası ile cezalandırılabilecektir. Bu düzenleme, deepfake gibi gerçeğe aykırı içeriklerin yayılmasını doğrudan hedef alan bir tedbir olarak yorumlanmıştır. Zira kanun gerekçesinde, özellikle sosyal medyada yayılan asılsız görüntü ve haberlerin toplumsal düzene zarar verdiği vurgulanmıştır.
Söz konusu yasayla ayrıca sosyal medya platformlarına da yeni yükümlülükler getirilmiştir: Türkiye’de günlük erişimi 1 milyondan fazla olan platformların temsilci bulundurması zorunlu hale getirilmiş (aslında 2020’deki 5651 sayılı Kanun değişikliği ile getirilmişti), bu temsilciler vasıtasıyla içerik kaldırma taleplerine hızlı yanıt verme ve raporlama mecburiyeti pekiştirilmiştir. Eğer bir platform, örneğin deepfake olduğu düşünülen bir dezenformasyon videosunu çıkarmaya yönelik resmi talebe uymazsa, maddi para cezaları ve hatta bant genişliği daraltma (erişimin yavaşlatılması) yaptırımları devreye sokulabilecektir. Çin, deepfake düzenlemesinde en ileri giden ülkelerden biridir. Ocak 2023’te yürürlüğe giren “Derin Sentez Teknolojisi Yönetmeliği”, yapay zekâ ile üretilmiş veya değiştirilmiş tüm görüntü, ses ve metin içeriklerinin açıkça etiketlenmesini zorunlu kılmıştır. Çin Siber Uzay İdaresi tarafından uygulanan bu kurala göre, AI ile oluşturulmuş bir videonun köşesinde, tüm oynatma süresi boyunca görünür olacak şekilde “AI Ürünü” anlamına gelen bir ibare yer almalı; ayrıca dosyanın meta verisine de kaynağın yapay olduğuna dair bir dijital filigran gömülmelidir. Singapur’un 2019 tarihli Online Falsehoods and Manipulation yasası, hükümete çevrimiçi yalan haberleri düzeltme ve kaldırma yetkisi vermiş olup, deepfake’ler de bu kapsama dahil edilebilir. Almanya ve Avustralya, seçim dönemlerinde deepfake’lerin kullanılmasına karşı uyarıcı ve yaptırımcı seçim kanunu değişiklikleri planlamaktadır. Ayrıca uluslararası kurumlar düzeyinde deepfake’lerin yasadışı kullanımını sınırlamaya yönelik normlar tartışılmaktadır. Birleşmiş Milletler bünyesinde, dijital çağda bilgi güvenilirliği ve yapay zekâ etiği konularında ilkeler önerilmektedir. NATO, özellikle savunma ve güvenlik bağlamında deepfake’lerin oluşturabileceği tehditleri ele alan raporlar hazırlamıştır. Avrupa Konseyi, insan hakları boyutuyla (özgür seçim hakkı, özel hayatın korunması gibi) devletlere yol gösterici tavsiyeler sunmaktadır.
Hukuki yaklaşımların önemli bir ayağını da içerik etiketleme ve dijital imza zorunlulukları oluşturmaktadır. Yukarıda değinilen AB şeffaflık maddesi, Çin’in derin sentez yönetmeliği gibi örnekler, esasen global ölçekte bir “yapay içerik beyanı” standartının belirmeye başladığına işaret etmektedir.
TÜRKIYE, 2020 VE 2022 YILLARINDA YAPTIĞI YASAL DÜZENLEMELERLE SOSYAL MEDYA
VE ÇEVRIMIÇI HABER AKIŞINI YAKINDAN DENETIM ALTINA ALAN ÜLKELERDEN BIRIDIR.
EKIM 2022’DE YÜRÜRLÜĞE GIREN 7418 SAYILI YASA (KAMUOYUNDA “DEZENFORMASYON
YASASI” VEYA “SOSYAL MEDYA YASASI” OLARAK ANILMIŞTIR), TÜRK CEZA KANUNU’NA
“SIRF HALK ARASINDA ENDIŞE, KORKU VEYA PANIK YARATMAK SAIKIYLE GERÇEĞE AYKIRI
BIR BILGININ YAYILMASI” ŞEKLINDE YENI BIR SUÇ EKLEMIŞTIR. BU SUÇ KAPSAMINDA,
BILEREK VE ISTEYEREK YALAN HABER/DEZENFORMASYON YAYAN KIŞI 1 ILA 3 YIL HAPIS
CEZASI ILE CEZALANDIRILABILECEKTIR. BU DÜZENLEME, DEEPFAKE GIBI GERÇEĞE
AYKIRI IÇERIKLERIN YAYILMASINI DOĞRUDAN HEDEF ALAN BIR TEDBIR OLARAK
YORUMLANMIŞTIR.
4.GELECEK PERSPEKTIFI:
ŞEFFAFLIK VE GÜVEN
Derin sahte teknolojisinin evrimi devam ederken, toplumların ve hukuk sistemlerinin de bu zorluğa karşı adaptasyon kabiliyetini geliştirmesi gerekecektir. Önümüzdeki dönemde, regülasyonlar ve teknik standartlar daha da olgunlaşacak; hem devletler arası işbirliği hem de kamu-özel sektör ortaklıkları önem kazanacaktır.
Halihazırda AB’nin AI Act ile attığı adım ve Çin’in derin sentez düzenlemesi, muhtemelen diğer ülkelere de örnek teşkil edecek. Kısa vadede pek çok ülkenin, yapay zekâ ile üretilen içeriklerin etiketlenmesini zorunlu kılan veya deepfake, orta vadede ise bu ulusal yaklaşımların bir şekilde uluslararası standartlara dönüşmesi gerekecektir. Tıpkı siber suçlar veya veri koruması alanında olduğu gibi deepfake konusunda da sınır ötesi işbirliği şarttır. Avrupa Konseyi’nin siber suç sözleşmesine eklenecek bir protokol ya da BM düzeyinde bir yapay zekâ etiği tavsiyesi ile uluslararası hukukta ortak ilkeler benimsenebilir.
Teknoloji cephesinde hem sahte içerik üretimi hem de tespiti alanında hızlı ilerleme sürmektedir. Generative AI modelleri daha gerçekçi, daha zor ayırt edilir çıktılar üretmeye devam edecek. Özellikle diffusion tabanlı yeni yöntemler, video ve ses kalitesinde çarpıcı gelişmeler vaat ediyor. Bu da 1-2 yıl içinde bugün “anlaşılır derecede yapay” duran bazı deepfake ürünlerinin tamamen ikna edici hale gelebileceği anlamına geliyor. Buna mukabil, tespit algoritmaları da gelişmek durumundadır. Araştırmacılar, bir yandan mevcut deepfake dedektörlerini daha dayanıklı ve genelleyici hale getirmeye çalışırken, bir yandan da içerik üretimi anında işaretleme gibi proaktif çözümleri araştırıyor.
İleride, kamera üreticilerinin ve yazılımların her fotoğrafı çekildiği anda dijital olarak imzalaması ve bu imzanın doğrulanmasının sıradan bir işlem haline gelmesi mümkün görünmektedir. Örneğin, akıllı telefon yonga üreticileri, çektikleri görselin sensör verilerini hashleyip üretici sertifikasıyla imzalama özelliğini donanım düzeyinde entegre etmeyi planlamaktadır. Bu gerçekleştiğinde, internette dolaşan bir görüntünün kamera orijinalliği anında kontrol edilebilecektir. Adobe gibi şirketlerin Content Credentials yaklaşımı da daha fazla uygulamada standart hale geldikçe, haber fotoğrafları, basın bültenleri gibi kritik görsellerin doğruluk zinciri şeffaflaşacaktır.
ARAŞTIRMACILAR, BIR YANDAN MEVCUT DEEPFAKE
DEDEKTÖRLERINI DAHA DAYANIKLI VE GENELLEYICI HALE GETIRMEYE
ÇALIŞIRKEN, BIR YANDAN DA IÇERIK ÜRETIMI ANINDA IŞARETLEME
GIBI PROAKTIF ÇÖZÜMLERI ARAŞTIRIYOR. İLERIDE, KAMERA
ÜRETICILERININ VE YAZILIMLARIN HER FOTOĞRAFI ÇEKILDIĞI ANDA
DIJITAL OLARAK IMZALAMASI VE BU IMZANIN DOĞRULANMASININ
SIRADAN BIR IŞLEM HALINE GELMESI MÜMKÜN GÖRÜNMEKTEDIR.
ÖRNEĞIN, AKILLI TELEFON YONGA ÜRETICILERI, ÇEKTIKLERI
GÖRSELIN SENSÖR VERILERINI HASHLEYIP ÜRETICI SERTIFIKASIYLA
IMZALAMA ÖZELLIĞINI DONANIM DÜZEYINDE ENTEGRE ETMEYI
PLANLAMAKTADIR. BU GERÇEKLEŞTIĞINDE, INTERNETTE DOLAŞAN
BIR GÖRÜNTÜNÜN KAMERA ORIJINALLIĞI ANINDA
KONTROL EDILEBILECEKTIR.
Yapay zekâ etiği ve şeffaflık ilkeleri kapsamında da gelişmeler beklenmektedir. İçerik oluşturucuların, gazetecilerin ve hatta sıradan kullanıcıların, yapay medya kullanımı konusunda belirli etik kurallara uyması yönünde farkındalık artıyor. Saygın haber kuruluşları, dijital olarak değiştirilmiş görseller kullanmama veya kullanmak zorunda kalırsa bunu açıklama yönünde iç yönergeler geliştiriyor. Reklam ajansları, bir reklam filminde aktörün yüzünü AI ile gençleştirirlerse bunu yapım notlarına eklemeyi tartışıyor. Uzun vadede, tıpkı fotoğraf gazeteciliğinde fotoğrafların dijital olarak manipüle edilmemesi kuralının oturması gibi, yapay medya kullanımında dürüstlük de bir meslek standardına dönüşebilir.
Teknik ve hukuki çözümlerin yanı sıra, toplumsal direnç mekanizmalarının inşa edilmesi gerekecektir. Deepfake çağında bilgi ekosisteminin sağlam kalabilmesi için, bireylerin ve kurumların epistemik farkındalığı güçlendirilmelidir. UNESCO’nun 2025 tarihli bir raporunda altı çizildiği gibi, sadece doğrulama araçlarına bel bağlamak yetmez; insanların “görüp duyduklarını eleştirel değerlendirme” yetilerini geliştirmek temel çözümdür. Eğitim sistemleri, müfredatlarına bu konuları dahil etmeye başlamıştır. Basit düzeyde de olsa genç kuşaklara deepfake örnekleri gösterilip, bunların nasıl anlaşılabileceği öğretilmektedir. Ayrıca teknoloji okuryazarlığı programlarıyla, dijital içerik üretimi ve paylaşımı konusunda etik bilinç kazandırılması hedeflenmektedir. “Dijital vatandaşlık” kavramı, deepfake ve dezenformasyon çağında daha da önem kazanmaktadır. Her kullanıcı birer içerik dağıtıcı konumunda olduğu için, yanlış bir videoyu paylaşmadan önce durup düşünebilme sorumluluğu her zamankinden kritiktir.
Sonuç itibarıyla, deepfake teknolojisinin geleceğinde iki paralel dinamik göze çarpıyor. Bir yanda yapay zekâ modelleri gelişip sahteyle gerçeği tamamen ayırt edilemez kılmaya yaklaşacak; öte yanda ise toplumlar ve kurumlar, şeffaflığı ve güveni yeniden tesis edecek önlemlerle buna karşılık vermeye çalışacak. Bu bir nevi silahlanma yarışı olarak da görülebilir. Ancak bu yarışta savunma hattını güçlü tutmak için çok taraflı çaba şarttır. Hukuki düzenlemeler, teknik inovasyonlar ve toplumsal eğitim çabaları bir bütünün parçalarıdır. Eğer başarı sağlanırsa, “yapay medya” çağında da gerçek ile yalanın asgari düzeyde ayrılabildiği, saydam ve hesap verebilir bir iletişim ortamı korunabilecektir. Aksi halde, teknolojinin kötüye kullanımının toplumsal bedeli çok yüksek olacaktır.
KAYNAKLAR
Amped Software. (n.d.). Deepfake forensics is much more than deepfake detection. https://blog.ampedsoftware.com
Blackbird.AI. (n.d.). Deepfake detection now required under European Union AI Act rules. https://blackbird.ai
C2PA. (n.d.). C2PA | Verifying media content sources. https://c2pa.org
C2PA. (n.d.). C2PA and Content Credentials explainer. https://spec.c2pa.org
CoinGeek. (n.d.). The deepfake dilemma: Can blockchain restore truth? https://coingeek.com
Coalition For Women in Journalism. (n.d.). From trolling to deepfakes: The online war against women journalists. https://womeninjournalism.org
Euronews. (2023). AI content is meddling in Turkey’s election. Experts warn it’s just the beginning. https://euronews.com
European Parliament. (n.d.). Children and deepfakes. https://www.europarl.europa.eu
LegaMart. (n.d.). Rise of deepfake technology. https://legamart.com
London Blockchain Foundation. (2025). Can blockchain tackle deepfakes and disinformation in 2025. https://londonblockchain.net
New York State Bar Association. (n.d.). The deeply complicated issues surrounding deepfakes. https://nysba.org
Sixth Tone. (2023). China proposes mandatory labeling of AI-generated content. https://www.sixthtone.com
UNESCO. (n.d.). Deepfakes and the crisis of knowing. https://unesco.org
University of New Hampshire School of Law. (n.d.). Nagumotu, K. [Article/Chapter pp. 113–157 on platform liability and deepfakes]. https://law.unh.edu
ResearchGate. (n.d.). LampMark: Proactive deepfake detection via training-free landmark perceptual watermarks [preprint/request page]. https://www.researchgate.net