DEEPFAKE ÇAĞINDA EN KRITIK IHTIYAÇLARDAN BIRI, DIJITAL MEDYANIN ORIJINALLIĞINI
DOĞRULAYACAK YÖNTEMLER GELIŞTIRMEKTIR. SAHTE BIR VIDEONUN VEYA GÖRSELIN
HIZLICA IFŞA EDILEBILMESI HEM YANLIŞ BILGININ YAYILMASINI ENGELLEMEK HEM DE DOĞRU
IÇERIKLERE GÜVENI TESIS ETMEK AÇISINDAN BÜYÜK ÖNEM TAŞIR. BU DOĞRULTUDA, SON
YILLARDA IÇERIK PROVENANSI (IÇERIĞIN KAYNAĞI VE ÜZERINDE YAPILAN IŞLEMLERIN KAYIT
ALTINA ALINMASI) VE DOĞRULAMA TEKNOLOJILERI ALANINDA ÇEŞITLI STANDARTLAR VE
ARAÇLAR GELIŞTIRILMIŞTIR.
Derin öğrenme tekniklerinin ürünü olan deepfake teknolojisi, son yılların en dikkat çekici ve tartışmalı dijital gelişmelerinden biridir. “Deepfake” terimi, deep learning (derin öğrenme) ve fake (sahte) kelimelerinin birleşiminden türetilmiş olup, yapay zekâ algoritmaları kullanılarak gerçekçi biçimde üretilen veya değiştirilmiş görüntü, video ve sesleri ifade eder. İlk örnekleri 2017 dolaylarında çevrimiçi ortamlarda ortaya çıkan deepfake’ler, başlangıçta eğlence ve parodi amacıyla sınırlı bir kitle tarafından üretiliyordu. Ne var ki, generatif yapay zekâ tekniklerindeki hızlı ilerlemeler ile birlikte deepfake’lerin kalitesi ve erişilebilirliği çarpıcı biçimde arttı. Özellikle 2014’te Goodfellow ve arkadaşlarının Generative Adversarial Network (GAN) mimarisini tanıtması, sahte medya üretiminde bir dönüm noktası oldu. Bu ilerleme sayesinde, birkaç yıl öncesine kadar gelişmiş donanım ve uzmanlık gerektiren sahte video/ses üretimi, günümüzde nispeten mütevazı bilgisayarlarla veya hatta mobil uygulamalarla mümkün hale gelmiştir. Deepfake teknolojisinin toplumsal hayata etkisi en çok sosyal medya ve çevrimiçi haberleşme alanlarında hissedilmektedir. Sahte içerikler, Facebook, Twitter (X), YouTube, TikTok gibi platformlarda bir anda milyonlarca kullanıcıya ulaşabilmektedir. Üstelik insanlar görsel ve işitsel içeriklere doğal olarak güven eğiliminde olduklarından, iyi tasarlanmış bir deepfake ile kitleleri aldatmak eskisine kıyasla çok daha kolay hale gelmektedir. Nitekim günümüzde “dijital manipülasyon çağında gerçeğin sınırları” belirsizleşirken, bilgi kirliliği ve güven erozyonu önemli bir sorun olarak öne çıkmaktadır. Deepfake’ler sadece birer teknoloji merak objesi olmaktan çıkmış, sahte haber yayma, itibara zarar verme, seçimleri etkileme gibi pek çok endişe verici senaryonun aracı haline gelmiştir. Bununla birlikte film ve oyun yapımı, eğitim simülasyonları veya sağlık gibi alanlarda deepfake ve benzeri sentetik medya tekniklerinin olumlu potansiyeli de dile getirilmektedir. Dolayısıyla deepfake teknolojisi hem fırsatlar hem de riskler barındıran çift yönlü bir bıçak gibidir.
Bu bölümünde, söz konusu teknolojinin özellikle “sahte içerik doğrulama ve medya provenansı” ile “toplumsal etkiler ve regülasyon” boyutları ele alınacaktır. İlk olarak, deepfake’lerin tespitine ve orijinal içeriğin doğrulanmasına yönelik teknik ve standartlar (dijital provenans sistemleri, C2PA, filigranlama, blokzincir uygulamaları) incelenecek; aktif ve pasif doğrulama yaklaşımları…
ile dijital adli bilişimde açıklanabilirlik ihtiyacı vurgulanacaktır. Ardından, deepfake’lerin yol açtığı dezenformasyon, kutuplaşma, siyasi manipülasyon, itibar suikastları ve mahremiyet ihlalleri gibi toplumsal etkiler tartışılacak; medya okuryazarlığı ve halkın bu fenomene karşı algısı değerlendirilecektir. Üçüncü olarak, hukuki ve regülasyonel yaklaşımlar başlığı altında uluslararası arenada (AB, ABD, Çin vb.) ve Türkiye’de deepfake’lere ilişkin yasal düzenlemeler, platform sorumlulukları ve etik-etiketleme zorunlulukları ele alınacaktır.
1.İÇERIK DOĞRULAMA VE PROVENANS
Deepfake çağında en kritik ihtiyaçlardan biri, dijital medyanın orijinalliğini doğrulayacak yöntemler geliştirmektir. Sahte bir videonun veya görselin hızlıca ifşa edilebilmesi hem yanlış bilginin yayılmasını engellemek hem de doğru içeriklere güveni tesis etmek açısından büyük önem taşır. Bu doğrultuda, son yıllarda içerik provenansı (içeriğin kaynağı ve üzerinde yapılan işlemlerin kayıt altına alınması) ve doğrulama teknolojileri alanında çeşitli standartlar ve araçlar geliştirilmiştir.
C2PA Standardı ve “Content Credentials”, Adobe, Microsoft, BBC gibi kurumların öncülüğünde kurulan Coalition for Content Provenance and Authenticity (C2PA) girişimi, dijital içeriklerin kaynağını ve üzerinde yapılan değişiklikleri güvenilir bir biçimde belgelemek için açık bir teknik standart sunmaktadır. C2PA standardı kapsamında tanımlanan Content Credentials sistemi, adeta dijital içerikler için bir “besin etiketi” işlevi görür: Bir fotoğraf, video veya ses dosyası üretilirken, ilgili yazılım tarafından içeriğin geçmişine dair kriptografik olarak imzalanmış bir meta-veri manifestosu oluşturulur. İmza için standart açık anahtar altyapısı kullanılır; içerik üreticisinin özel anahtarıyla imzalanan manifestonun doğrulanması için gerekli açık anahtar da sağlanır. Bu sayede, içerik dağıtılırken söz konusu kimlik bilgileri dosyayla birlikte taşınır ve herhangi bir noktada, uygun araçlar kullanılarak, içeriğin bütünlüğü ve kaynağı doğrulanabilir. Eğer içerik üzerinde manifestonun oluşturulmasından sonra bir değişiklik yapılmışsa, kriptografik hash değerleri tutmayacağı için bu durum kolayca anlaşılacaktır. Kısacası, C2PA standardı dijital içeriklere bir tür değişmez kimlik kartı kazandırarak sahtecilik tespitine yardımcı olmayı hedefler.
Dijital Filigranlar ve Blockchain ile Doğrulama, İçerik doğrulamada genel olarak aktif ve pasif yaklaşımlar şeklinde iki yöntem benimsenir. Pasif doğrulama, halihazırda üretilmiş ve dağıtılmış bir içeriğin sonradan analiz edilerek sahte olup olmadığının anlaşılmasını içerir. Örneğin bir videodaki piksel artefaktları, yüz hatlarının doğal olmayan görünümü, ışık-gölge uyumsuzlukları veya ses dosyasındaki frekans anorile dijital adli bilişimde açıklanabilirlik ihtiyacı vurgulanacaktır. Ardından, deepfake’lerin yol açtığı dezenformasyon, kutuplaşma, siyasi manipülasyon, itibar suikastları ve mahremiyet ihlalleri gibi toplumsal etkiler tartışılacak; medya okuryazarlığı ve halkın bu fenomene karşı algısı değerlendirilecektir. Üçüncü olarak, hukuki ve regülasyonel yaklaşımlar başlığı altında uluslararası arenada (AB, ABD, Çin vb.) ve Türkiye’de deepfake’lere ilişkin yasal düzenlemeler, platform sorumlulukları ve etik-etiketleme zorunlulukları ele alınacaktır.
1.İÇERIK DOĞRULAMA VE PROVENANS
Deepfake çağında en kritik ihtiyaçlardan biri, dijital medyanın orijinalliğini doğrulayacak yöntemler geliştirmektir. Sahte bir videonun veya görselin hızlıca ifşa edilebilmesi hem yanlış bilginin yayılmasını engellemek hem de doğru içeriklere güveni tesis etmek açısından büyük önem taşır. Bu doğrultuda, son yıllarda içerik provenansı (içeriğin kaynağı ve üzerinde yapılan işlemlerin kayıt altına alınması) ve doğrulama teknolojileri alanında çeşitli standartlar ve araçlar geliştirilmiştir.
C2PA Standardı ve “Content Credentials”, Adobe, Microsoft, BBC gibi kurumların öncülüğünde kurulan Coalition for Content Provenance and Authenticity (C2PA) girişimi, dijital içeriklerin kaynağını ve üzerinde yapılan değişiklikleri güvenilir bir biçimde belgelemek için açık bir teknik standart sunmaktadır. C2PA standardı kapsamında tanımlanan Content Credentials sistemi, adeta dijital içerikler için bir “besin etiketi” işlevi görür: Bir fotoğraf, video veya ses dosyası üretilirken, ilgili yazılım tarafından içeriğin geçmişine dair kriptografik olarak imzalanmış bir meta-veri manifestosu oluşturulur. İmza için standart açık anahtar altyapısı kullanılır; içerik üreticisinin özel anahtarıyla imzalanan manifestonun doğrulanması için gerekli açık anahtar da sağlanır. Bu sayede, içerik dağıtılırken söz konusu kimlik bilgileri dosyayla birlikte taşınır ve herhangi bir noktada, uygun araçlar kullanılarak, içeriğin bütünlüğü ve kaynağı doğrulanabilir. Eğer içerik üzerinde manifestonun oluşturulmasından sonra bir değişiklik yapılmışsa, kriptografik hash değerleri tutmayacağı için bu durum kolayca anlaşılacaktır. Kısacası, C2PA standardı dijital içeriklere bir tür değişmez kimlik kartı kazandırarak sahtecilik tespitine yardımcı olmayı hedefler.
Dijital Filigranlar ve Blockchain ile Doğrulama, İçerik doğrulamada genel olarak aktif ve pasif yaklaşımlar şeklinde iki yöntem benimsenir. Pasif doğrulama, halihazırda üretilmiş ve dağıtılmış bir içeriğin sonradan analiz edilerek sahte olup olmadığının anlaşılmasını içerir. Örneğin bir videodaki piksel artefaktları, yüz hatlarının doğal olmayan görünümü, ışık-gölge uyumsuzlukları veya ses dosyasındaki frekans anorile dijital adli bilişimde açıklanabilirlik ihtiyacı vurgulanacaktır. Ardından, deepfake’lerin yol açtığı dezenformasyon, kutuplaşma, siyasi manipülasyon, itibar suikastları ve mahremiyet ihlalleri gibi toplumsal etkiler tartışılacak; medya okuryazarlığı ve halkın bu fenomene karşı algısı değerlendirilecektir. Üçüncü olarak, hukuki ve regülasyonel yaklaşımlar başlığı altında uluslararası arenada (AB, ABD, Çin vb.) ve Türkiye’de deepfake’lere ilişkin yasal düzenlemeler, platform sorumlulukları ve etik-etiketleme zorunlulukları ele alınacaktır.
1.İÇERIK DOĞRULAMA VE PROVENANS
Deepfake çağında en kritik ihtiyaçlardan biri, dijital medyanın orijinalliğini doğrulayacak yöntemler geliştirmektir. Sahte bir videonun veya görselin hızlıca ifşa edilebilmesi hem yanlış bilginin yayılmasını engellemek hem de doğru içeriklere güveni tesis etmek açısından büyük önem taşır. Bu doğrultuda, son yıllarda içerik provenansı (içeriğin kaynağı ve üzerinde yapılan işlemlerin kayıt altına alınması) ve doğrulama teknolojileri alanında çeşitli standartlar ve araçlar geliştirilmiştir.
C2PA Standardı ve “Content Credentials”, Adobe, Microsoft, BBC gibi kurumların öncülüğünde kurulan Coalition for Content Provenance and Authenticity (C2PA) girişimi, dijital içeriklerin kaynağını ve üzerinde yapılan değişiklikleri güvenilir bir biçimde belgelemek için açık bir teknik standart sunmaktadır. C2PA standardı kapsamında tanımlanan Content Credentials sistemi, adeta dijital içerikler için bir “besin etiketi” işlevi görür: Bir fotoğraf, video veya ses dosyası üretilirken, ilgili yazılım tarafından içeriğin geçmişine dair kriptografik olarak imzalanmış bir meta-veri manifestosu oluşturulur. İmza için standart açık anahtar altyapısı kullanılır; içerik üreticisinin özel anahtarıyla imzalanan manifestonun doğrulanması için gerekli açık anahtar da sağlanır. Bu sayede, içerik dağıtılırken söz konusu kimlik bilgileri dosyayla birlikte taşınır ve herhangi bir noktada, uygun araçlar kullanılarak, içeriğin bütünlüğü ve kaynağı doğrulanabilir. Eğer içerik üzerinde manifestonun oluşturulmasından sonra bir değişiklik yapılmışsa, kriptografik hash değerleri tutmayacağı için bu durum kolayca anlaşılacaktır. Kısacası, C2PA standardı dijital içeriklere bir tür değişmez kimlik kartı kazandırarak sahtecilik tespitine yardımcı olmayı hedefler.
Dijital Filigranlar ve Blockchain ile Doğrulama, İçerik doğrulamada genel olarak aktif ve pasif yaklaşımlar şeklinde iki yöntem benimsenir. Pasif doğrulama, halihazırda üretilmiş ve dağıtılmış bir içeriğin sonradan analiz edilerek sahte olup olmadığının anlaşılmasını içerir. Örneğin bir videodaki piksel artefaktları, yüz hatlarının doğal olmayan görünümü, ışık-gölge uyumsuzlukları veya ses dosyasındaki frekans anormallikleri gibi dijital adli göstergeler üzerinden deepfake tespiti yapılabilir. Nitekim günümüzde derin sinir ağları kullanılarak eğitilmiş dedektörler, sahte videoların belirli karakteristik izlerini yakalayarak yüksek doğruluk oranları bildirmektedir. Bununla birlikte, pasif tespit yöntemleri içerik oluşturulduktan sonra devreye girdikleri için çoğu zaman kovalamaca oyunu şeklinde ilerler; sahte içeriğin yayılması engellendikten ziyade, yayıldıktan sonra anlaşılabilmektedir. Ayrıca yeni ve görülmemiş bir sahtecilik yöntemi ortaya çıktığında, eğitilmiş dedektörlerin hazırlıksız yakalanıp yanılma payı yüksektir. Bu nedenle araştırmacılar, aktif (proaktif) doğrulama yöntemlerine de yönelmişlerdir. Aktif yöntemler, içeriğin üretildiği anda içine gizli işaretler ekleyerek, bu orijinal içeriğin daha sonra izinsiz manipüle edilmesi durumunda tespitini veya engellenmesini sağlamaya çalışır.
SAHTE IÇERIKLER TOPLUMDA VAR OLAN KUTUPLAŞMAYI DAHA DA KESKINLEŞTIREBILIR;
ZIRA ÖNYARGILARI TEYIT EDEN SAHTE VIDEOLAR, KARŞIT GRUPLARA DUYULAN
DÜŞMANLIĞI KÖRÜKLEYEBILMEKTEDIR. AYRICA BIR SIYASETÇI VEYA KAMU FIGÜRÜ
HAKKINDAKI GERÇEK BIR SKANDAL GÖRÜNTÜSÜ BILE, DEEPFAKE ÇAĞI SAYESINDE INKÂR
EDILEBILIR HALE GELMEKTEDIR. LITERATÜRDE “YALANCI PAYI” (LIAR’S DIVIDEND) OLARAK
ADLANDIRILAN BU OLGUYA GÖRE, KAYITLI GERÇEKLER DAHI “MONTAJ BU” DENILEREK
BIR BILGI KIRLILIĞI PERDESINE SARILABILIR. DEEPFAKE TEKNOLOJISININ VARLIĞI, KÖTÜ
NIYETLI AKTÖRLERE GERÇEK KANITLARI ITIBARSIZLAŞTIRMA FIRSATI SUNMAKTADIR.
SONUÇ OLARAK, TOPLUMUN HAKIKAT ÜZERINE KURULU ORTAK ZEMINI ZEDELENMEKTE;
HER ŞEYIN MANIPÜLE EDILEBILIR OLDUĞU PARANOYASI YERLEŞMEKTEDIR.
Blokzincir (blockchain) tabanlı doğrulama sistemleri de önerilmektedir. Blokzincir, dağıtık ve değiştirilemez yapısıyla, dijital içeriklerin özgünlük kayıtlarını tutmada cazip bir araçtır. Örneğin bir haber videosu üretildiğinde, bunun eşsiz hash değeri ve kaynak bilgisi bir blokzincirine kaydedilebilir. İleride internette dolaşan aynı videonun hash değerini kontrol ederek orijinal kayıtla eşleşip eşleşmediği doğrulanabilir. Bu yöntem, herhangi bir merkezi otoriteye ihtiyaç duymadan, toplu halde içerik doğrulamayı mümkün kılar. Her ne kadar blokzincir tek başına bir deepfake’i tespit edemez ise de, gerçek içeriklerin kaynağını teyit eden sistemleri destekleyerek dolaylı bir güvenlik katmanı sağlayabilir. Pilot projeler, haber ajanslarının çektikleri görüntüleri blokzincire damgalaması ve sosyal medyada bu içeriklerin doğruluğunun “yeşil tik” benzeri bir özellikle gösterilmesi üzerine çalışmaktadır. Sonuç olarak, aktif doğrulama (dijital imza, filigran) ve pasif doğrulama (yapay zekâ tabanlı analiz) yöntemlerinin birleşimi, sahte içerik sorununa bütüncül bir çözüm paketi sunabilir.
Deepfake tespitindeki teknik yeniliklerin yanı sıra, açıklanabilirlik (explainability) ve dijital kanıt kavramları da giderek önem kazanmaktadır. Günümüzün en başarılı deepfake dedektörleri çoğunlukla derin sinir ağlarına dayalı “kara kutu” modeller olduğundan, verdikleri kararın ardındaki nedenleri insanların anlaması güçtür. Oysa özellikle hukuki süreçlerde veya gazetecilikte, bir videonun sahte olduğunun nasıl anlaşıldığı büyük önem taşır. Sadece “yapay zekâ" öyle söyledi” argümanı, bir mahkemede delil olarak kabul görmek için yeterli değildir. Bu nedenle araştırmacılar ve adli bilişim uzmanları, deepfake tespitine daha şeffaf ve açıklanabilir yöntemler entegre etmeye çalışmaktadır. Örneğin bir video sahteyse, hangi karelerinde veya bölgelerinde anormallik tespit edildiği görsel olarak işaretlenebilir; yüz ile beden arasındaki orantısızlık, göz kırpma sıklığı, ışık yansımaları gibi spesifik ipuçları raporlanabilir. Geleneksel görüntü adli bilişimi yöntemleri – örneğin gölge analizi, kamera piksel deseni (noise) incelemesi, meta veri doğrulaması – hali hazırda açıklanabilirliği yüksek araçlar sunmaktadır. Bu klasik teknikler, derin sahte görüntülerde de işe yarayabilmektedir; örneğin fizik kurallarına dayalı bir gölge uyumsuzluğu analizi, bir görselin yapay olduğunu ortaya koyabilir ve bu yöntem fizik prensiplerine dayandığı için kolayca izah edilebilir durumdadır. Uzmanlar, ideal yaklaşımın yapay zekâ tabanlı dedektörlerle geleneksel adli analizleri çok katmanlı bir incelemede birleştirmek olduğunu belirtmektedir. Böylelikle, bir şüpheli videoya hem bir derin öğrenme modeli uygulanarak genel bir skor alınabilir hem de farklı açılardan klasik analizlerle desteklenmiş somut bulgular elde edilebilir.
2.TOPLUMSAL ETKILER VE ZARARLAR
Deepfake teknolojisi, teknik bir mesele olmanın ötesinde toplumsal düzeyde önemli yansımaları olan bir fenomendir. Gerçekçi sahte içeriklerin dolaşıma girmesi, bilgi ekosisteminden siyasete, kişilik haklarından güven duygusuna kadar pek çok alanda etkisini göstermektedir. Bu bölümde deepfake’lerin başlıca toplumsal etkileri üzerinde durulmaktadır:
Dezenformasyon, Kutuplaşma ve Siyasi Manipülasyon: Deepfake’ler, yanlış bilgi (disinformation) yayma araçlarının en sofistike ve tehlikeli formlarından biri olarak görülmektedir. Geleneksel “sahte haber” metinlerinin aksine, sahte videolar ve ses kayıtları inandırıcılık eşiğini çok daha yukarı çekmiştir. Bu durum, özellikle siyasi ve toplumsal gerilim dönemlerinde son derece zararlı olabilmektedir. Deepfake videolar aracılığıyla kitlelerin aldatılması, yönlendirilmesi veya kışkırtılması ciddi bir endişe kaynağıdır. Yakın geçmişte bunun örnekleri görülmeye başlamıştır: 2022’de Rusya’nın Ukrayna’ya saldırısı sırasında, Ukrayna Devlet Başkanı Zelenskiy’yi teslim çağrısı yapıyor gibi gösteren bir deepfake video kısa süreliğine de olsa sosyal medyada dolaşıma sokulmuştur. Sahte içerikler toplumda var olan kutuplaşmayı daha da keskinleştirebilir; zira önyargıları teyit eden sahte videolar, karşıt gruplara duyulan düşmanlığı körükleyebilmektedir. Ayrıca bir siyasetçi veya kamu figürü hakkındaki gerçek bir skandal görüntüsü bile, deepfake çağı sayesinde inkâr edilebilir hale gelmektedir. Literatürde “yalancı payı” (liar’s dividend) olarak adlandırılan bu olguya göre, kayıtlı gerçekler dahi “montaj bu” denilerek bir bilgi kirliliği perdesine sarılabilir. Deepfake teknolojisinin varlığı, kötü niyetli aktörlere gerçek kanıtları itibarsızlaştırma fırsatı sunmaktadır. Sonuç olarak, toplumun hakikat üzerine kurulu ortak zemini zedelenmekte; her şeyin manipüle edilebilir olduğu paranoyası yerleşmektedir.
İtibar Suikastları ve Mahremiyet İhlalleri: Deepfake’lerin bireysel düzeydeki en somut zararları, itibarın sarsılması ve özel hayatın hedef alınması şeklinde karşımıza çıkmaktadır. Özellikle rızaya dayanmayan pornografik deepfake’ler, dijital şiddetin yeni bir biçimi olarak endişe yaratmaktadır. 2017’den bu yana internetteki deepfake içeriklerin büyük bölümünü ünlü kadınların yüzlerinin pornografik videolara montajlandığı görüntüler oluşturmuştur. Son araştırmalara göre, çevrimiçi ortamdaki tüm deepfake videoların %98’i pornografik niteliktedir ve bu videoların hemen hepsinde hedef alınan kişi kadındır. Bir başka deyişle, deepfake teknolojisinin ilk kitlesel kötüye kullanım alanı, kadınların görüntülerini istismar eden cinsel montajlar olmuştur.
Medya Okuryazarlığı ve Halkın Algısı: Toplumsal etkiler bağlamında bir diğer önemli boyut, genel kamuoyunun deepfake’lere karşı farkındalığı ve bu teknolojinin yaygınlaşmasının algısal sonuçlarıdır. İlk olarak, insanların sahte ile gerçeği ayırt edebilme becerisine dair çalışmalar, durumun endişe verici olduğunu göstermektedir. Özellikle yüksek kaliteli deepfake’lerin sıradan kullanıcılar tarafından anlaşılması son derece zor olabilmektedir. Hatta bilgi teknolojileri alanında uzman kişilerin bile yapay üretim içerikleri ayırt etmekte güçlük çekebildiği rapor edilmiştir. Avrupa Parlamentosu için hazırlanan bir çalışmada, bilişim uzmanlarının AI ile üretilmiş görüntü ve ses örneklerinin %62’sini gerçek zannettikleri (sadece %38 oranında doğru tespit yapabildikleri) belirtilmiştir. Genel halkta bu oranın daha da düşük olması muhtemeldir. Bu durumda, deepfake’lere karşı medya okuryazarlığı eğitiminin kritik hale geldiği açıktır. Okullarda ve toplum genelinde, dijital içeriklerin doğruluğunu sorgulama, kaynak denetimi yapma, görsel işaretlere dikkat etme gibi becerilerin öğretilmesi gerekmektedir. UNICEF ve UNESCO gibi kuruluşlar, çocuklara ve gençlere yapay zekâ okuryazarlığı kazandırmanın, onları bu tür aldatıcı içeriklere karşı dirençli kılmak için şart olduğunu vurgulamaktadır. Deepfake’lerin toplumsal etkileri çok yönlüdür ve bilgi güvenliği, demokrasi, kişilik hakları gibi temel değerleri sarsma potansiyeline sahiptir. Bu etkinin boyutunu, toplumların bu teknolojiye ne kadar hazırlıklı olduğu belirleyecektir.
ÖZELLIKLE
YÜKSEK KALITELI DEEPFAKE’LERIN SIRADAN
KULLANICILAR TARAFINDAN ANLAŞILMASI SON DERECE ZOR
OLABILMEKTEDIR. HATTA BILGI TEKNOLOJILERI ALANINDA
UZMAN KIŞILERIN BILE YAPAY ÜRETIM IÇERIKLERI AYIRT ETMEKTE
GÜÇLÜK ÇEKEBILDIĞI RAPOR EDILMIŞTIR. AVRUPA PARLAMENTOSU
IÇIN HAZIRLANAN BIR ÇALIŞMADA, BILIŞIM UZMANLARININ
AI ILE ÜRETILMIŞ GÖRÜNTÜ VE SES ÖRNEKLERININ %62’SINI
GERÇEK ZANNETTIKLERI (SADECE %38 ORANINDA DOĞRU TESPIT
YAPABILDIKLERI) BELIRTILMIŞTIR. GENEL HALKTA BU ORANIN DAHA
DA DÜŞÜK OLMASI MUHTEMELDIR. BU DURUMDA, DEEPFAKE’LERE
KARŞI MEDYA OKURYAZARLIĞI EĞITIMININ KRITIK HALE
GELDIĞI AÇIKTIR.
3.HUKUKI YAKLAŞIMLAR
Deepfake teknolojisinin yol açtığı riskler karşısında, son yıllarda çeşitli ülkeler ve uluslararası örgütler hukuki düzenlemeler geliştirmeye başlamıştır. Amaç, bir yandan bu teknolojinin kötüye kullanımını caydırmak ve mağdurları korumak, diğer yandan ifade özgürlüğü ve inovasyon dengesini gözetmektir. AB, 2024 itibarıyla nihai onay aşamasına gelen Yapay Zekâ Yasası (AI Act) ile deepfake konusunu düzenleyen ilk supranasyonel çerçeveyi oluşturmuştur. AB AI Act, yapay zekâ sistemlerini risk seviyelerine göre sınıflandırmakta ve deepfake üretimini belli koşullara tabi kılmaktadır. Özellikle, bir yapay zekâ sistemi metin, görüntü, video veya ses üreterek deepfake benzeri bir çıktı oluşturuyorsa, sağlayıcısı bu çıktının yapay üretim olduğunu açıkça belirtmek zorundadır. AB düzeyinde bir diğer önemli düzenleme olan Dijital Hizmetler Yasası (Digital Services Act, DSA) da dolaylı olarak deepfake’lerle ilgilidir. DSA, büyük çevrimiçi platformlara yasa dışı içeriklerin hızlı kaldırılması, risk değerlendirmesi yapmaları ve dezenformasyonla mücadele için önlemler almaları yönünde yükümlülükler getirmiştir. Bu bağlamda, eğer deepfake içerikler nefret söylemi, taciz, dolandırıcılık gibi yasa dışı kategorilere giriyorsa, platformlar bunları bildirildikten sonra en geç 24 saat içinde kaldırmakla sorumlu olacaktır. AB üye ülkeleri düzeyinde de bazı ulusal girişimler görülmektedir. Örneğin, Almanya halihazırda sahte görüntü ve videoların zararlı kullanımlarına karşı ceza yasasında düzenlemeler planlamakta; Fransa “haberin manipüle edilmesi” kavramını ele alan yasalar çıkarmaktadır. Genel olarak AB, deepfake sorununu dijital içerik güvenliği başlığı altında ele alan kapsamlı bir politika paketiyle yanıt vermeye çalışmaktadır.
ABD’de federal düzeyde kapsamlı bir deepfake yasası henüz bulunmamakla birlikte, çeşitli yasal girişimler ve eyalet bazında kanunlar ortaya çıkmıştır. Mevcut durumda ABD’de çevrimiçi platformlar, 1996 tarihli İletişim Ahlakı Yasası’nın 230. Maddesi (CDA 230) sayesinde kullanıcı içeriklerinden büyük ölçüde sorumlu tutulmamaktadır. Bu koruma kalkanı, platformları kullanıcıların yayınladığı deepfake videolar nedeniyle hukuki sorumluluktan muaf kılmakta, mağdurların ise doğrudan içerik üreticisine dava açmasını gerektirmektedir. Ne var ki deepfake üreticilerinin çoğu anonim kaldığından veya yabancı ülkelerde bulunduğundan, pratikte mağdurların yasal yollara başvurması çoğu zaman sonuçsuz kalmaktadır. Bu durum, ABD’de bazı hukukçuları platformlara daha fazla sorumluluk yüklenmesi gerektiğini savunmaya yöneltmiştir. Ancak ifade özgürlüğü ve inovasyon dengesi nedeniyle federal Kongre’de temkinli bir yaklaşım görülmektedir.
Türkiye, 2020 ve 2022 yıllarında yaptığı yasal düzenlemelerle sosyal medya ve çevrimiçi haber akışını yakından denetim altına alan ülkelerden biridir. Ekim 2022’de yürürlüğe giren 7418 sayılı yasa (kamuoyunda “Dezenformasyon Yasası” veya “Sosyal Medya Yasası” olarak anılmıştır), Türk Ceza Kanunu’na “sırf halk arasında endişe, korku veya panik yaratmak saikiyle gerçeğe aykırı bir bilginin yayılması” şeklinde yeni bir suç eklemiştir. Bu suç kapsamında, bilerek ve isteyerek yalan haber/dezenformasyon yayan kişi 1 ila 3 yıl hapis cezası ile cezalandırılabilecektir. Bu düzenleme, deepfake gibi gerçeğe aykırı içeriklerin yayılmasını doğrudan hedef alan bir tedbir olarak yorumlanmıştır. Zira kanun gerekçesinde, özellikle sosyal medyada yayılan asılsız görüntü ve haberlerin toplumsal düzene zarar verdiği vurgulanmıştır.
Söz konusu yasayla ayrıca sosyal medya platformlarına da yeni yükümlülükler getirilmiştir: Türkiye’de günlük erişimi 1 milyondan fazla olan platformların temsilci bulundurması zorunlu hale getirilmiş (aslında 2020’deki 5651 sayılı Kanun değişikliği ile getirilmişti), bu temsilciler vasıtasıyla içerik kaldırma taleplerine hızlı yanıt verme ve raporlama mecburiyeti pekiştirilmiştir. Eğer bir platform, örneğin deepfake olduğu düşünülen bir dezenformasyon videosunu çıkarmaya yönelik resmi talebe uymazsa, maddi para cezaları ve hatta