Yapay Zeka ve Deepfake Çağında Ceza Sorumluluğunun Yeniden Kurulması

Yapay Zekâ ve Deepfake Çağında Ceza Sorumluluğunun Yeniden Kurulması
(2025 Reform Gündemi ve Avrupa Konseyi Çerçevesi Işığında)

Dijitalleşmenin ulaştığı son aşamada, yapay zekâ temelli üretken sistemler yalnızca ekonomik ve sosyal hayatı değil, ceza hukukunun temel kavramlarını da doğrudan etkilemektedir. Özellikle deepfake teknolojileri aracılığıyla üretilen sentetik ses ve görüntüler, suç işleme yöntemlerinde niteliksel bir dönüşüme yol açmıştır. Bu dönüşüm, ceza hukukunun “fail”, “fiil”, “kusur”, “nedensellik bağı” ve “isnat” gibi klasik kavramlarının yeniden değerlendirilmesini zorunlu kılmaktadır.

 

Geleneksel ceza hukuku öğretisi, insan iradesine dayalı davranışları esas alırken; yapay zekâ destekli sistemlerde irade, karar alma ve sonuç arasındaki ilişkinin parçalı ve çoğu zaman öngörülemez olması, sorumluluğun kime yükletileceği sorusunu karmaşık hâle getirmektedir. Deepfake içerikler yoluyla gerçekleştirilen dolandırıcılık, şantaj, özel hayatın gizliliğinin ihlali, cinsel dokunulmazlığa karşı suçlar ve seçim güvenliğini tehdit eden manipülasyonlar, bu teknolojilerin ceza hukuku bakımından artık marjinal değil, merkezi bir tartışma alanı olduğunu göstermektedir.

 

Türkiye bakımından konu, 2025 yılı itibarıyla ayrı bir önem kazanmıştır. 11. Yargı Paketi (7571 sayılı Kanun) ile ceza adalet sisteminde önemli değişiklikler yapılmış; eş zamanlı olarak TBMM gündemine yapay zekâ ve dijital içeriklere ilişkin kanun teklifleri gelmiştir. Uluslararası düzeyde ise Avrupa Konseyi’nin 2024 tarihli Yapay Zekâ Çerçeve Sözleşmesi, yapay zekâ teknolojilerinin insan hakları ve hukukun üstünlüğü ekseninde düzenlenmesini amaçlayan ilk bağlayıcı metin olarak öne çıkmaktadır. Bu çalışma, söz konusu ulusal ve uluslararası gelişmeler ışığında, yapay zekâ ve deepfake teknolojileriyle işlenen suçlarda ceza sorumluluğunun nasıl kurulması gerektiğini incelemeyi amaçlamaktadır.

 

I. Yapay Zekâ ve Deepfake Teknolojilerinin Ceza Hukuku Açısından Konumlandırılması

 

Deepfake teknolojisi, gerçek kişilere ait biyometrik verilerin (ses, yüz, mimik) yapay zekâ algoritmaları aracılığıyla işlenerek gerçeğe son derece yakın içeriklerin üretilmesini mümkün kılmaktadır. Bu içerikler, çoğu zaman mağdurun rızası dışında üretilmekte ve yayılmaktadır. Ceza hukuku bakımından deepfake, başlı başına bir suç tipi olmaktan ziyade, suçun işlenmesinde kullanılan teknolojik bir araç niteliği taşımaktadır.

 

Ancak yapay zekânın klasik araçlardan ayrıldığı nokta, yalnızca pasif bir nesne olmamasıdır. Öğrenme kapasitesi bulunan, büyük veri kümeleriyle beslenen ve belirli ölçüde otonom kararlar alabilen bu sistemler, suçun icrasında aktif bir rol üstlenebilmektedir. Bu durum, ceza hukukunda araç–fail ayrımının sınırlarını zorlamakta; özellikle fiilin kime isnat edileceği sorusunu gündeme getirmektedir.

 

Ceza hukukunda araçların kullanımı yeni bir olgu değildir. Silah, zehir veya bilişim sistemleri uzun süredir suçun işlenmesinde araç olarak değerlendirilmektedir. Ancak yapay zekâ, failin fiil üzerindeki hâkimiyetini zayıflatan ve sonucu dolaylılaştıran bir yapı arz etmektedir. Bu nedenle deepfake ve benzeri teknolojilerin, ceza hukukunda yüksek riskli araçlar kategorisinde ele alınması gerektiği ileri sürülmektedir.

 

II. Fail Kavramı ve Yapay Zekâ Destekli Suçlarda Failin Belirlenmesi

 

5237 sayılı Türk Ceza Kanunu’na göre fail, suçun kanuni tanımında yer alan fiili kasten veya taksirle gerçekleştiren kişidir. Mevcut hukuk sisteminde yapay zekânın hukuki kişiliği bulunmadığından, fail olarak kabul edilmesi mümkün değildir. Dolayısıyla yapay zekâ destekli suçlarda ceza sorumluluğu, mutlaka bir gerçek kişiye veya koşulları varsa tüzel kişiye özgü güvenlik tedbirleri kapsamında değerlendirilmelidir.

 

Bu bağlamda üç temel aktör öne çıkmaktadır:

  • Yapay zekâyı kullanan ve komut veren kişi,
  • Yazılımı geliştiren veya sistemi tasarlayan kişi,
  • İçeriğin yayılmasına imkân tanıyan platform veya hizmet sağlayıcı.

 

Yapay zekâyı belirli bir suçun işlenmesi amacıyla kullanan kişi bakımından, klasik faillik kuralları uygulanabilir. Örneğin deepfake yoluyla dolandırıcılık veya şantaj suçlarında, failin kastı çoğu zaman açık biçimde ortaya konulabilmektedir. Bu durumda yapay zekâ, suçun işlenmesinde kullanılan bir araç olarak değerlendirilir.

 

Buna karşılık yazılım geliştiricilerin sorumluluğu daha sınırlı ve istisnai bir alanda gündeme gelmektedir. Salt teknolojiyi üretmiş olmak, ceza sorumluluğu için yeterli değildir. Ancak geliştiricinin, sistemin hukuka aykırı kullanımını öngörmesine rağmen gerekli önlemleri almaması hâlinde, bilinçli taksir veya belirli koşullarda olası kast tartışmaları gündeme gelebilir.

 

2017 yılı itibariyle gündeme gelen Türkçesiyle “Derin Sahte” olarak adlandırılan “Deepfake” İngilizce bir kelimedir. Derin anlamına gelen “Deep” ve sahte anlamına gelen “Fake” kelimelerinin bir araya gelmesiyle oluşmuştur.

 

Buradaki “Deep” kavramı “Derin” olarak ifadesini bulurken, yapay zeka uygulamasının “Derin Öğrenme” “Deeplearning” özelliğine karşılık gelmektedir. Bununla birlikte “Fake” ise “Sahte” olarak ifade edilerek, elde edilen verilere dayanılarak yapay zekanın derin öğrenme tekniğiyle yaratılan görsel ve işitsel içeriklerin sahteliğinden söz edilmektedir.

 

Yani, bir “Yapay Zeka” “Derin Öğrenme” tekniği ile elde ettiği “verileri” hem görsel anlamda hem de işitsel anlamda olması gerekenden farklı ve sahte işlemesidir. Örnek olarak; bir insanın aslında söylemediği halde söylemiş gibi gösteren yüz ifadeleri, sesleri ve hareketlerinin “Yapay Zeka” tabanlı bir mekanizma ile yaratılması ifade edilebilir.

 

“Deepfake” bu özelliği ile kullanım amacının dışına çıkarıldığında hukuki olarak birçok yargıya kadar taşınacak ve “suç” veya “kabahat” olarak adlandırılabilecek sonuçların doğmasına sebebiyet verecektir.

 

İşte tam bu noktada Türkiye’de Kişisel Verileri Koruma Kurumumuz 19.01.2024 tarihinde “DeepFake Bilgi Notu” yayınlayarak, Deepfake’in tanımına, ne için kullanıldığına, kişisel veriler açısından oluşturduğu tehditlere, nasıl tespit edilebileceğine ve Deepfake teknolojisine karşı kişilerin ve kurumların neler yapabileceğine dair bilgilere yer vererek, “Deepfake” (derin sahte) teknolojisinin ne olduğunun daha iyi anlaşılabilmesini sağlamıştır.

 

Kişisel Verileri Koruma Kurumu’nun yayınladığı “Deepfake Bilgi Notu” nda “Deepfake” için insanların yüz, hareket ve sesinin gerçeğe uygun olacak şekilde taklit edilmesi ve değiştirilmesi için yapay zeka teknikleri aracılığıyla ses, görüntü ve videoların kullanılması tanımını kullanmıştır.

 

Yine anılan bilgi notunda, “Deepfake” teknolojisi kullanılarak üretilen içerikler sinema, sanat ve eğlence sektörü gibi alanların yanı sıra kişisel amaçla, reklam, siyasi yarar elde etme, manipülasyon yapma, itibarsızlaştırma ve siber zorbalık, dolandırıcılık, finansal zarar oluşturma gibi kötü amaçlarla da kullanılabildiği için de “suç” ve “kabahatler” in ortaya çıkmasına da neden olduğu belirtilmiştir.

 

Bununla birlikte, bir içeriğin “Deepfake” olduğunu tespit etmek için ise videodaki kişinin doğal bir görünüm sergileyip sergilemediği, yüz ifadesinin söylediği ile paralel gidip gitmediği, videonun yavaşlatıldığında doğal olmayan görüntülerin ortaya çıkıp çıkmadığı, ses tonunda robotik bir ifadenin varlığının olup olmadığı, baş ve vücudun birbiriyle uyumlu hareket edip etmediği v.b. bazı ipuçlarının varlığından söz edilmiştir.

 

Peki, “Deepfake” teknolojisinin yaratığı bu tehditlere karşı nasıl bir yol izlenebilir? Kişisel Verileri Koruma Kurumu yayınladığı bilgi notunda “Deepfake” in sonuçlarına yönelik yapılması gereken hususları açıkça izah etmiştir. Her şeyden önce yanlış bilginin yayılmasının önüne geçmek ve kişilerin zarar uğramasını engellemek için en önemli görevin “gerçek kişiler” e düştüğü belirtilmiştir.

 

“Deepfake”  yapıdaki içeriklerin en çok kullanıldığı yerin “sosyal medya platform”’ ları olduğu ifade edilirken, alınabilecek başlıca önlemin, sosyal medya platformlarında gerçek kişilerin kişisel verileri kullanıldığında, özellikle ses ve yüz verisi paylaşılırken özel bir hassasiyet ve dikkat gösterilmesi gerektiği olarak vurgulanmıştır.

 

Bir başka önlem,  tüm kurumların ağ ve siber güvenlik operasyonlarını etkin bir şekilde yürütmesi, merkezi raporlama ve izleme birimlerini kurması, kurum içi iletişim kanallarını geliştirmesi ve halka ilişkiler birimleriyle bağlantı içerisinde olması olarak belirtilmiştir.

 

 Son olarak özellikle sosyal medya ve içerik sağlayıcı platformlarda karakter veya kimlik hırsızlığı amacıyla Deepfake teknolojisinin kullanılmasını engelleyecek “anti-deepfake” yazılımların geliştirilmesi ve bu yazılımların herkes tarafından kullanılması da alınabilecek önlemler arasında sayılmıştır.

 

Sonuç olarak; “yapay zeka” nın alt kümesi olarak değerlendirilen “Deepfake” teknolojisinin sahip olduğu verileri kullanırken “sahte” sonuçları doğurması ve hukuki olarak bu fiilin “suç” ve “kabahat” olarak nitelendirilmesi bu teknolojinin kullanımında ortaya çıkan tehditlere karşı bazı tedbirlerin alınması gerekliliğini de beraberinde getirmiştir.

 

Yapılan araştırmalar ve tespitlerde, “Deepfake” teknolojisinin yarattığı tehditlerle mücadele etmenin en iyi yolunun Deepfake karşıtı teknolojiler için yapay zeka teknolojisi üretmek olduğunu gözlemlenmiştir.

 

Deepfake tehdidini kontrol altında tutmaya yönelik yasal tedbirler konusundaki düzenlemelerin yeniden gözden geçirilmesi gerekmektedir. Özellikle “dijital” konulara yönelik ortaya çıkan ve “suç” oluşturan fiillerde yüksek mahkemelerin konuyla irtibatlandırılması yönünde çalışmaların yapılmasının uygun olduğu düşünülmektedir.

 

Globalleşen Dünya’da “Deepfake” sistemi ile işlenen bir “suç” veya “kabahat” in başka bir ülkeyi de etkiyebileceği göz önüne alınmalıdır. Bu tip bir durumla karşılaşan kişilerin doğrudan Savcılığa suç duyurusunda bulunabilmeleri veya  bu suçu işleyenler hakkında TCK 134. maddesinde “özel hayatın gizliliğini ihlal”, TCK 136. maddesinde “kişisel verileri ele geçirme” ve TCK 125. maddesinde “hakaret suçları”’ ndan dava açılması öngörülebilir.

 

Bu noktada, gelecekte yaşanılacaklara hazırlıklı olunması aşikardır. “Deepfake” teknolojisinin yarattığı olumsuz sonuçlara yönelik gerekli hukuki düzenlemelerin yapılması yönünde ciddi çalışmaların başlatılması gerekliliği hasıl olmuştur.

 

III. Kusur İlkesi, Kast–Taksir Ayrımı ve Yapay Zekâ

 

Ceza hukukunun temel ilkelerinden biri kusur ilkesidir. Kusur, failin fiili ile hukuka aykırı netice arasındaki psikolojik bağı ifade eder. Yapay zekâ destekli suçlarda kusurun tespiti, klasik suçlara kıyasla daha karmaşık bir görünüm arz etmektedir.

 

Kast, failin suçun kanuni tanımındaki unsurların gerçekleşmesini bilerek ve isteyerek hareket etmesidir. Deepfake yoluyla gerçekleştirilen pek çok suçta, failin mağdura zarar verme iradesi açıktır. Bu tür durumlarda kast unsurunun varlığı konusunda tereddüt bulunmamaktadır. Ancak yapay zekânın öngörülemeyen çıktılar üretmesi hâlinde, failin neticeyi öngörüp öngörmediği tartışmalı hâle gelebilir.

 

Bu noktada taksir ve özellikle bilinçli taksir kavramı önem kazanmaktadır. Yapay zekâ sistemlerinin kontrolsüz kullanımı, failin neticeyi öngörmesine rağmen önlem almaması şeklinde tezahür edebilir. Ceza hukukunun kusur ilkesi, bu tür durumlarda failin sorumluluğunu tamamen ortadan kaldırmamaktadır.

 

IV. Nedensellik Bağı ve Objektif İsnadiyet Sorunu

 

Yapay zekâ destekli suçlarda en tartışmalı alanlardan biri, fiil ile netice arasındaki nedensellik bağının kurulmasıdır. Klasik ceza hukuku öğretisinde nedensellik, “şart teorisi” çerçevesinde ele alınırken; modern yaklaşımlar objektif isnadiyet teorisini öne çıkarmaktadır.

 

Objektif isnadiyet teorisine göre, bir neticenin faile isnat edilebilmesi için failin hukuken izin verilmeyen bir risk yaratmış olması ve neticenin bu riskin gerçekleşmesi sonucu ortaya çıkması gerekir. Yapay zekâ sistemlerinin denetimsiz veya sorumsuz biçimde kullanılması, hukuken izin verilmeyen bir risk olarak değerlendirilebilir. Özellikle deepfake içeriklerin yayılmasını kolaylaştıran platformların, bu riskin gerçekleşmesine katkıları ölçüsünde sorumluluklarının tartışılması mümkündür.

 

V. Platform Sorumluluğu ve Karşılaştırmalı Hukuk

 

Çevrim içi platformların sorumluluğu, uzun süredir hem ulusal hem de uluslararası düzeyde tartışılmaktadır. Avrupa İnsan Hakları Mahkemesi’nin Delfi AS v. Estonya kararı, platformların kullanıcı içeriklerinden doğan sorumluluğu bakımından önemli bir içtihat oluşturmuştur. Mahkeme, ifade özgürlüğü ile kişilik hakları arasında adil bir denge kurulması gerektiğini vurgulamış; belirli koşullar altında platformların sorumlu tutulabileceğini kabul etmiştir.

 

Türkiye’de 5651 sayılı Kanun kapsamında platformlara çeşitli yükümlülükler getirilmiş olmakla birlikte, yapay zekâ kaynaklı sentetik içeriklere özgü açık ve sistematik bir ceza hukuku düzenlemesi henüz bulunmamaktadır. 2025 yılı itibarıyla TBMM’de görüşülen kanun teklifleri, bu alandaki normatif boşluğun doldurulmasına yönelik ilk adımlar olarak değerlendirilebilir.

 

VI. Avrupa Konseyi Yapay Zekâ Çerçeve Sözleşmesi’nin Ceza Hukuku Bakımından Önemi

 

Avrupa Konseyi’nin 2024 tarihli Yapay Zekâ Çerçeve Sözleşmesi, yapay zekâ teknolojilerinin insan haklarına, demokrasiye ve hukukun üstünlüğüne uygun biçimde geliştirilmesini amaçlamaktadır. Sözleşme, doğrudan ceza sorumluluğunu düzenlememekle birlikte, taraf devletlere etkili hukuki ve cezai mekanizmalar kurma yükümlülüğü yüklemektedir.

 

Bu durum, Türk ceza hukukunda yapay zekâ ve deepfake kaynaklı suçlara ilişkin daha açık ve öngörülebilir düzenlemelerin yapılmasını zorunlu kılmaktadır. Aksi hâlde ceza hukuku, teknolojik gelişmeler karşısında yetersiz kalma riskiyle karşı karşıya kalacaktır.

 

Sonuç

 

Yapay zekâ ve deepfake teknolojileri, ceza hukukunun klasik kavramlarını yeniden düşünmeyi zorunlu kılmaktadır. Mevcut hukuk düzeninde yapay zekânın fail olarak kabul edilmesi mümkün değildir; ancak bu teknolojileri kullanan, yönlendiren veya denetimsiz bırakan gerçek kişilerin ceza sorumluluğu açık biçimde ortaya konulmalıdır. 2025 reform gündemi ve uluslararası gelişmeler, Türk ceza hukukunun bu alanda daha sistematik ve hak temelli bir yaklaşım benimsemesi gerektiğini göstermektedir. Ceza hukukunun etkinliği, teknolojik gelişmeler karşısında uyum sağlama kapasitesine bağlıdır.

 


Kaynakça

 

Av. Esra Doğdu

Aslı Parmak

AI ve Deepfake konusu ile ilgili bilgi almak için şimdi iletişime geçin!

0312 284 16 61

BU İÇERİĞİ PAYLAŞIN

- YASAL UYARI -

yasal-uyari

MCT Hukuk Bürosu, sitede yer alan tüm bilgilerin, zaman içerisinde gelişim ve değişim gösterecek olan güncel hukuk sistemimize uyarlanacağına dair hiçbir garanti vermemektedir. Hukuki makalelerde yer alan bilgilerin dayandığı kanun hükümleri ve yargısal uygulamalar zaman içerisinde değişiklik göstermesi ihtimal dahilinde ve kaçınılmaz olup, ihtiyaç halinde yapılabilecek en doğru davranış, avukatınız ile birebir görüşmek ve destek almaktır. Bu anlamda tarafımızca hiçbir hukuki mesuliyet kabul edilmemektedir. Sitemizde yer alan bilgiler, mesleki dayanışma kapsamında meslektaşlar tarafından kullanılabilir. Ancak bu sitedeki yayınların haber sitesi vb. internet sitelerinde kullanılabilmesi için yayının alınmış olduğu kaynak açıkça gösterilmeli veya bu internet sitesine link verilmek suretiyle (backlink) kaynağa atıf yapılmalıdır; bu şartların sağlanmış olması halinde ayrıca MCT Hukuk Bürosu yetkililerinden izin alınmış olması gerekmemektedir.

KİTABIMIZ YAYINDA

OLAĞANÜSTÜ HAL HUKUKU