Yaşam düz bir çizgi üstünde ilerlemiyor. Oldukca üzücü vakalar kimi zaman hayırlı gelişmelere vesile olabiliyor. Kimi zaman mutluluktan havalara uçuran bir haber, bir felaketin ilk adımını atabiliyor. Kim bilir o yüzden günlük detaylara fazlaca anlamlar yüklememek, hafifçe yenilgilerle yıkılmamak ve minik zaferlerle coşmamak daha rasyonel. (Sadece söylemek yapmaktan kolay, adına insan dediğimiz organizmanın kodu maalesef kısa vadeli duygularla kendini tanımlamaya ayarlı)
Bu köşede çok da fazla işlediğimiz suretiyle suni zekâ da benzer bağlamda oldukça tartışılan bir mevzu. Denetimsiz bir halde geliştirilmesinin insanoğlu için hem ekonomik hem de varoluşsal riskler barındırdığını yeniden etmeye gerek yok. Fakat bu değişen teknolojinin insanlık için sayısız fırsatlar yarattığını da gözlemliyoruz. En çarpıcı örnek tıp alanında; YZ’nin fazlaca erken safhada olmasına karşın bilhassa teşhiste insanlardan (İnsandan kasıt kaynımız değil doktorlar) daha isabetli olabildikleri görülüyor. YZ ek olarak görüntülenme süreçlerindeki insan hatalarının minimize olmasını sağlayabiliyor.
Doğal ki en fazlaca korkulan, bu fenomenin yanlış ellerde tehlikeli bir silaha dönüşmesi. Sadece yaşam sürprizlerle dolu; kimi zaman korkulu niyetlerle ortaya çıkan bir şey de iyi ellerde şefkatli ve işlevsel bir vasıta haline gelebiliyor.
Evet, başlıkta bahsi geçen deepfake’e sonunda geldik.
Günümüzün fotoşopu
Deepfake’i bilmeyen 4 şahıs için ’21. yüzyılın fotoşoplamaya cevabı’ diye özetlemek mümkün. Bu teknoloji, suni zekânın bir alt türü olan derin öğrenmeyi kullanarak düzmece fakat aşırı gerçekçi video görüntüleri ve ses kayıtları oluşturabiliyor. En sık kullanıldığı alan pornografi. Meşhur adlar erişkin içerikli görüntülere yerleştiriliyor sadece bu belanın mağdurları sanılanın aksine bir tek ünlüler değil. Deepfake erişkinlik dönemindeki kız evlatları için de yıkıcı izler bırakan eylemlerin aracı haline gelmiş durumda. Söz mevzusu teknoloji, politikacılar üstünde kullanılabildiği şeklinde ek olarak dolandırıcıların da rüyalarını süsleyen kullanışlı bir tabanca.
Peki bu kâbustan iyi bir şey çıkar mı? Görünüşe nazaran evet.
Deepfake’i iyi amaç için kullananlar
- Kartel sertliği gölgesindeki Meksika’da 100 binden fazla şahıs yitik durumda. Yetkililerden destek göremeyen binlerce aile ise çözümü deepfake teknolojisinde bulmuş durumda. Hector Fernandez, Meksika’daki evinden kaçırıldığını anlattığı bir video mesajı ile yetkililere seslendi, kaybolmasını araştırmalarını ve kendisini sağ bulmalarını istedi:
“Bu davanın cezasız kalmasına izin vermeyin. Haklarımı aramamda bana yardım edin.”
Sadece videodaki şahıs Fernandez’in kendisi değil deepfake versiyonuydu. Bir farkındalık kampanyası ile yitik kişilerin hikayeleri birinci ağızdan anlatılıyor, bu kişilerin bir tek bir sayıdan ibaret olmadığı gösterilmek isteniyor.
- 2018’de bir okul saldırısında vurularak öldürülen Joaquin Oliver’in ailesi de, ‘silahsızlanma ve tabanca kontrolü’ mesajı vermek için gencin ağzından bir deepfake videosu oluşturmuştu. Kaybettikleri kişileri yeniden görmek asla kolay olmasa da daha yüce hedef için aileler deepfake’i kullanmaya devam ediyor.
- Teknoloji zihinsel görüntüler oluşturamayan afantazya hastalarına yardım etmek için de kullanılıyor.
- Ek olarak duşta duvara söz anlatma periyodu de bitiyor, ‘ayrılma simülatörü’ adındaki bir deepfake projesi ile kaygı verici konuşmaların prova edileceği bir ortam yaratılıyor.
- Söz mevzusu teknoloji ile geçmişle köprü oluşturmak ve geleceği daha iyi yorumlamak da mümkün. John F. Kennedy’nin suikaste uğramış olduğu gün yapmış olduğu yitik konuşmayı canlandırmak da gene JFK’in eski konuşmalarıyla YZ’nin eğitilmesi suretiyle gerçekleşti.
- Deepfake kültür ve sanat alanında da yaratıcılığa oldukça açık. Florida’daki Dali Müzesi’nde ziyaretçileri deepfake bir Salvador Dali karşılıyor. Kendisini ve sanatını uzun uzun özetleyen düzmece Dali, müzeye gelenlerin daha kişisel bir edinim yaşamasını (ve kim bilir sanatla daha fazlaca ilgilenmesini) sağlıyor.
En önemlisi, insanoğlu bu Dali ile selfie çekilebiliyor. Yaşam düz bir çizgi üstünde ilerlemiyor.