Teknolojisinin gelişmesini iptidai bir zihniyetle karşılamak çağın gerisinde kalmaya neden olur. Bu beylik önermenin dışında, teknolojinin her üretimini nimet olarak kabullenmememiz gerektiğini de gayet iyi biliyoruz. Yani iki radikal ucun ortasında kalan bizler, bir denge yaratmak zorundayız. Öte yandan, son günlerde sıkça konuşulan bir teknoloji ve uygulama var. Bu teknoloji ve uygulamanın adı ise deepfake teknolojisini kullanan Myheritage ve ona ait olan Deep Nostalgia uygulaması…
Artık hiçbirimiz güvende olmadığımız konusundaki gerçekleri biliyoruz. Çünkü teknoloji de, kullanan ellere bağlı olarak yararlı ya da zararlı bir araca dönüşebiliyor. Başka bir deyişle, özellikle yapay zeka tartışmaları içinde değerlendirdiğimiz deepfake teknolojisi tehlikeli olabilir. Nasıl mı? Onun, kimin elinde nasıl bir silah olacağını hala kestirememiz bunun kanıtı değil mi? Ayrıca akademi dünyasının da, yaptığı araştırmaların bir kısmında “korkutucu” olarak nitelendirdiği bu teknolojiyi kısaca tanımlayalım. Bu şekilde tanımlarsak, ‘fotoğraf ve videonun yeni yüzyıldaki dönüşümü’ dememiz yeterli. Ancak bununla birlikte biraz daha detaya inmemiz gerekiyor haliyle.
MyHeritage sitesine geçmeden önce; Deepfake teknolojisi nedir?
Akademisyen Mustafa Evren Berk’e ait olan bir makalede bu teknolojinin tanımlanmasıyla karşılaştık. Berk’in yanı sıra pek çok akademisyenin de konuyla ilgili üretimlerde bulunduğunu gördük. Fakat ne yazık ki, bu çalışmaların çok az bir kısmını yazımıza alabildik.
“Dijital Çağ’ın Yeni Tehlikesi: ‘Deepfake’
Berk’e ait olan bu akademik çalışmada deepfake teknolojisi ile ilgili olarak şu ifadelerle karşılaşıyoruz:
“Deepfake, bir kişinin, surat ifadelerini gelişmiş bir yazılım kullanılarak görsel ve sesli içerik olarak manipülasyonudur. Bu teknoloji, böyle tanımlanabilir. Deepfake, daha çok görsel-işitsel manipülasyonun bir bileşenidir. Görsel-işitsel manipülasyon, medyanın yorumunu etkilemek için herhangi bir sosyoteknik araçtır (Paris ve diğerleri, 2018, s.1). Deepfake, bir yüz ifadesinin başka bir yüz ifadesine belli bir amaç doğrultusunda eklenmesi işlemidir (Nguyen ve diğerleri, 2019, s.1). Deep fake, gerçek insanların video ve ses kayıtlarına yüzler ve sesler eklemek için makine öğrenme algoritmalarından yararlanır ve gerçekçi taklitlerin yaratılmasını sağlar. Daha basit ifade etmek gerekirse, teknoloji “ses yaratmayı mümkün kılar ve gerçek insanların asla söylemedikleri veya yapmadığı şeyleri söyleyip yaptıkları videolardır (Siekierski, 2019, s.1). Deepfake’in ilk geliştiricisinin bir yazılım mühendisi olduğunu belirtmek önemlidir. Ancak, deepfake yazılımının yaratılmasında kullanılan Google ve NVidia gibi yazılım şirketlerinin açık kaynaklı olmasının da payı büyüktür. Geliştirme süreci, hesaplama parametreleri ve algoritmaları hakkında teknik bir bilgi birikimine ihtiyaç duyulmaktadır (Gardiner, 2019, s.8)…”
Özetle, bu teknoloji oldukça tehlikeli olabilir. Çünkü herhangi birinin sesini ve görüntüsünü herhangi bir başkasının videosu ile (veya fotoğrafı ile) bütünleştirebiliriz. Bu manipülasyon sürecinin doğuracağı tehditleri ise uzun süre düşünmemize gerek kalmıyor. Malum, görünen köy kılavuz istemiyor.
Meraklısına; söz konusu olan bu çalışmanın tamamına ulaşmak için buraya tıklayabilirsiniz…
Deepfake teknolojisi ile ilgili bir başka akademik çalışma
Nişantaşı Üniversitesi’nden Ebru Ağaoğlu Ercan’ın 2019 yılında yayımladığı bir çalışma var. Çalışmanın başlığı; “Deepfake ve Yapay Zeka Çağında, Dijital Teknolojiler Aracılığıyla Fotoğraf ve Videonun Dönüşümü”.
Ercan, çalışmasında, dikkat çekici bir cümle kullanıyor: “İnsanlık tarihinde endüstri devriminden sonraki en büyük gelişme sayılan teknoloji devrimi, gerçeklik kavramını altüst edip, tüm tanımları değiştirmiştir.”
Tüm tanımlar, tüm doğrular ve hatta belki de tüm gerçeklikler değişmiştir. Ne dersiniz?
Devam edersek; Ercan, söz konusu teknolojide gelinen noktaya dair şu tespitlerde bulunuyor:
“…Deepfake adı verilen bir uygulama video ve ses görüntülerini birleştirerek üzerinde oynama yapma imkânı vermektedir. Herkesin rahatlıkla ulaşabileceği bu uygulama, orjinalmiş gibi görünen sahte video ve ses kayıtları yaratabilmeyi sağlamaktadır. Deepfake uygulaması jestleri, mimikleri öğrenerek sürekli kendini geliştiren bir yapay zekâ ile desteklenmiş olup, çıktı videonun çıplak gözle otantik videodan ayırt edilemediği sonuçlar yaratmaktadır (Maras & Alexandrou, 2018, s. 1-2). Bu durum fotoğrafik malzemenin yanı sıra hareketli görüntünün de belge niteliğini tamamen ortadan kaldırıp, gerçeklikle bağını sorgulatmaktadır. İster fotoğraf ister hareketli görüntü olsun imgeler, bir zamanlar olduğu gibi gerçekliğin yeniden sunumu olmaktan yavaş yavaş çıkarak, insanları ve paylaştıkları ortamları şekillendiren ara yüzler haline gelmektedir. Fiziki gerçekliğin kamera aracılığıyla aktarımı, deneyimi paylaşma konusunda yetersiz kaldığında, insanlar kolaylıkla dijital manipülasyona yönelebilir durumdadır. Bu anlamda insan ve teknolojilik yaratıları ayıran sınırlar oldukça bulanıklaşmıştır. İnsan zihni ve düşüncesi, dijital teknolojiler aracılığıyla imgelere taşınmaktadır…”
Meraklısına; söz konusu olan bu çalışmanın tamamına ulaşmak için buraya tıklayabilirsiniz…
Gelelim Deepfake teknolojisi içinde yer alan MyHeritage web sitesinin ürettiği Deep Nostalgia uygulamasına
Son günlerde Türkiye’deki Twitter kullanıcılarının da deneyimlemeye başladığı bir uygulama var. Deep Nostalgia uygulaması, MyHeritage isimli dijital oluşuma ait. MyHeritage, Türkçe anlamıyla ‘benim mirasım’ gibi bir karşılığa denk geliyor. İşin özünde, bu uygulama, soyağacı oluşturmayı sağlayan bir web sitesi. MyHeritage ile duyulan Deep Nostalgia uygulaması, ilginç özellikler sunmasıyla da dikkat çekiyor.
İsrail kökenli olan D-ID isimli şirket tarafından MyHeritage adını taşıyan web sitesinin sunumları arasında ilginç maddeler yer alıyor. Örneğin, kullanıcının soyağacına dair bilgilerini, DNA verilerini girmesi dahi söz konusu. Bu web sitesi, aynı zamanda yazımıza konu olmayı başaran ‘eski fotoğraflardan videolar üretilmesini’ de sağlıyor. Daha açık bir ifadeyle, uygulama, ölü insanları dahi konuşturabiliyor… Yani, Deepfake teknolojisini kullanan MyHeritage sitesi yapay zekanın da desteğini alıyor. Bu destek yardımıyla yüz fotoğraflarından yüksek gerçekliğe sahip sahte videolar üretebiliyor… Ki, işte tam da bu noktada geniş bir kesime korkutucu gelen, endişe aşılayan bu özellik. Hangimiz güvendeyiz?
MyHeritage, yer verdiği DeepNostalgia ismini taşıyan web uygulaması sayesinde ilginç bir dönemin kapısını araladı. Platform, derin nostalji anlamına gelen bu uygulamayla çok sayıda sahte videonun türemesine katkı sundu. Ancak bununla birlikte sitenin açıklamaları da dikkatlerden kaçmadı. Site, açıklamasında, ‘yaşayan kişilerin sahte videolarının yaratılması gibi amaçları önlemek için videolara ses konulmadığı’nı belirtti.
Deepfake teknolojisi ile Deep Nostalgia uygulaması ve bu sürece kayıtsız kalamayan dijital aktörler
BBC’nin teknoloji muhabirlerinden Jane Wakefield, yayımladığı bir yazısında, söz konusu web adresinin açıklamasına yer vermişti. O açıklama, sitenin “sıkça sorulan sorular’ kısmında yer alıyor ve “Uygulama nostalji amaçlıdır.” ifadeleri bulunuyor.
Ayrıca; “Sevdiklerimizi hayata döndüren bu özellik bazı kişiler tarafından sihirli bazı kişiler tarafından da ürkütücü bulunabilir. Sonuçlar tartışmalı olabilir ama bu teknolojiye kayıtsız kalmak zor.” açıklaması da, yine bu bölümde karşımıza çıkıyor.
Öte yandan, yapay zekayı kullanan mühendislerin çalışmaları sayesinde (ya da ‘onların yüzünden…’) ortaya çıkan Deep Nostalgia teknolojisi, canlı kişilerin yüz ve vücut hareketlerini referans alması nedeniyle hızla popülerlik kazanmaya devam ediyor. Kaldı ki, söz konusu web sitesinde bulunan ve Kraliçe Viktoria ya da Florance Nightingale gibi simgeleşmiş tarihi kişiliklerin “canlandırılmış” videoları bulunuyor. Bununla birlikte şirketin şubat ayında, 12 Şubat doğumlu olan ABD’nin 16. Başkanı Cumhuriyetçi kanadın lideri Abraham Lincoln videosunu yayımlaması oldukça konuşulmuştu. Lincoln, John Wilkes Booth’un planlayıp Washington’da, 14 Nisan 1865 tarihinde düzenlediği saldırının ertesi günü hayatını kaybetmişti.
Bahsettiğimiz bu videoda, bildiğimiz kadarıyla yaklaşık 156 yıldır ölü olan Lincoln, bizimle konuşuyor…
İngiltere Kraliçesi Noel mesajı yayımlamış ancak bundan kendisinin bile haberi olmamıştı
İngiltere’de Channel 4 Televizyonu, deepfake teknolojisinin yalan haber yaymak için kullanılması tehlikesine dikkat çekmek için bu yöntemle hazırlanmış sahte bir Kraliçe videosu hazırlamıştı.
Videoda Kraliçe halka alternatif bir “Noel mesajı” vermişti. Bu arada İngiltere’nin, deepfake teknolojisiyle ilgili bir mevzuat hazırlığı içinde olduğuna dair haberin medyada yer aldığını söyleyebiliriz. Bu çerçevede yürütülen çalışmalarda gözlerin çevrildiği Parlamento Komisyonu, deepfake teknolojisi sayesinde videoları yapılan kişilerin mutlaka rızasının alınması gerekliliğini belirtiyor.
Ayrıca tartışma yaratan bu ‘Noel mesajı’nın ardından pek çok kullanıcının, Twitter’da bulunan profillerinden, kaybettikleri yakınlarının videolarını yayımlamaya başladıklarını görmüştük.
Öte taraftan, Tom Cruise’u izlediğimiz deepfake videoyla birlikte tartışmalar alevlenirken uzmanların dikkat çektiği bu sahteliğin bir başka tehlikeli yönü daha var; sahte pornografik üretimleri gerçekleştirebilecek karanlık odaklar… Çünkü böyle bir sürecin başlaması, tahmin edebileceğimiz üzere hiçbirimizin güvende olmadığını gösteriyor. Son olarak, günün birinde ilgimiz olmadığı halde bir videoda terörist olduğumuzu izleyebileceğimiz olasılığıyla birlikte belki de hiç ama hiç sevişmediğimiz bir porno filmde başrol oynayacağız.. Ve haliyle bu görüntüler sebebiyle çeşitli şantajlara maruz kalacağız. Kim bilir… Ama bu tabloda en iyi ihtimalle, toplumdan aforoz edilme tehdidini duyumsayacağız… Hem de iliklerimize kadar…