|

Gözlerinize inanamayacaksınız: DeepFake

Teknolojik gelişmelerin her biri bizi geleceğe taşıyor. Ama hangi geleceğe? İyi mi, kötü mü? Bu yazıda kötüye taşıdığı taraflardan en tehlikelisini, gördüklerimizi sorgulatacak bir teknolojiyi ele alacağız: “DeepFake”

Haber Merkezi
04:00 - 17/11/2019 Pazar
Güncelleme: 02:56 - 17/11/2019 Pazar
Yeni Şafak
Düşünce günlüğü
Düşünce günlüğü

CEM SÜNBÜL – TEKNOLOJİ YAZARI

Kelime anlamı olarak “DeepFake” aşağı yukarı “Derin Sahtekarlık” olarak çevrilebilir/adlandırılabilir. Peki nedir bu derin teknolojinin içine gizlenmiş olan sahtekarlık? Deepfake tanım olarak, yapay görüntülerle gerçek gibi görünen ve seslenen, yapay zeka tarafından üretilen dijital gösterimleri ifade ediyor. Deep Learning - Derin Öğrenme ile Fake - Sahte kelimelerinden oluşan bir yapay zeka formu. Derin öğrenme sistemi sayesinde hedef kişinin fotoğrafları ve videoları birden fazla açıdan ele alınarak, davranışlarını ve konuşma modellerini taklit ederek, ikna edici bir sahte video üretebilir. Bu tanımı biraz somutlaştıralım ama önce eski örneklere bir bakalım.

BLACK OR WHITE’DAN
TERMİNATÖR’E

Hatırlar mısınız, efsanevi şarkıcı Michael Jackson’ın Black or White adlı şarkısının video klipte, yüzler birbirine dönüşüyordu. Yönetmenliğini John Landis’in yaptığı klip, 1991’de TV ekranlarında gösterime girdiğinde, seyirciler klibin ortasına doğru şaşkınlığa uğramıştı. Şarkının son nakaratında ekranda görünen Asyalı bir erkek, dans ederken birden Afro-Amerikalı bir kadına, sonra kızıl saçlı çilli bir İrlandalı kadına ve yine siyah ve beyaz fark etmez mottosunu vurgulayan bir sıralamayla sürekli değişiyor/dönüşüyordu.

Ya da Terminator serisinin yine 1991 yapımı olan ikinci filminde Robert Patrick’in oynadığı, dünyayı ele geçirmeye programlı T-1000 robotunu da hatırlayabilirsiniz. Dünyaya gelen T-1000 önce bir polis memurunun şekline girmiş, daha sonra temas ettiği her kimse, onun sesine ve görüntüsüne dönüşebilmişti. Eğlence dünyasındaki DeepFake örneklerinden diğer ikisi ise hayatını kaybeden iki aktörle ilgili. Biri, Bruce Lee’nin oğlu Brandon Lee’nin 1994 yapımı The Crow adlı filmde, diğeri ise Paul Walker’ın 2015 yapımı Hızlı ve Öfkeli 7’nin çekimleri sırasında hayatlarını kaybetmesi sonrası, filmler bir nevi DeepFake teknikleri kullanılarak, sanki oynuyorlarmış gibi tamamlanmıştı.

GERÇEK ZAMANLI TEHDİT

Bunlar eğlence sektörünün önde gelen ve uygulaması son derece maliyetli ve uzun çalışma saatleri gerektiren işler. Ancak bugünlerde teknolojik gelişmeler ışığında, dünya paralar harcanıp değiştirilen yüzler ve sesleri bir akıllı telefon uygulaması yardımıyla dakikalar içinde yapabiliyor ve beğenmeyip kenara bırakabiliyorsunuz. Çok değil, birkaç sene önce Oxford Üniversitesi’nde yapılan çalışmalarda DeepFake ile birçok ülkenin devlet başkanını “gerçek zamanlı” olarak sahte bir videoda oynatıldı. Gerçek zamanlı değişim şu anlama geliyordu; canlı yayında bir politikacı konuşurken DeepFake ile değiştirilmiş yayın, politikacının konuştuğunun yerini alabilir. Birileri bunu fark edene dek piyasalar krize girebilir, düşük bir ihtimal de olsa çatışmalar veya savaşlar çıkabilir. Elbette bunlar kulağa uç örnekler gibi geliyor fakat kötüye kullanmak isteyenin hedefi ve gücü nispetinde kurgulanabilecek senaryolarının sınırı olmayabileceğini unutmamak gerek.

ŞEYTAN
AYRINTIDA GİZLİ

DeepFake tehdidinin büyüklüğü öylesine endişe verici ki teknoloji dünyasının devleri, bunların tespit edilmesi için büyük işbirlikleri gerçekleştiriyorlar. Bugünlerde sosyal medyada kullanıcıların eğlence amaçlı kullandığı DeepFake teknolojisi, yarın toplum mühendisliği ile dolandırıcıların en tehlikeli silahlarından biri haline gelebilecek potansiyele sahip. Kaliforniya eyaletinde DeepFake’in bireysel ve politik kullanımı yasaklandı. Buna göre izni olmayan birisinin fotoğraf, ses ve/veya videosunu DeepFake amacıyla kullanımı yasak. Komşunuzun fotoğraf ya da videosunu Facebook’tan indirip eğlenmek için kullanamayacağınız gibi, aynı kişinin eşini kandırmak ve başka bir oyunun/dolandırıcılığın bir parçası olsun diye kullanmanız da yasak. Bireysel eğlence için “ne zararı olabilir” diye düşünülebilir ancak günün sonunda kötü niyetle kullanılabilecek teknik, büyük bir tehdit.

Şeytan ayrıntılarda gizlidir. Çocuklarımızın fotoğraflarını sayfa sayfa sosyal medyada paylaşıyoruz. Dolayısıyla sesini de görüntüsünü de kendi elimizle kullanıma açıyoruz. Kötü niyetli bir takipçi için bir çocuk kaçırma videosu hazırlamak ve aileyi arayarak bir video ile fidye istemek artık maalesef çok kolay. Daha kötüsü de olabilir. Siyasi arenada da karşımıza çıkan kaset meselelerinin bir benzeri DeepFake ile karşımıza bambaşka şekilde çıkabilir. Şantaj sadece üst düzey yöneticiler için değil, herhangi bir birey için büyük bir sorun olabilir. En kötüsü ise bunların çocuk oyuncağı gibi kullanılabilir ve yapılabilir nitelikte olması.

SEÇİMLER VE SİYASİ KAMPANYALAR

Amerika’da 2020 seçimleri kapıya dayanmışken, Microsoft, Facebook ve MIT ile işbirliğiyle bir elden, Google ve Pentagon ayrı elden Deepfake’i engellemenin ve tespit etmenin yollarını arama konusuna hız verdi. Siber güvenlik şirketlerinden Keepnet Labs’ın verdiği bilgilere göre DeepFake videoların sayısı son 10 ayda iki katından fazla arttı. Aralık 2018’de 8 bin civarında olan videoların sayısı 15 binin üzerine çıkmış. Bu videoların % 96’sının pornografik olduğu ve genellikle Amerikan, İngiliz ve Güney Koreli K-Pop akımı ünlülerinin yüzlerinin kullanıldığı tespit edilmiş.

Tüm bu bilgiler, DeepFake teknolojisinin siyasi kampanyalarda kullanılması ihtimalinin ne kadar güçlü olduğunu gösteriyor. Her ne kadar politik alandaki potansiyel tehdit ve ünlülerin yüzlerinin kullanılması rahatsız edici olsa da, tehlikenin büyüğü kadınlar için geçerli. Çünkü kadınlar bu DeepFake dediğimiz lanet yüzünden en çok pornografik olarak hedefte…

Bu teknolojinin hiç mi iyi tarafı yok? Var. Yazının başında belirttiğim üzere sinema endüstrisi için kritik öneme sahip. Hayatını kaybetmiş birilerinin Forrest Gump’ta olduğu gibi canlandırılması veya Will Smith’in gençliğini klonlayan ve 3D olarak Gemini filminde karşımıza çıkarılması bu teknolojinin nimetlerinden bazıları... İspanya’da ressam Dali’nin müzede DeepFake ile canlandırılarak ziyaretçilere kendini anlatması son derece keyifli. Ama teknolojinin iyi tarafları, tehlikeli taraflarını konuşunca hoş bir sada olarak kalıyor. Misal, olur da birileri merhum Cumhurbaşkanlarımızdan Turgut Özal’ı DeepFake ile canlandırıp “beni öldüren xyz kişisidir” dedirterek hedef gösterse, şaka bile olsa günün sonunda hedef gösterilen kişi bu leke ile hatırlanabilir. “Çamur at, izi kalsın” tarzındaki çalışmalar için bu teknolojinin biçilmiş kaftan olduğu muhakkak.

Doğrulama teknolojileri gelişse bile kötü niyetli ve planlı güçlerin bu tarz videoları haber sitelerinden veya geleneksel medyadan paylaşması beklenmeyebilir. Bu işin doğru adresi medyanın görünmeyen yüzü, kapalı gruplar ardında yaşayan medyada… Geçtiğimiz aylarda yaşadığımız orta şiddetteki Marmara depreminin ardından fısıltı gazetesiyle yayılan “bu kurumdaki, şu şu adam söyledi, bu gece deprem olacakmış, evinize girmeyin” dedikodusu nasıl el altından yürüdü ve insanları eve girmekten alıkoyduysa, hedefli videolar da WhatsApp, BİP ve Telegram tarzı halka açık olmayan kapalı gruplardan ve bireysel mesajlaşmadan yürüyebilir. Böyle bir durumda işin doğrusu ortaya çıkana kadar iş işten geçebilir.

Politik bir örnek de verelim. Seçim gecesi ortaya çıkan ve kitleleri galeyana getirecek gizli kamerayla çekilmiş gibi hazırlanmış sahte açıklamaların bulunduğu bir video, sonuçları etkileyecek bir DeepFake olabilir. Benzeri şekilde rakibinin ticari hayatını bitirmeyi isteyen kötü niyetli birisi, aylar önce trafikte terör estiren baklavacıların yaptığının benzerini ücra bir yerde yaptırıp, rakibinin yüzü ve sesiyle servis ederek ticari hayatını bitirmeye çalışabilir. Bir kaynana gelinini kötüleyebilir, öğrenci başka öğretmenini lekeleyebilir. Memur bir başka memuru karalayabilir. Örnekler çoğaltılabilir. Bilgisayarı olan ve internete erişimi olan herkes, teknik olarak “derin” bir video üretebilir. Dolayısıyla toplumun her kesiminde yazar Edgar Allan Poe’nun Kuzgun şiiri dizelerinden bir cümleyi yeni dönemde düstur edinmemiz artık şart: “Gördüklerinin yarısına inan, duyduklarının hiçbirine.”

#DeepFake ​
#Seçim
#Kampanya
#Şeytan
#Ayhan Işık
4 yıl önce