10 °C
Murat YILDIZ
Murat YILDIZ TEKNO STRATEJİ myildiz@dunya.com

Derin sahtekarlık dönemi başladı

1995 yılında ilk kez Photoshop isimli bir program ile tanıştım. O kadar primitif bir uygulamaydı ki, şu anda cep telefonunuzdaki basit bir resim işleme uygulamasının yapabileceklerinin çeyreğini bile yapamazdınız. Ancak o günden sonra hayatımıza yeni bir kavram girdi, “fotoşoplu resim”. Hatta kimisi kısaca “şoplu resim” diyor. Muhtemelen hepinizin de bildiği gibi, eğer bir fotoğrafta, normal görünüme oldukça aykırı bir düzenleme varsa, buna şoplu resim deniyor. Misal, aşırı şekilde inceltilmiş vücutlar, uzatılan boy, yüzdeki çiziklerin giderilmesi… magazin dünyasının sıklıkla başvurduğu Photoshop taktikleri arasında.

Elbette geldiğimiz noktada Photoshop gibi programlar o eski cılız özelliklerinin üzerine, yapay zeka destekli algoritmalar ile birçok yeni kabiliyetler eklediler. Ancak işin de biraz rengi değişmeye başladı. Kullanıcılar Photoshop ile değil ama, bambaşka yazılımlar ve algoritmalar kullanarak, artık insanların bile kolay kolay ayırt edemeyeceği video montajlar ve efektler oluşturmaya başladılar. Tüm bunlara Deepfake, ya da derin sahtekarlık diyoruz.

Kısacası, makine öğrenimi ve yapay zeka sayesinde, belirli bir video görüntüyü tamamen manipüle etmekten geçiyor. Hatta burada bir aşama daha ileri gidip sesleri bile değiştirebiliyorsunuz. Örneğin bir ülke liderinin ağız hareketlerini tamamen değiştirip, istediğiniz şarkıyı söyletmeniz mümkün. İnternette bunun örneklerini kolayca bulabilirsiniz. Daha da kötüsü, bir kişinin yüzünü alıp, bir başka kişinin bedenine yerleştirip ve gayet doğal bir video görüntü elde edebilirsiniz. Bu durumda başkasının yaptığı eylemi sanki kendisi yapıyormuş gibi bir montaj görüntü oluşturmanız mümkün.

DeepFake videoları son bir yıl içerisinde o kadar gelişti ki, artık eskiden olduğu gibi bu videoları görüp “aaa fotoşoplu bu resim” diyemiyorsunuz.

Derin Sahtekarlık tekniği ile hazırlanmış olan videoların şimdilik basit şakalar ve eğlenceli atışmalar gibi duruyor. Ancak bir yandan da tehlike çanlarını çalmak ve gerekli tedbirleri almak için pek çok sebebimiz var.

Öncelikle milenyum nesli artık çok daha fazla dijital veri paylaşan ve bunların mahremiyeti ve kimlere eriştiği konusunu çok fazla dert etmeyen bir düşünce yapısına sahip. Dolayısıyla yapay zeka yazılımlarının en çok ihtiyaç duyduğu örneklem görüntüler artık internette bolca bulunuyor. Güçlü bir yapay zeka algoritması ve donanım, birkaç yıl içerisinde internetten topladığı görüntü arşivi ile hızlıca birebir size benzeyen bir yapay video üretebilir hale gelecek. Üstelik sesinizi de birebir benzeterek farklı şeyler konuşturabilecek.

Derin sahtekarlık ile mücadele etmek için yine yapay zekadan yararlanılıyor olması da ayrı bir ironi. Çünkü normal bir insanın tespit edemeyeceği mükemmellikteki bu videoları, yine yapay zeka yazılımları aynı kişinin geçmiş videolarına bakarak tespit etmeye çalışıyor. Örneğin bir devlet liderinin deep fake ile hazırlanmış bir videosunu analiz eden yazılımlar, göz kırpma aralıklarında, yanı kişinin karakteri ile bir uyumsuzluk fark ederek bunun deep fake videosu olduğuna hükmediyor.

Yapay zeka algoritmaları arasındaki bu mücadele şunu gösteriyor. Siber güvenlik şirketlerinin muhtemelen yeni iş alanlarından biri de bu tarz sahte video ve resimlerin tespit edilmesi süreci olacak. Özellikle biyometrik kimlik tespitlerinin de yoğun bir şekilde kullanıldığı bir dönemde artık daha gelişmiş yapay zeka tabanlı güvenlik çözümlerine çok daha fazla ihtiyacımız olacak. Çünkü bu sefer saldırı altındaki şey bilgisayarınız değil, kişisel itibarınız olacak.

Hollywood bu işi sevdi

Deepfake’in muhtemelen iyi niyetle kullanıldığı tek alan film endüstrisi. Ve muhtemelen tüm sanatçılar yakında ölümsüz olacak. Örneğin Star Wars filminin yeni serisinde genç Prenses Leila’nın tekrar canlandırılması gerekiyordu. Carrie Fischer’a çok benzeyen bir aktrisin yüzü daha sonra bilgisayar efektleri sayesinde birebir kendisine benzetildi. Muhtemelen birçok sanatçının gençlik günleri da bu şekilde tekrar canlandırılmış olacak. Hatta kim bilir, müteveffa aktör ve aktrisleri pek yakında yeni filmleri ile görmeye başlayabiliriz bile.

Yorumlar

Yorum yapabilmek için lütfen giriş yapınız.
Giriş Yap