Deepfake, bir kişinin mevcut bir metni, resmi, videoyu veya sesi alıp üzerinde değişiklik yaptığı bir teknolojidir. Başka bir deyişle, bir kişinin başka bir kişiye benzemek için gelişmiş yapay zeka (AI) ve sinir ağı (NN) teknolojisini kullanarak yeni bir sahte kimlik oluşturduğu bir medya teknolojisidir. Birkaç yıl önce ilk ortaya çıktığında zararsız olan deepfake teknolojisi, o zamandan beri kötü niyetli bir silah haline geldi. Bu makale, deepfake teknolojisinin tam olarak ne olduğu, nasıl çalıştığı, aldığı farklı biçimler ve deepfakeleri nasıl tespit edebildiği hakkında bilgi vermektedir.
İçindekiler
Derin Sahte Koşu?
Deepfake, bir kişinin mevcut bir metni, resmi, videoyu veya sesi alıp daha sonra başka bir kişiye benzemek için gelişmiş yapay zeka (AI) ve sinir ağı (NN) kullanarak manipüle ettiği sahte medya teknolojisindeki terimlerden biridir. Örneğin birinin ağzına kırıcı sözler söylemek, bir film kahramanını en sevdiğiniz Hollywood yıldızı ile değiştirmek ya da Michael Jackson gibi dans etmek, deepfake teknolojisi sayesinde videolar oluşturmak mümkün. Deepfake içerikleri her geçen gün katlanarak büyümeye devam ediyor. Ne yazık ki, deepfake teknolojisi siyasi şöhret kazanmak, bir rakibi karalamak veya finansal dolandırıcılığın faili olarak görülmek için defalarca kullanıldı. Deepfake’lerin üç temel türü ve bugün bunların çalışmasına izin veren veri bilimi göz önüne alındığında, araştırmacıların ve güvenlik danışmanlarının deepfake’lerin kötü amaçlı kullanımını önlemek için üzerinde çalıştıkları deepfake tespit teknikleri vardır.
derin metin
Yapay zekanın (AI) ve doğal dil işlemenin (NLP) ilk günlerinde, bir makinenin çizim veya yazma gibi yaratıcı bir faaliyet gerçekleştirmesinin zor olacağı öne sürülmüştür. 2020’ye hızlıca ilerleyin; Araştırmacıların ve veri bilimi uzmanlarının artan çalışmalarıyla yıllar içinde oluşturulan güçlü dil modelleri ve kitaplıklarla, yapay zeka tarafından üretilen en yüksek düzyazı artık insan kısalığı ve tutarlılığıyla yazılabilir.
GPT-2
Örneğin, Silikon Vadisi Açık Yapay Zeka araştırma laboratuvarı tarafından piyasaya sürülen GPT-2 gibi en yeni metin işleme sistemini ele alalım ve teknoloji, tutarlı metni minimum istemle çıkarma becerisiyle hem uzmanları hem de alan uzmanlarını etkiledi. Open AI mühendisleri, web sayfalarından ilgili verileri çıkararak GPT-2 AI modellemesi ve eğitimi için 1 milyar parametreyle birlikte 8 milyondan fazla hurda metin belgesi kullandı. Sentetik tekniklerden yararlanan derin sahtekarlıklar ve derin öğrenme gibi diğer tekniklerin özü, yazılımı kendi kendine düşünecek ve veri kümelerinden beslenen tarihsel verileri kullanarak uyum sağlayacak şekilde eğitmektir. Örneğin, GPT-2 ve derin sahte bir metin algoritması kullanarak bir manşeti yumruklayarak o başlık etrafında kurgusal bir haber hikayesi oluşturmak mümkündür.
Birçok medya evi, programın kendisi tarafından yazılan hikayeler veya bloglar oluşturmak için derin sahte algoritmalar kullanır. Araştırmacılar, bunun Middlebury Terörizm Enstitüsü, Uluslararası Çalışmalar Merkezi ve Terörle Mücadele Merkezi (CTEC) gibi aşırılık yanlısı örgütler tarafından ırksal üstünlük veya aşırılık hakkında aşırılık yanlısı mesajlar yaymak için kötüye kullanılabileceği konusunda uyarıyorlar.
Sosyal medyada Deepfake’ler
Deepfake teknolojisi, ortalama bir kullanıcının hikaye veya blog yazarken tespit etmesi zor olan sahte bir çevrimiçi profil oluşturmak için de kullanılabilir. Örneğin, LinkedIn ve Twitter gibi sosyal medya sitelerinde olmayan Maisie Kinsley adlı bir Bloomberg muhabirinin sahte olması muhtemeldir. Profil resmi garip, muhtemelen bilgisayar tarafından oluşturulmuş. Bunun nedeni büyük olasılıkla Maisy Kinsley’nin sosyal medyada Tesla hisse senedi satıcılarıyla tekrar tekrar bağlantı kurmaya çalışmasıdır. Satıcı profili, daha iyi finansal fayda sağlamak, yani hisse senedinin hisse fiyatı düşecek, daha da düşük fiyattan satın alarak daha yüksek kar elde etmek için oluşturulur. Stratejik ve Uluslararası Çalışmalar Merkezi için çalıştığı bildirilen Katie Jones adlı başka bir profilin, casusluk amacıyla oluşturulmuş derin bir sahte olduğu ortaya çıktı.
Metin derinliği algılama
Allen Yapay Zeka Enstitüsü’nden araştırmacılar, çevrimiçi dolaşan sentetik içeriği tespit etmek için Grover adlı bir yazılım aracı geliştirdiler. Araştırmacılar, bu yazılımın sahte makalelerin %92’sini tespit edebildiğini iddia etti. Grover, açık kaynaklı bir web tarayıcısı ve arşivleyici olan Common Crawl’dan derlenen bir test paketi üzerinde çalışıyor. Benzer şekilde, Harvard Lab ve MIT-IBM Watson’dan bir bilim adamı ve ekibi, girilen metnin yapay zeka tarafından üretilip üretilmediğini ayırt etmeyi amaçlayan bir web aracı olan Dev Model Language Test Room’u tasarlamak için iş birliği yaptı.
Deepfake videoları
Sahte fotoğraflar ve videolar oluşturmak, deepfake teknolojisinin potansiyel olarak zararlı ana özelliklerinden biridir. Resimlerin ve videoların olayları ve hikayeleri düz metinden daha iyi açıkladığını düşünmek yanlış olmaz, çünkü sosyal medyadaki her yerde bulunan görseller göz önüne alındığında, deepfake’lerin en yaygın kullanılan biçimleridir. Video üretimi için modern yapay zeka, doğal dil muadilinden daha yetenekli ve potansiyel olarak daha tehlikelidir. Seul merkezli teknoloji şirketi Hyperconnect kısa bir süre önce MarioNETte adlı tarihi figürlerin, ünlülerin ve politikacıların derin filmlerini oluşturabilen bir araç geliştirdi. Bu, derin yüzü oluşturulacak hedef karakterin üzerine yüz ifadeleri bindirilen başka bir kişi tarafından yüzün yeniden canlandırılmasıyla yapılır.
Deepfake video nasıl üretilir?
Bu video, Generative Adversarial Network (GAN) adı verilen bir teknoloji kullanıyor. GAN’lar, sinir ağları adı verilen bir makine öğrenimi dalının parçasıdır. Bu ağlar, insan beyninin nöral süreçlerini taklit etmek için tasarlanmıştır. Programcılar, belirli bir görevi öğrenmek veya değiştirmek için sinir ağları geliştirebilir. Deepfake oluşturmak için kullanılan bir GAN’da, gerçekçi bir çıktı üretmek için iki sinir ağı birbirine çekilir. Bunu yapmanın amacı, yüz detaylarının olabildiğince gerçek görünecek şekilde oluşturulmasını sağlamaktır. GAN’ın özü, iki sinir ağı arasındaki rekabettir. GAN’da görüntü sahtecisi ve sahtecilik detektörü tekrar tekrar birbirini geçmeye çalışıyor. Her iki sinir ağı da aynı veri seti kullanılarak eğitilir.
İlk ağa jeneratör adı verilir ve işlevin daha gerçekçi görünmesini sağlayan gürültü vektörlerini (rastgele sayıların bir listesi) kullanarak sahte bir görüntü oluşturur. Ayırıcı olarak adlandırılan ikinci ızgara, oluşturulan görüntülerin çözünürlüğünü belirler. Oluşturucu tarafından oluşturulan sahte görüntü, sahte ve gerçek görüntüyü tespit etmek için veri setindeki orijinal görüntülerle karşılaştırılır. Bu sonuçlara dayanarak, jeneratör görüntü oluşturma parametresini değiştirir. Bu döngü, ayrımcı oluşturulan görüntünün sahte olduğunu tespit edene ve daha sonra nihai çıktıda kullanılana kadar devam eder. Deepfake’lerin bu kadar ürkütücü derecede gerçek görünmesinin nedeni budur.
Derin sahte videoların tespiti
Dünyanın dört bir yanındaki adli tıp uzmanları, bu teknoloji her geçen gün daha fazla kullanıldığından, derin sahtekarlıkları tanımlamanın yollarını ve araçlarını bulmakta zorlanıyor. Örneğin, 2018’de Buzzfeed tarafından yayınlanan ve dünyanın dört bir yanındaki izleyicileri kandıran bir Obama tanıtım videosu var. Kitlelere ulaşan makine öğrenimi araçlarıyla, propaganda odaklı haberleri yaymak veya hedeflenen bir kişiyi taciz etmek için kullanılabilecek ikna edici sahte videolar oluşturmak çok daha kolay hale geldi. ABD Savunma Bakanlığı (DARPA), Media Forensics adlı bir deepfake tespit aracı yayınladı. Başlangıçta yazılım, mevcut adli tıp araçlarını otomatikleştirmek için geliştirildi, ancak derin sahtekarlık teknolojisinin ortaya çıkmasıyla birlikte, yapay zekayı derin sahtekarlıklara karşı yapay zeka ile birlikte kullandılar.
Deepfake teknolojisi kullanılarak oluşturulan bir video, orijinal videoyla karşılaştırıldığında, videonun meta verilerinin dağıtılma biçiminde teknik olarak dikkate değer farklılıklar gösterir. Bu farklılıklar, DARPA’nın derin sahte algılama aracının, derin sahte medyayı tespit ederken ortadan kaldırmaya çalıştığı, matristeki görünüm olarak adlandırılır. New York Eyalet Üniversitesi Bilgisayar Bilimleri Bölümü’nde profesör olan Siwei Liu, derin sahte teknoloji kullanılarak oluşturulan yüzlerin nadiren göz kırptığını belirtiyor. Bu normal bir durum gibi görünmüyor. Bunun nedeni, çoğu derin sahte videonun durağan görüntüler kullanılarak eğitilmesidir. Ancak kişinin portreleri genellikle gözleri açıkken çekilir. Göz kırpmaya ek olarak, yüz hareketleri, konuşma sırasında üst dudağını nasıl kaldırdıkları, başlarını nasıl salladıkları vb. Diğer veri noktaları, bir akış videosunun sahte olup olmadığına dair ipuçları sağlayabilir.
Deepfake Ses
Yapay zekanın ve sinir ağlarının gücü metin, resim ve videolarla sınırlı değil. Bir kişinin sesini aynı kolaylıkla yeniden üretebilirler. Tek gereken, sesinin taklit edilmesi gereken bir kişinin ses kaydının veri kümesidir. Deepfake, algoritmaların bu veri kümesinden öğrenmesini ve hedef kişinin konuşmasını iyileştirmesini sağlar. Yapay zekanın sese ve tonlamaya alışması için sadece birkaç cümlenin konuşulması gereken Lyrebird ve Deep Voice ticari yazılımları piyasada. Kişi kendini daha fazla sesle beslediğinde, bu yazılım ses üretimi için yeterince güçlü hale gelir. Ses örnekleri veri setini besledikten sonra sadece bir cümle veya bir paragraf vermek gerekiyor ve bu deepfake yazılımı kişinin sesi ile metni konuşturmasını sağlıyor.
Derin ses algılama
Şu anda sese adanmış çok fazla derin sahte araç yok, ancak geliştiriciler ve siber güvenlik şirketleri daha iyi önleyici çözümler bulmak için sahada çalışmaya devam ediyor. Örneğin, teknoloji şirketi Resembly’deki geliştiriciler, sahte ses kliplerini tespit etmek için Resemblyzer adlı açık kaynaklı bir araç geliştirdiler. Resemblyzer, ses örneklerinin gerçek mi yoksa sahte mi olduklarını tahmin etmek için algoritmik temsillerini türetmek üzere gelişmiş makine öğrenimi algoritmaları kullanır. Bir kullanıcı, değerlendirilmek üzere bir ses dosyası gönderdiğinde, sağlanan ses örneğinin benzersiz özelliklerini özetleyen bir matematiksel temsil oluşturur. Bu dönüştürme sayesinde makinenin sesin gerçek mi yoksa deepfake’lerden mi yapıldığını tespit etmesi mümkün hale geliyor.
Deepfake teknolojisinin geleceği
Deeptrace Labs tarafından yapılan bir araştırma, internette 14.000’den fazla derin sahte videonun gizlendiğini ortaya çıkardı. Ayrıca sadece yedi ayda üretiminde %84 artış kaydetti. İlginç bir şekilde, sahte videoların %90’ından fazlası ünlü kadınları taklit eden pornografidir. Deepfake teknolojisi yükselişteyken, bireylerin mahremiyetine olduğu kadar onuruna da zarar verme gibi ciddi bir sorun teşkil ediyor. İronik olarak, aynı yapay zeka, yapay zeka destekli derin sahtekarlıklara karşı kullanılıyor. İyi bir yapay zeka derinliklerin belirlenmesine yardımcı olabilirken, bu algılama sistemi eğitim için tükettiği veri kümesine güvenir. Bu, sahte ünlü videolarının tespit edilmesinin zor olacağı anlamına gelir çünkü üzerlerinde çok miktarda veri mevcuttur. Ancak bu tespit sistemleri için düşük profilli bir kişinin derinliğini tespit etmek zordur.
Sosyal medya teknoloji devleri, deepfake algılama sistemleri üzerinde çalışmaya devam ediyor. Facebook geçtiğimiz günlerde platformunda derin sahtekarlıkları tespit etmek için otomatik bir sistem üzerinde çalıştığını duyurdu. Benzer şekilde Twitter, kışkırtıcı olduğu tespit edilen bu tür gönderileri işaretlemesini ve silmesini önerdi. Bu teknoloji şirketlerinin çabaları takdir edilip takdir edilse de, bu teknolojinin kötüye kullanımı ne kadar engelleyebileceğini yalnızca zaman gösterecek!
kaynak:
https://whatis.techtarget.com/definition/deepfake
https://www.theguardian.com/technology/2020/jan/13/what-are-deepfakes-and-how-can-you-spot-them
yazar: Özlem Güvenç Ağaoğlu
Diğer gönderilerimize göz at
[wpcin-random-posts]