Techinside Google News
Techinside Google News

Deepfake hafıza çarpıtma konusunda başarılı oluyor

Deepfake hafıza çarpıtma ve aldatma konusunda başarılı sonuçlar veriyor. Doğru ile yanlışı ayırma konusunda deepfake karışıklık sağlıyor.

Deepfake hafıza çarpıtma ve aldatma konusunda başarılı sonuçlar veriyor. Doğru ile yanlışı ayırma konusunda deepfake karışıklık sağlıyor.

Yapay zeka kullanımındaki patlama, önemli sayıda kişi arasında medyada doğruyu yanlıştan ayırt etme konusunda kafa karışıklığına neden oldu. Deepfake’ler, sahte olayların görüntülerini oluşturmak için derin öğrenme adı verilen bir yapay zeka biçimi kullandıkları için Photoshopping’e 21. yüzyılın yanıtıdır, dolayısıyla ‘deepfake’ adı veriliyor. Son zamanlarda, bir araştırma ekibi deepfake videolar hakkında bir araştırma yaptı ve gerçekte var olmayan film yeniden yapımlarının deepfake kliplerinin, katılımcıların var olmayan filmleri yanlış bir şekilde hatırlamalarına neden olduğunu belirledi. Bununla birlikte, çalışma, sahte filmlerin basit metin açıklamalarının da benzer yanlış hafıza oranlarına yol açtığını belirtiyor.

- Advertisement -

Araştırma, University College Cork, İrlanda’dan Gillian Murphy ve Science Foundation Ireland Yazılım Araştırma Merkezi Lero ve meslektaşları tarafından yürütüldü. Araştırmacılar: “Deepfake videolar, bir kişinin sesini veya yüzünü farklı bir kişinin sesiyle değiştirmek için yapay zeka teknolojisi kullanılarak değiştirilmiş kliplerdir” diyor. Araçların video yapımcıları için daha erişilebilir olmasını sağlayan satın alınabilirlikleri nedeniyle deepfake’lerin küratörlüğünü yapma kolaylığıyla ilgili endişelerini dile getiriyor.

Çalışma yöntemi

Araştırmacılar, katılımcılarla ampirik bir çalışma başlatarak derin sahtekarlıkların potansiyel risklerini ve faydalarını keşfetmeyi amaçladılar. Bu yaratıcı uygulamaların potansiyeline ve derin sahtekarlık oluşturmanın getirdiği risklere ilişkin konuşmaları artırmaya çalııyor. Araştırmacılar, deepfake’lerin yanlış bilgi yayabileceği ve izleyicilerin anılarını manipüle edebileceği konusundaki endişelerini dile getiriyor.

Bilim adamları, teorilerini kanıtlamak için 436 kişiyi, katılımcıların farklı aktörlerin oynadığı sahte film yeniden yapımlarının derin sahte videolarını izlemelerini gerektiren çevrimiçi bir anketi doldurmaya davet etti. Araştırmacılar, Will Smith’in The Matrix’te Neo karakterini, aslen Keanu Reeves tarafından canlandırılan, tasvir ettiğini söyledi.

Başka bir film uyarlaması, The Shining’de Brad Pitt ve Angelina Jolie’yi canlandırdı. Ek sahte filmler Indiana Jones ve Captain Marvel’ı içeriyordu. Karşılaştırma yapmak için katılımcılara Charlie & The Chocolate Factory, Total Recall, Carrie ve Tomb Raider gibi orijinal yeniden yapımların klipleri de gösterildi. Deneklere ayrıca deepfake’leri izlemek yerine yeniden yapımların metin açıklamalarını okumaları sağlandı.

Sonuç etkileri

Analize göre, deepfake videoların ve beraberindeki metin açıklamalarının katılımcıların hafızası üzerinde dolaylı bir etkisi olduğu ve uydurma içerikle ilgili yanlış anılar ürettiği tespit edildi. Ortalama olarak, katılımcıların yaklaşık yüzde 49’u her bir sahte uyarlamanın gerçek olduğuna inanıyor.

Ek olarak, birçok katılımcı sahte yeniden yapımların orijinallerinden daha iyi olduğunu hatırladığını belirtti. İlginç bir şekilde, deneklere metin açıklamaları gösterildiğinde yanlış hafıza oranları eşit derecede yüksekti. Analiz, deepfake teknolojisinin hafızayı bozmada diğer geleneksel yöntemlerden daha etkili olmadığını gösteriyor.

Sonuç olarak, katılımcıların çoğu, filmleri yeniden canlandırmak için derin sahte teknoloji kullanmaktan rahatsızlık duyduklarını ve sanatsal bütünlüğe saygısızlık ve filmlerin paylaşılan sosyal deneyimini bozma konusundaki endişelerini dile getirdi.

Araştırmacılar, bulguların deepfake teknolojisinin gelecekteki tasarımını ve düzenlemesini belirlemeye yardımcı olabileceğini belirtiyor.

Siz bu konu hakkında ne düşünüyorsunuz? Görüşlerinizi yorumlarda paylaşın!

SON VİDEO

TÜMÜ
00:06:39

CEVAP VER

Lütfen yorumunuzu giriniz!
Lütfen isminizi buraya giriniz

İlginizi çekebilir