Techinside Google News
Techinside Google News

Yapay zekâ ürünü deepfake suçları artıyor!

Talor Swift deepfake skandalı, ünlü isimlere yönelik itibar suikastları derken yapay zekâ ürünü sahte ses ve video dosyaları hızla yayılıyor

Yapay zekâ içeren en son deepfake suç vakası geçen hafta ABD Maryland’deki bir lisede ortaya çıktı; polis, bir okul müdürünün sahte bir ses kaydıyla ırkçı olarak suçlandığını söyledi. Uzmanlar, bu vakanın sadece politikacıların ve ünlülerin değil, herkesin giderek güçlenen deepfake teknolojisi konusunda endişe duyması için bir başka neden olduğunu söylüyor.

Kaydedilmiş ses ve görüntülerin manipüle edilmesi yeni bir şey değil. Ancak birilerinin bilgileri kolayca değiştirebilmesi yeni bir olgu. Sosyal medyada dezenformasyonun hızla yayılabilmesi de öyle. Berkeley’deki California Üniversitesi‘nde profesör olan ve dijital adli tıp ve dezenformasyon konularına odaklanan Hany Farid, “Herkes saldırıya açıktır ve saldırıyı herkes yapabilir” diyor.

- Advertisement -

Okul müdürünü taklit eden sahte ses klibi, yapay zekânın ChatGPT, CoPilot ve Gemini gibi üretken yapay zekâ olarak bilinen alt kümesinin bir örneği. Bu sohbet robotları giderek daha kabiliyetli hale gelirken her türlü gerçekçi görüntüyü, videoları ve ses kliplerini yaratabiliyor. Son yıllarda daha ucuz ve kullanımı daha kolay hale gelen üretken yapay zekâ araçları deepfake yüzünden giderek korkutucu bir hale dönüşüyor.

Berkeley profesörü Farid, “Özellikle son bir yıldır, hemen herkes çevrimiçi bir hizmete girebilir ve ücretsiz olarak ya da ayda birkaç dolar karşılığında, birinin sesinin 30 saniyesini yükleyebilirler” diyor. Farid, bu saniyelerin bir sesli mesajdan, sosyal medya gönderisinden ya da gizli kayıttan gelebileceğini söyledi. Makine öğrenimi algoritmaları bir kişinin sesinin nasıl olduğunu yakalıyor ve klonlanmış konuşma daha sonra bir klavyede yazılan kelimelerden aynı seslendirme ile kolayca üretilebiliyor.

Son deepfake örneğinde neler yaşandı?

Son deepfake örneğine dönecek olursak, ABD Baltimore County’deki yetkililer, Pikesville Lisesi’nde spor direktörü olan Dazhon Darien’in Müdür Eric Eiswert’in sesini klonladığını söyledi. Polis, sahte kaydın ırkçı ve antisemitik yorumlar içerdiğini söyledi. Ses dosyası, sosyal medyada yayılmadan önce bazı öğretmenlerin gelen kutularında bir e-postada ortaya çıktı.

Polis, Eiswert’in Darien’in iş performansı ve okul fonlarının kötüye kullanıldığı iddialarıyla ilgili endişelerini dile getirmesinin ardından kaydın ortaya çıktığını söyledi. Yetkililer, sahte ses kaydının Eiswert’i izne çıkmaya zorladığını ve polisin evini koruduğunu söyledi. Okula öfkeli telefonlar yağarken, sosyal medyada da nefret dolu mesajlar birikti.

Dedektifler dışarıdan uzmanlardan kaydı analiz etmelerini istedi. Mahkeme kayıtlarına göre, uzmanlardan biri kaydın “yapay zekâ tarafından üretilen içeriğin izlerini taşıdığını ve sonradan insan tarafından düzenlendiğini” söyledi. Kayıtlara göre Berkeley profesörü Farid’in ikinci görüşü ise “birden fazla kaydın birbirine eklendiği” yönünde oldu.

Uzmanlar son dönemde bazı kişilerin ailelerden fidye parası almak için telefonda sözde kaçırılan çocukların seslerini klonladığını söylüyor. Bir başka yöntem ise acilen paraya ihtiyacı olan bir şirketin genel müdürü gibi davranarak para istemek.

Tuzağa düşmemek için ne yapılabilir?

Öncelikle, kullanıcıların duydukları her ses klibine doğrululuğunu sorgulamadan körü körüne inanmamaları gerekiyor. Bununla birlikte şirketler de yapay zekânın kötüye kullanımını engellemek için somut adımlar atmalı.

Yapay zekâ ses üretme teknolojisi sağlayıcılarının çoğu, araçlarının deepfake gibi zararlı kullanımlarını yasakladıklarını söylüyor. Ancak kendi kendine uygulama değişkenlik gösteriyor. Bazı tedarikçiler bir tür ses imzası gerektiriyor ya da bir sesin klonlanabilmesi için kullanıcılardan benzersiz bir dizi cümle kurmalarını istiyor.

Facebook’un ana şirketi Meta ve ChatGPT üreticisi OpenAI gibi daha büyük teknoloji şirketleri, kötüye kullanım riskleri nedeniyle yalnızca küçük bir grup güvenilir kullanıcının teknolojiyi denemesine izin veriyor.

Siz bu konu hakkında ne düşünüyorsunuz? Görüşlerinizi yorumlarda paylaşın!

SON VİDEO

TÜMÜ
00:12:09

CEVAP VER

Lütfen yorumunuzu giriniz!
Lütfen isminizi buraya giriniz

İlginizi çekebilir