Techinside Google News
Techinside Google News

Fotoğraflarınızı yapay zekanın eline düşmekten koruyun!

PhotoGuard, bir görüntüdeki seçili pikselleri, yapay zekanın görüntünün ne olduğunu anlama yeteneğini bozacak şekilde değiştiriyor

Dall-E ve Stable Difusion sadece başlangıçtı. Üretken yapay zeka sistemleri çoğaldıkça ve şirketler tekliflerini rakiplerinden farklı kılmak için çalıştıkça, internetteki sohbet robotları, Shutterstock ve Adobe gibilerinin öncülük etmesiyle görselleri düzenlemenin yanı sıra onları oluşturma gücü kazanıyor. Ancak yapay zeka destekli bu yeni yetenekler, mevcut çevrimiçi çizimlerin ve görsellerin izinsiz olarak değiştirilmesi veya doğrudan çalınması gibi tanıdık tuzakları beraberinde getiriyor. Filigran teknikleri, ikincisini hafifletmeye yardımcı olabilirken, MIT CSAIL tarafından geliştirilen yeni “PhotoGuard” tekniği, ilk tehlikeyi önlemeye yardımcı oluyor.

PhotoGuard, bir görüntüdeki seçili pikselleri, yapay zekanın görüntünün ne olduğunu anlama yeteneğini bozacak şekilde değiştirerek çalışır. Araştırma ekibinin atıfta bulunduğu şekliyle bu “tedirginlikler” insan gözüyle görülemez ancak makineler tarafından kolayca okunabilir. Bu yapıları ortaya çıkaran “kodlayıcı” saldırı yöntemi, algoritmik modelin hedefteki kişinin görüntüsünün gizli temsilini hedefler esasen yapay zekanın neye baktığını anlamasını engelliyor.

- Advertisement -

Daha gelişmiş ve hesaplama açısından yoğun olan “difüzyon” saldırı yöntemi, bir görüntüyü yapay zekanın gözünde farklı bir görüntü olarak kamufle eder. Bir hedef görüntü tanımlayacak ve hedefine benzeyecek şekilde görüntüsündeki pertürbasyonları optimize ediyor. Bir yapay zekanın bu “bağışıklı” görüntüler üzerinde yapmaya çalıştığı herhangi bir düzenleme, sahte “hedef” görüntülere uygulanarak gerçekçi olmayan bir görüntü oluşmasına sebebiyet veriyor.

MIT doktora öğrencisi ve makalenin başyazarı Hadi Salman, yaptığı bir röportajda  “Kodlayıcı saldırısı, modelin giriş görüntüsünün başka bir görüntü olduğunu düşünmesine neden oluyor,” dedi. “Oysa difüzyon saldırısı, difüzyon modelini bazı hedef görüntülere yönelik düzenlemeler yapmaya zorluyor.” .

“Model geliştiricileri, sosyal medya platformları ve politika yapıcıları içeren işbirlikçi bir yaklaşım, yetkisiz görüntü manipülasyonuna karşı güçlü bir savunma sunuyor. Salman yaptığı açıklamada, bu acil konu üzerinde çalışmak bugün büyük önem taşıyor” dedi. “Bu çözüme katkıda bulunmaktan memnuniyet duysam da, bu korumayı pratik hale getirmek için çok çalışman gerekiyor. Bu modelleri geliştiren şirketlerin, bu yapay zeka araçlarının yol açtığı olası tehditlere karşı sağlam bağışıklamalar tasarlamaya yatırım yapması gerek.”

Siz bu konu hakkında ne düşünüyorsunuz? Görüşlerinizi yorumlarda paylaşın!

SON VİDEO

TÜMÜ

CEVAP VER

Lütfen yorumunuzu giriniz!
Lütfen isminizi buraya giriniz

İlginizi çekebilir