Techinside Google News
Techinside Google News

Sanatçılar, üretken yapay zekadan intikam almak için “veri zehirlenmesi” kullanıyor!

Bir iş sunumu için bir balon görüntüsüne ihtiyacınız olduğunu hayal edin ve uygun bir görüntü oluşturmak için Midjourney veya DALL-E gibi bir yapay zeka metin-görüntü oluşturucusuna başvurmanız gerekiyor.
- Advertisement -

Mavi gökyüzüne karşı kırmızı balon” komutunu girersiniz ancak yapay zeka aracı bunun yerine bir yumurta görüntüsü döndürüyor. Tekrar deniyorsunuz ama bu sefer araç bir karpuz resmi gösteriyor.

Böyle bir toplayla karşı karşıyaysanız, kullandığınız yapay zeka aracı “zehirlenmiş” olabilir.

‘Veri zehirlenmesi’ nedir?

Metinden görüntüye oluşturucular, milyonlarca veya milyarlarca görüntü içeren büyük veri kümeleri üzerinde eğitilerek çalışıyor.

Adobe veya Getty tarafından sunulanlar gibi bazı oluşturucular, yalnızca oluşturucunun üreticisinin sahip olduğu veya kullanma lisansının olduğu görüntülerle eğitilir.

Ancak diğer oluşturucular, çoğu telif hakkı kapsamında olabilecek çevrimiçi görselleri ayrım gözetmeksizin toplayarak eğitildi. Bu, sanatçıların büyük teknoloji şirketlerini eserlerinden hırsızlık yapmak ve kâr elde etmekle suçladığı çok sayıda telif hakkı ihlali vakasına yol açtı.

Burası aynı zamanda “zehir” fikrinin de devreye girdiği yer. Bireysel sanatçıları güçlendirmek isteyen araştırmacılar, yakın zamanda izinsiz görüntü kazımalarına karşı mücadele etmek için “Nightshade” adlı bir araç geliştirdiler.

Araç, bir görüntünün piksellerini, bilgisayar görüşüne zarar verecek şekilde ustaca değiştirerek çalışıyor; ancak, görüntüyü bir insanın gözüne değişmeden bırakıyor.

Bir kuruluş daha sonra gelecekteki bir yapay zeka modelini eğitmek için bu görüntülerden birini kazırsa veri havuzu “zehirlenir“. Sonuç olarak araç, öngörülemeyen ve istenmeyen sonuçlar vermeye başlayabilir.

Zehirlenme belirtileri

Daha önceki örneğimizde olduğu gibi balon yumurtaya dönüşebilir. Monet tarzında bir görsele yönelik talep, bunun yerine Picasso tarzında bir görselle sonuçlanabilir.

Örneğin, ellerin doğru şekilde işlenmesinde yaşanan sorunlar gibi önceki yapay zeka modellerinde yaşanan bazı sorunlar geri dönebilir. Modeller ayrıca görüntülere başka tuhaf ve mantıksız özellikler de katabilir; altı bacaklı köpekleri veya deforme olmuş koltukları düşünün.

Eğitim verilerindeki “zehirli” görüntülerin sayısı ne kadar yüksek olursa, bozulma da o kadar büyük olur. Üretken yapay zekanın çalışma şekli nedeniyle “zehirli” görsellerden kaynaklanan hasar, ilgili bilgi istemi anahtar kelimelerini de etkiler.

Örneğin, eğitim verilerinde bir Ferrari’nin “zehirli” görseli kullanılırsa, diğer otomobil markalarına ve araç ve otomobil gibi diğer ilgili terimlere ilişkin anlık sonuçlar da etkilenebilir.

Nightshade’in geliştiricisi, aracın büyük teknoloji şirketlerini telif haklarına daha saygılı hale getireceğini umuyor, ancak kullanıcıların aracı kötüye kullanması ve hizmetlerini bozmak için kasıtlı olarak “zehirli” görüntüleri araca yüklemesi de mümkün.

Bir panzehir var mı?

Buna yanıt olarak paydaşlar bir dizi teknolojik ve insani çözüm önerdiler. En bariz olanı, girdi verilerinin nereden geldiğine ve bunların nasıl kullanılabileceğine daha fazla dikkat etmek. Bunu yapmak, daha az gelişigüzel veri toplanmasıyla sonuçlanacak.

Bu yaklaşım, bilgisayar bilimcileri arasındaki ortak inanca meydan okuyor: Çevrimiçi olarak bulunan veriler, uygun gördükleri herhangi bir amaç için kullanılabilir.

Diğer teknolojik düzeltmeler arasında, farklı modellerin birçok farklı veri alt kümesi üzerinde eğitildiği ve belirli aykırı değerleri bulmak için karşılaştırıldığı “topluluk modellemenin” kullanımı da yer alıyor. Bu yaklaşım yalnızca eğitim için değil aynı zamanda şüpheli “zehirli” görüntüleri tespit etmek ve atmak için de kullanılabilir.

Denetimler başka bir seçenek. Denetim yaklaşımlarından biri, eğitim için hiçbir zaman kullanılmayan “bekletme” verilerini kullanarak küçük, oldukça iyi seçilmiş ve iyi etiketlenmiş bir veri kümesi olan bir “test bataryası” geliştirmeyi içeriyor. Bu veri kümesi daha sonra modelin doğruluğunu incelemek için kullanılabilir.

Teknolojiye karşı stratejiler

Veri zehirlenmesi de dahil olmak üzere sözde “düşmanca yaklaşımlar” (AI sistemlerini bozan, inkar eden, aldatan veya manipüle eden yaklaşımlar) yeni bir şey değil. Ayrıca tarihsel olarak yüz tanıma sistemlerini atlatmak için makyaj ve kostüm kullanmayı da içeriyor.

Örneğin insan hakları aktivistleri, bir süredir makine görüşünün daha geniş toplumda ayrım gözetmeksizin kullanılmasından endişe duyuyorlar. Bu endişe, özellikle de yüz tanıma konusunda artış gösteriyor.

İnternetten alınan, aranabilir yüzlerden oluşan devasa bir veritabanını barındıran Clearview AI gibi sistemler, dünya çapında kolluk kuvvetleri ve devlet kurumları tarafından kullanılıyor. 2021’de Avustralya hükümeti Clearview AI‘in Avustralyalıların mahremiyetini ihlal ettiğini belirledi.

Meşru protestocular da dahil olmak üzere belirli kişilerin profilini çıkarmak için kullanılan yüz tanıma sistemlerine yanıt olarak sanatçılar, gözetleme sistemlerinin onları doğru bir şekilde tanımlamasını engelleyen pürüzlü çizgiler ve asimetrik eğrilerden oluşan düşmanca makyaj modelleri tasarladılar.

Her ikisi de teknolojik yönetişimle ilgili daha büyük sorularla ilgili olduğundan, bu vakalarla veri zehirlenmesi sorunu arasında açık bir bağlantı var.

Pek çok teknoloji satıcısı, veri zehirlenmesini teknolojik çözümlerle çözülmesi gereken sinir bozucu bir sorun olarak değerlendirebilir. Ancak veri zehirlenmesini, sanatçıların ve kullanıcıların temel ahlaki haklarına yapılan müdahaleye yenilikçi bir çözüm olarak görmek daha doğru olabilir.

Siz bu konu hakkında ne düşünüyorsunuz? Görüşlerinizi yorumlarda paylaşın!

 

 

HABERLER

TÜMÜ

SON VİDEO

TÜMÜ
00:06:01

CEVAP VER

Lütfen yorumunuzu giriniz!
Lütfen isminizi buraya giriniz