Techinside Google News
Techinside Google News

Anthropic seçim güvenliği için harekete geçti!

2024 ABD başkanlık seçimleri öncesinde, iyi finanse edilen yapay zeka girişimi Anthropic, GenAI sohbet robotunun kullanıcılarının siyasi konular hakkında soru sorduğunu tespit edecek ve bu kullanıcıları oylama bilgilerinin "yetkili" kaynaklarına yönlendirecek bir teknolojiyi test ediyor.

Yapay zeka algılama modelleri ve kurallarının bir kombinasyonuna dayanan Prompt Shield adı verilen teknoloji, Anthropic bünyesindeki sohbet robotu Claude’un ABD merkezli bir kullanıcısı oylama bilgisi istediğinde bir açılır pencere gösteriyor.

Açılır pencere, kullanıcıyı partizan olmayan Democracy Works örgütünün bir kaynağı olan ve güncel, doğru oylama bilgilerini bulabilecekleri TurboVote’a yönlendirmeyi teklif ediyor.

- Advertisement -

Anthropic, Prompt Shield’ın Claude’un siyaset ve seçimle ilgili bilgi alanındaki eksiklikleri nedeniyle gerekli olduğunu söylüyor. Anthropic, Claude’un belirli seçimler hakkında gerçek zamanlı bilgi sağlayacak kadar sık ​​eğitim almadığını ve dolayısıyla bu seçimler hakkında halüsinasyon görmeye (yani gerçekleri uydurmaya) eğilimli olduğunu kabul ediyor.

Bir sözcü şunları söyledi: “Claude’u piyasaya sürdüğümüzden beri ‘acil kalkanımız’ var; bu, kabul edilebilir kullanıcı politikamıza dayalı olarak bir dizi farklı zarar türünü işaretliyor.” “Seçime özel acil kalkan müdahalemizi önümüzdeki haftalarda başlatacağız ve kullanımı ve sınırlamaları izlemeyi amaçlıyoruz… Politika yapıcılar, diğer şirketler, sivil toplum ve sivil toplum kuruluşları ve seçime özel kuruluşlar da dahil olmak üzere çeşitli paydaşlarla konuştuk.

Şu anda sınırlı bir test gibi görünüyor. Claude yaklaşan seçimlerde nasıl oy kullanılacağını sorduğumda açılır pencereyi sunmadı, bunun yerine genel bir oylama kılavuzu verdi. Anthropic, Prompt Shield’ı daha fazla kullanıcıya genişletmeye hazırlanırken ince ayar yaptığını iddia ediyor.

Araçlarının siyasi kampanya ve lobi faaliyetlerinde kullanılmasını yasaklayan Anthropic, seçim müdahalesini önlemeye yönelik politikalar ve teknolojiler uygulayan en son GenAI tedarikçisi.

Zamanlama tesadüf değil. Dünyadaki nüfusun yaklaşık %49’unu temsil eden en az 64 ülkede ulusal seçim yapılması planlandığından, bu yıl küresel olarak tarihte her zamankinden daha fazla seçmen sandık başına gidecek.

Ocak ayında OpenAI, insanların gerçek adayları veya hükümetleri taklit eden, oy vermenin işleyişini yanlış anlatan veya insanları oy vermekten caydıran botlar oluşturmak için viral AI destekli sohbet robotu ChatGPT’yi kullanmasını yasaklayacağını söyledi. Anthropic gibi OpenAI de şu anda kullanıcıların araçlarını siyasi kampanya veya lobicilik amacıyla kullanarak uygulama geliştirmelerine izin vermiyor; bu, şirketin geçen ay yinelediği bir politika.

OpenAI, Prompt Shield’a benzer bir teknik yaklaşımla; Ulusal Dışişleri Bakanları Birliği tarafından idare edilen, partizan olmayan bir web sitesi olan CanIVote.orga oy verme konusunda lojistik sorular soran ChatGPT kullanıcılarını yönlendirmek için tespit sistemleri de kullanıyor.

ABD’de Kongre, her iki partinin de desteğine rağmen yapay zeka endüstrisinin siyasetteki rolünü düzenlemeye yönelik bir yasayı henüz geçirmedi. Bu arada, ABD eyaletlerinin üçte birinden fazlası, federal mevzuatın durması nedeniyle siyasi kampanyalarda deepfake’leri ele almak için yasa tasarılarını kabul etti veya sundu.

Mevzuat yerine, gözlemcilerin ve düzenleyicilerin baskısı altındaki bazı platformlar, GenAI’in seçmenleri yanıltmak veya manipüle etmek için kötüye kullanılmasını engellemek için adımlar atıyor.

Google, geçen Eylül ayında, YouTube’da ve Google Arama gibi diğer platformlarında GenAI kullanan siyasi reklamların, görüntülerin veya seslerin sentetik olarak değiştirilmesi durumunda belirgin bir açıklamanın eşlik etmesi gerektiğini belirtmişti. 

Ayrıca Meta da siyasi kampanyaların, kendi mülkleri genelinde reklam yaparken GenAI araçlarını (kendi aracı da dahil) kullanmasını da yasakladı.

Siz bu konu hakkında ne düşünüyorsunuz? Görüşlerinizi yorumlarda paylaşın!

SON VİDEO

TÜMÜ

CEVAP VER

Lütfen yorumunuzu giriniz!
Lütfen isminizi buraya giriniz

İlginizi çekebilir