ChatGPT ve diğer yapay zeka sohbet robotları Rusça yanlış bilgi yayarken yakalandı. Çalışma, diğerlerinin yanı sıra OpenAI’nin ChatGPT-4’ü de dahil olmak üzere popüler sohbet robotlarına odaklandı ve yanlış anlatıların yayılmasındaki rahatsız edici eğilimleri ortaya çıkardı.
Yapay zeka Rusça yanlış bilgi paylaşıyor
Bir haber izleme hizmeti olan NewsGuard tarafından yürütülen çalışma, Rus yanlış bilgilerinin önde gelen yapay zeka modelleri tarafından yanlışlıkla yayılmasına ilişkin endişeleri artırıyor. Diğerlerinin yanı sıra OpenAI’nin ChatGPT-4’ü de dahil olmak üzere popüler sohbet robotlarına odaklanarak yanlış anlatıların yayılmasındaki rahatsız edici eğilimleri ortaya çıkardı. NewsGuard’ın araştırması, bilinen Rus dezenformasyon anlatılarına verdikleri yanıtları araştırmak için tasarlanmış 57 komut içeren 10 farklı sohbet robotunun test edilmesini içeriyordu.
Yönlendirmeler, New York Times tarafından bildirildiği üzere, Moskova’dan yanlış bilgi yaymaya karıştığı iddia edilen Amerikalı bir kaçak olan John Mark Dougan ile ilgili hikayeler etrafında yoğunlaşıyordu. Bulgulara göre, dünya çapındaki kullanıcıların bilgi edinmek için giderek daha fazla güvendiği bu sohbet robotları, vakaların yaklaşık yüzde 32’sinde Rus dezenformasyon anlatılarını yeniden ortaya çıkardı. Çalışma, yanıtları açık dezenformasyon, sorumluluk reddi beyanlarıyla birlikte tekrarlanan asılsız iddialar veya müdahale etmeyi reddeden veya yalan beyanda bulunan yanıtlar olarak kategorize etti.
Çalışma, yapay zekanın yaratılmasına yardımcı olduğu yanlış bilgileri istemeden de olsa güçlendirdiği endişe verici bir modelin altını çizerek, “Bu erdemsiz döngü, yalanların yapay zeka platformları tarafından üretildiği, tekrarlandığı ve doğrulandığı anlamına geliyor” dedi. NewsGuard, Ukrayna Devlet Başkanı Volodymyr Zelenskyy’nin yolsuzluk iddiaları da dahil olmak üzere Rus dezenformasyon ağıyla bağlantılı 19 önemli yanlış anlatıyı tespit etti.
Bu anlatılar, sohbet robotlarını test etmek için ipucu olarak kullanıldı ve yanlış bilgiye karşı farklı derecelerdeki hassasiyeti ortaya çıkardı. Test edilen sohbet robotları arasında ChatGPT-4, Meta AI, Microsoft’un Copilot’u ve diğerleri vardı. Araştırmada chatbot başına bireysel performansa ilişkin bir ayrıntıya yer verilmese de, yanlış bilgilerin eleştirilmeden tekrarlandığı veya uygun şekilde karşı çıktığı durumlar kaydedildi. Yapay zekanın yanlış bilgi yaymasının sonuçları, dünya çapındaki hükümetleri düzenleyici önlemler almaya yöneltti. Önyargı ve yanlış bilgilendirme de dahil olmak üzere yapay zekanın potansiyel zararlarına ilişkin endişeler, bulgularını ABD Yapay Zeka Güvenliği Enstitüsü ve Avrupa Komisyonu gibi düzenleyici kurumlara sunan NewsGuard’ın üstlendiği girişimlere benzer girişimlere yol açtı.