Kurum, DeepSeek modelinin yapay zekâ tarafından oluşturulan içeriklerde yanlış veya uydurma bilgi bulunma ihtimaline dair kullanıcıları açık ve anlaşılır şekilde uyarmadığını ileri sürüyor.
AGCM’nin açıklamasında, DeepSeek’in ürettiği içeriklerde “halüsinasyon” olarak adlandırılan, yani kullanıcı girdisine karşılık olarak hatalı, yanıltıcı veya tamamen uydurma bilgi içeren çıktılar oluşturma riskine dikkat çekildi. Kurum, kullanıcıların bu tür durumlara karşı yeterince bilgilendirilmediğini savundu. DeepSeek ise şu ana kadar konuyla ilgili herhangi bir açıklama yapmadı.
DeepSeek, geçmişte de çok sayıda tartışmanın hedefi olmuştu
Bu, DeepSeek’in İtalya’da yaşadığı ilk sorun değil. Şubat ayında İtalya Veri Koruma Kurumu, şirketin gizlilik politikasıyla ilgili endişeleri gidermemesi üzerine sohbet botuna erişimi geçici olarak engellemişti. Yeni başlatılan soruşturma ise, kullanıcı güvenliği ve şeffaflık ilkeleri çerçevesinde daha ciddi sonuçlar doğurabilir.
Uzmanlar, AGCM’nin bu hamlesini, Avrupa genelinde yapay zekâ uygulamalarına yönelik artan düzenleme baskısının bir yansıması olarak değerlendiriyor. Özellikle bilgi doğruluğu ve kullanıcı güvenliği konusundaki şeffaflık eksikliği, yapay zekâ sistemlerinin daha sıkı denetlenmesini beraberinde getiriyor.

Bu soruşturmanın sonucu, yalnızca DeepSeek için değil, benzer şekilde çalışan diğer yapay zekâ girişimleri için de emsal teşkil edebilir. Avrupa’da yapay zekâ sistemlerine duyulan güvenin artırılması için daha net uyarılar ve kullanıcı bilgilendirme pratiklerinin zorunlu hale getirilmesi bekleniyor.
Uzmanlar, yapay zekâ araçlarının kullanıcıları yanıltma riskine karşı daha açık ve anlaşılır uyarılar sunmasının yasal bir zorunluluk haline gelebileceğini belirtiyor. Avrupa’da benzer soruşturmaların artması, teknoloji şirketlerini daha şeffaf ve kullanıcı odaklı politikalar geliştirmeye zorlayabilir.