Oxford Üniversitesi’ndeki Oxford Martin Etik Web ve Veri Mimarileri Programı’ndan (EWADA) araştırmacılar, çocuklar için yapay zekanın geliştirilmesi ve yönetilmesinde etik ilkelerin yerleştirilmesinde daha düşünülmüş bir yaklaşım çağrısında bulundu.
Nature Machine Intelligence dergisinde yayınlanan bir perspektif makalesinde yazarlar, üst düzey yapay zeka etik ilkelerinin nasıl olması gerektiği konusunda giderek artan bir fikir birliği olmasına rağmen, bunların prensipte çocuklar için etkili bir şekilde nasıl uygulanacağı konusunda çok az şeyin bilindiğini vurguluyor. Çalışma, yapay zekaya yönelik mevcut etik kuralların küresel görünümünü haritalandırdı ve bu ilkelerin çocukların yararına uyarlanmasındaki dört ana zorluğu belirledi.
Yapay zeka etiği çocuklar için daha iyi hale getirilmeli
- Çocukluğun gelişimsel yönünün, özellikle de çocukların karmaşık ve bireysel ihtiyaçlarının, yaş aralıklarının, gelişim aşamalarının, geçmişlerinin ve karakterlerinin dikkate alınmaması.
- Çocuklukta velilerin (örneğin ebeveynler) rolünün asgari düzeyde dikkate alınması. Örneğin, dijital dünyanın ebeveynlerin bu geleneksel rolünü yansıtması gerektiğinde, ebeveynler genellikle çocuklara göre daha üstün deneyime sahip olarak tasvir edilir.
- Çocukların çıkarlarını ve haklarını göz önünde bulunduran çocuk merkezli değerlendirmelerin sayısı çok az. Yapay zeka sistemlerinde güvenlik ve koruma gibi konuların değerlendirilmesinde niceliksel değerlendirmeler normdur, ancak çocukların gelişimsel ihtiyaçları ve uzun vadeli refahı gibi faktörler dikkate alındığında bunlar yetersiz kalma eğiliminde.
Etkili uygulama değişiklikleri gerçekleştirmek için gerekli olan, çocuklara yönelik etik yapay zeka ilkelerinin formüle edilmesine yönelik koordineli, sektörler arası ve disiplinler arası bir yaklaşımın bulunmaması.
Araştırmacılar ayrıca bu zorlukları tanımlarken gerçek hayattaki örneklerden ve deneyimlerden de yararlandılar. Yapay zeka, genellikle uygunsuz çevrimiçi içeriği tespit ederek çocukları güvende tutmak için kullanılmasına rağmen, Büyük Dil Modelleri (LLM’ler) tarafından desteklenenler de dahil olmak üzere koruma ilkelerini yapay zeka yeniliklerine dahil etme girişiminde eksiklik olduğunu buldu. Bu tür bir entegrasyon, çocukların etnik köken gibi faktörlere dayalı önyargılı içeriğe veya özellikle savunmasız gruplara yönelik zararlı içeriğe maruz kalmasını önlemek için çok önemlidir ve bu tür yöntemlerin değerlendirilmesi, doğruluk veya kesinlik gibi salt niceliksel ölçümlerin ötesine geçmeli. Araştırmacılar, Bristol Üniversitesi ile olan ortaklıkları aracılığıyla, DEHB’li çocuklara yardımcı olacak araçlar tasarlıyor.