Techinside Google News
Techinside Google News

Apple’ın çocuk güvenliği önlemleri ertelendi

Teknoloji devi çocukların dijital dünyadaki güvenliğini sağlamak ve cinsel istismara uğramasını önlemek için geliştirdiği güvenlik önlemlerini kullanıma almayı ertelediğini duyurdu.

Çocukları koruyalım ama diğer insanların mahremiyetine de saygı duyalım

Bu ertelemenin nedeni ise uygulamanın bazı yönlerden sert tepkiler alması oldu. Apple’ın amacı çocukların güvenliğini sağlamak olsa da, Child Sexual Abuse Material (CSAM) tespit aracı olarak tanımladığı yazılımın, tüm Apple kullanıcılarının iCloud hesaplarını otomatik olarak tarayıp burada depolanan fotoğrafları yapay zeka ile analiz etmesi ve fotoğrafların içinde çocukların cinsel istismarına dair görüntüler bulunup bulunmadığını kontrol etmesi, sivil toplum örgütleri tarafından mahremiyet endişeleri doğurdu. Zira yapay zekanın herkesin özel dosyalarını inceleyip listelemesi aynı zamanda herkesin özel hayatını fişleyecek kayıtların oluşması anlamına geliyor.

- Advertisement -

Apple yetkilileri, medyadan, araştırmacılardan, bilim insanlarından ve sivil toplum örgütlerinden gelen geri dönüşleri de dikkate alarak bu uygulamamızı erteleyerek, üzerinde daha fazla çalışma kararı aldık, diyerek durumu özetledi.

Apple bu yeni tespit aracını iOS 15, iPadOS 15, watchOS 8 ve macOS Monterey işletim sistemleriyle otomatik olarak devreye almayı planlıyordu. Ancak oluşan tepkiler sonrasında bu aracın sonraki güncellemelere kalacağı anlaşılıyor.

 

Siz bu konu hakkında ne düşünüyorsunuz? Görüşlerinizi yorumlarda paylaşın!

SON VİDEO

TÜMÜ

CEVAP VER

Lütfen yorumunuzu giriniz!
Lütfen isminizi buraya giriniz

İlginizi çekebilir