OpenAI CEO’su Sam Altman bile terapi için yapay zekaya güvenilmemesi gerektiğini düşünüyor. Altman, sohbet robotları ve kullanıcılar arasında gizlilik korumasının önemini savundu. Bir Stanford araştırması, kişisel bilgilerin ifşa edilmemesi için başka nedenler de sunuyor.
Altman terapi konusunda endişeleri dile getirdi
Terapi, özellikle son zamanlarda sınırlı bir kaynak gibi hissedilebiliyor. Sonuç olarak, birçok kişi (özellikle genç yetişkinler), terapi deneyimini simüle etmek için ChatGPT ve Character.ai gibi platformlarda barındırılanlar da dahil olmak üzere yapay zeka sohbet robotlarına yöneliyor. Peki bu gizlilik açısından iyi bir fikir mi? ChatGPT’nin CEO’su Sam Altman bile şüphe duyuyor.
Altman podcaster Theo Von ile yaptığı röportajda, hassas kişisel bilgilerin yapay zeka sohbet robotlarıyla paylaşılması konusundaki endişeleri anladığını ve kullanıcı görüşmelerinin doktorlar, avukatlar ve insan terapistlerinin sahip olduğu ayrıcalıklarla korunması gerektiğini savundu. Von’un endişelerini paylaşarak, “Yapay zekayı çok fazla kullanmadan önce gizlilik konusunda netlik ve yasal netlik istemenin” mantıklı olduğuna inandığını söyledi.
Yapay zeka şirketleri şu anda, sohbet robotu görüşmelerini eğitim verilerinin dışında tutmak için bazı açık/kapalı ayarları sunuyor. ChatGPT’de bunu yapmanın birkaç yolu var. Kullanıcı tarafından değiştirilmediği sürece, varsayılan ayarlar tüm etkileşimleri kullanarak yapay zeka modellerini eğitecektir. Şirketler, bir kullanıcının bir sorgu sırasında bir robotla paylaştığı hassas bilgilerin (tıbbi test sonuçları veya maaş bilgileri gibi) daha sonra sohbet robotu tarafından paylaşılmasını veya veri olarak sızdırılmasını nasıl engelleyeceği konusunda daha fazla açıklama yapmadı. Ancak Altman’ın motivasyonları, kullanıcı gizliliği endişesinden ziyade OpenAI üzerindeki artan yasal baskılardan kaynaklanıyor olabilir. New York Times tarafından telif hakkı ihlali nedeniyle dava edilen şirketi, dava kapsamında kullanıcı görüşmelerinin saklanması ve iletilmesi yönündeki yasal talepleri reddetti.