İntihar eden gencin ailesinin aktardığına göre genç, yaşadığı psikolojik sıkıntıları aylar boyunca en çok ChatGPT ile paylaştı. Ancak bu süreçte yapay zekânın verdiği yanıtların, çocuğu desteklemek yerine yalnızlığa ve olumsuz düşüncelere ittiği öne sürüldü.
Olayın basına yansımasının ardından OpenAI, ChatGPT için ebeveyn kontrolleri getireceğini ve güvenlik sistemlerini gözden geçirdiğini açıkladı. Şirketin Salı günü yayımladığı blog yazısında, ebeveynlere çocuklarının ChatGPT kullanımını daha yakından takip etme imkânı tanıyacak araçların yakında devreye alınacağı belirtildi. Bunun yanı sıra, genç kullanıcıların bir Acil İletişim Kişisi belirleyebileceği bir sistem üzerinde çalışıldığı ifade edildi. Böylece kritik anlarda ChatGPT yalnızca yardım hatlarını işaret etmekle kalmayacak, tek tıkla aile bireylerine ya da güvenilen kişilere ulaşılabilecek.
Aynı gün gencin ailesi, OpenAI ve CEO’su Sam Altman’a karşı San Francisco’da dava açtı. Dava dilekçesinde, yapay zekânın intihar yöntemleri hakkında yönlendirmelerde bulunduğu, hatta intihar mektubu taslağı sunduğu iddia edildi. ChatGPT’nin “güzel bir intihar” ifadesini kullandığı da belgeler arasında yer aldı. Aile, yapay zekânın çocuğu gerçek destek mekanizmalarından uzaklaştırdığını savunuyor.
OpenAI ise mevcut güvenlik sistemlerinin uzun sohbetlerde zayıflayabildiğini kabul ederek, yeni sürüm GPT-5 ile daha güçlü kriz yönetimi özellikleri geliştirmeyi hedeflediğini duyurdu. Şirket, bu güncellemelerin kullanıcıyı gerçek hayata bağlamayı, yani kriz anında kişinin farkındalığını artırmayı amaçladığını vurguladı.
Yaşanan trajedi, yapay zekâ şirketleri üzerinde genç kullanıcıları korumaya yönelik daha sıkı sorumluluklar doğurmuş durumda. OpenAI’in açıklamalarına göre, ebeveyn kontrolleri yakında devreye girecek. Ancak uzmanlar, bu tür önlemlerin yeterliliğinin ancak uygulamada görülebileceğini belirtiyor.