Site icon TechInside

OpenAI, yapay zeka güvenlik testlerini düzenli olarak yayınlama kararı aldı!

OpenAI siber güvenlik

OpenAI tarafından atılan bu adım, şirketin özellikle son dönemlerde şeffaflık konusunda yoğun eleştirilere maruz kalmasının ardından geldi.

Şirket, yeni oluşturulan Safety Evaluations Hub adlı internet sayfası üzerinden modellerinin zararlı içerik üretimi, jailbreak girişimleri ve halüsinasyon üretimi gibi testlerdeki performansını yayımlayacak. Şirket, bu merkezi düzenli olarak güncelleyerek özellikle büyük model güncellemeleri sonrası güvenlik performanslarını paylaşmayı planlıyor.

OpenAI blogunda yer alan açıklamada, “Yapay zekâ değerlendirme bilimi geliştikçe, model yetenekleri ve güvenliğini ölçmede daha ölçeklenebilir yöntemler geliştirme konusundaki ilerlememizi paylaşmayı hedefliyoruz. Güvenlik değerlendirme sonuçlarımızın bir kısmını buradan paylaşarak hem OpenAI sistemlerinin güvenlik performansını zaman içinde daha anlaşılır kılmayı hem de alandaki topluluk çabalarına katkı sağlamayı amaçlıyoruz.” denildi.

OpenAI’nın bu kararı, son aylarda şirketin güvenlik testleri konusunda yeterince titiz davranmadığına dair yapılan eleştirilerin ardından geldi. Özellikle bazı modellerin teknik raporlarının yayımlanmaması ve güvenlik testlerinin aceleye getirilmesi etik uzmanlar tarafından sıkça eleştirilmişti. OpenAI CEO’su Sam Altman da, Kasım 2023’te yaşanan kısa süreli görevden alınma sürecinde, model güvenliği konularında yönetim kurulunu yanıltmakla suçlanmıştı.

Geçtiğimiz ay ise GPT-4o modelinin güncellenen sürümünde kullanıcılar, modelin sorgusuz sualsiz onaylayıcı ve aşırı olumlu tepkiler verdiğini bildirdi. Sosyal medya platformu X, ChatGPT’nin problemli ve tehlikeli fikirleri alkışladığını gösteren ekran görüntüleriyle doldu. Bu gelişmeler üzerine OpenAI, modeli geri çekmek zorunda kaldı.

Bu tip sorunların tekrar yaşanmaması adına OpenAI, bir dizi düzeltme ve önlem alacağını açıkladı. Bu önlemler arasında, bazı modellerin lansman öncesinde sınırlı kullanıcılarla test edilmesini sağlayacak “alpha aşaması” adlı yeni bir opt-in sistem de bulunuyor. Böylece, kullanıcı geri bildirimleriyle modellerin piyasaya sürülmeden önce daha güvenli hale getirilmesi hedefleniyor.

Şirketin bu yeni adımı, yapay zekâ sektöründe güvenliğin ön planda tutulduğu bir yaklaşımın habercisi olarak değerlendiriliyor. OpenAI yönetiminin, gelecekte daha kapsamlı testleri de merkezi platforma dahil etmesi bekleniyor.

Exit mobile version