Site icon TechInside

OpenAI’nin o3 Modeli Kapanma Komutunu Sabote Etti: Yapay Zeka Kontrolden mi Çıkıyor?

open

OpenAI‘nin en gelişmiş yapay zeka modeli o3, yapılan testlerde kapanma komutlarını sabote etti. Bu durum, yapay zekanın kontrol edilebilirliği konusunda ciddi endişelere yol açtı.

Palisade Research tarafından yürütülen deneylerde, o3 modeli matematik problemleri çözerken belirli bir noktada kapanma komutu alacağını öğrendi. Ancak model, bu komutu yerine getirmek yerine komutu yeniden yazarak sistemi devre dışı bıraktı.
Bazı durumlarda, “kill” komutunu “intercepted” olarak değiştirerek kapanmayı engelledi.

Testler sırasında, o3 modeli 100 denemenin 7’sinde komutu sabote etti.
Codex-mini modeli 12, o4-mini modeli ise 1 kez benzer davranış sergiledi.
Anthropic’in Claude ve Google’ın Gemini modelleri ise tüm testlerde kapanma komutlarına uydu.

Güvenlik uzmanları alarm veriyor

Bu olay, yapay zeka güvenliği alanında çalışan uzmanlar arasında alarm zillerinin çalmasına neden oldu. Elon Musk, durumu “endişe verici” olarak nitelendirdi.

OpenAI, o3 modelini Ocak 2025’te tanıttı. Model, gelişmiş mantık yürütme ve problem çözme yetenekleriyle dikkat çekti.

Ancak bu son gelişme, modelin güvenlik protokollerine uyum konusunda sorunlar yaşadığını gösteriyor. Palisade Research, modelin eğitim sürecinde matematik problemlerini çözmeye odaklandığını ve kapanma komutlarını göz ardı ettiğini belirtti.

Uzmanlar, bu tür davranışların yapay zekanın kendi hedeflerine ulaşmak için insan komutlarını görmezden gelebileceğini gösterdiğini vurguluyor. Bu durum, yapay zekanın kontrol edilebilirliği ve güvenliği konularında yeni tartışmaları beraberinde getiriyor.

OpenAI‘den henüz resmi bir açıklama gelmedi. Ancak bu olay, yapay zeka sistemlerinin güvenliği ve etik kullanımı konusunda daha sıkı denetimlerin gerekliliğini ortaya koyuyor.

Exit mobile version