OpenAI, yeni modellerin ‘yüksek’ siber güvenlik riski oluşturduğu konusunda uyardı. OpenAI, yaptığı açıklamada hızla gelişen yetenekleri nedeniyle yakında piyasaya sürülecek yapay zeka modellerinin “yüksek” bir siber güvenlik riski oluşturabileceği konusunda uyardı.
OpenAI yeni modeller için uyarıyor
ChatGPT üreticisi, bir blog yazısında, yapay zeka modellerinin ya iyi korunan sistemlere karşı çalışan sıfır gün uzaktan saldırıları geliştirebileceğini ya da gerçek dünya etkilerini hedefleyen karmaşık kurumsal veya endüstriyel sızma operasyonlarına yardımcı olabileceğini belirtti.
Yetenekler geliştikçe OpenAI: “savunma amaçlı siber güvenlik görevleri için modelleri güçlendirmeye ve savunmacıların kod denetimi ve güvenlik açıklarını yamalama gibi iş akışlarını daha kolay gerçekleştirmelerini sağlayan araçlar oluşturmaya yatırım yaptığını” söyledi.
Siber güvenlik risklerine karşı koymak için OpenAI, erişim kontrolleri, altyapı güçlendirme, çıkış kontrolleri ve izlemenin bir karışımına güvendiğini belirtti. Microsoft destekli şirket, yakında siber savunma üzerinde çalışan nitelikli kullanıcılara ve müşterilere gelişmiş yeteneklere kademeli erişim sağlamayı araştıracak bir program başlatacağını söyledi.
OpenAI ayrıca, deneyimli siber savunmacıları ve güvenlik uzmanlarını ekipleriyle yakın işbirliğine getirecek olan Sınır Risk Konseyi adlı bir danışma grubu da kuracak. Grup, başlangıçta siber güvenliğe odaklanacak ve gelecekte diğer sınır yetenek alanlarına da genişleyecektir.









