OpenAI meraklı gözleri uzak tutmak için güvenlik önlemlerini sıkılaştırıyor. OpenAI’ın kurumsal casusluğa karşı koruma sağlamak için güvenlik operasyonlarını elden geçirdiği bildirildi. Financial Times’a göre şirket, Çinli startup DeepSeek’in Ocak ayında rakip bir model yayınlamasının ardından mevcut güvenlik önlemlerini hızlandırdı ve OpenAI, DeepSeek’in “damıtma” tekniklerini kullanarak modellerini uygunsuz şekilde kopyaladığını iddia etti.
OpenAI güvenlik odaklı kontrol yapıyor
Raporda, güçlendirilmiş güvenliğin, personelin hassas algoritmalara ve yeni ürünlere erişimini sınırlayan “bilgi çadırı” politikalarını içerdiği belirtildi. Örneğin, FT’ye göre, OpenAI’nin o1 modelinin geliştirilmesi sırasında, yalnızca projeye dahil edilen doğrulanmış ekip üyeleri, paylaşılan ofis alanlarında bunu tartışabiliyordu.
FT raporuna göre OpenAI artık çevrimdışı bilgisayarlarda tescilli teknolojiyi izole ediyor, ofis alanları için biyometrik erişim kontrolleri uyguluyor ve harici bağlantılar için açık onay gerektiren “varsayılan olarak reddet” internet politikasını sürdürüyor. Şirketin ayrıca veri merkezlerindeki fiziksel güvenliği artırdığı ve siber güvenlik personelini genişlettiği bildiriliyor.
Değişikliklerin, yabancı rakiplerin OpenAI’nin fikri mülkiyetini çalmaya çalışmasıyla ilgili daha geniş endişeleri yansıttığı söyleniyor. Ancak Amerikan AI şirketleri arasında devam eden kaçak avlanma savaşları ve CEO Sam Altman’ın yorumlarının giderek daha sık sızdırılması göz önüne alındığında, OpenAI iç güvenlik sorunlarını da ele almaya çalışıyor olabilir.
Altman daha önce Meta hakkında: “Meta kesinlikle birkaç harika insan aldı, ancak genel olarak, en iyi insanlarını alamadıklarını ve listelerinde oldukça aşağıya inmek zorunda kaldıklarını abartmak zor; çok uzun zamandır insan almaya çalışıyorlar ve buradan kaç kişiyi Baş Bilim İnsanı olmaya çalıştıklarını saymayı bıraktım” demişti.