Beyaz Saray, karmaşık siber saldırıları daha kolay ve hızlı bir şekilde gerçekleştirmeyi sağlayabilecek ve ulusal güvenlik riskleri oluşturabilecek Anthropic’in Mythos’unun sonuçlarıyla boğuşuyor.
Yapay zeka laboratuvarları güvenlik için şeffaf hale gelmek zorunda kalıyor
Americans for Responsible Innovation isimli bir grup, Trump yönetimini büyük geliştiricilerden gelen yeni nesil modelleri siber saldırı ve silah geliştirme yetenekleri açısından incelemek için yöntemler geliştirmeye çağırdı. Grup, yönetim yetkililerine yazdığı bir mektupta, şirketlerin devlet sözleşmelerine hak kazanmak için incelemeden geçmek zorunda kalması gerektiğini söyledi.
ABD Yapay Zeka Standartları ve İnovasyon Merkezi, OpenAI, Anthropic ve daha yakın zamanda Google, Microsoft ve xAI ile gönüllü anlaşmalar yoluyla bazı yapay zeka modellerini zaten inceliyor. CAISI, zorunlu gerekliliklerin geliştirilmesinde öncülük etmeli ve Kongre, bu gereklilikleri uygulamak için ABD Ticaret Bakanlığı bünyesinde kalıcı bir uygulama ofisi oluşturmalıdır, diye belirtti.
Önerilen gereklilikler, öncü modelleri eğitmek için yılda 100 milyon dolar veya daha fazla bilgi işlem harcaması yapan veya yapay zeka ürün ve hizmetlerinden yılda en az 500 milyon dolar gelir elde eden şirketler için geçerli olacaktır. Kaliforniya’da da geçen yıl yürürlüğe giren benzer bir güvenlik raporlama gerekliliği eşiği bulunmaktadır.









