Techinside Google News
Techinside Google News

Yapay zeka laboratuvarları güvenlik incelemesini geçmek zorunda

Bir grup araştırmacıya göre, yapay zeka laboratuvarları güvenlik incelemesine alınmalı. ABD hükümetiyle sözleşme imzalayabilmek için güvenlik incelemesinden geçmek zorunda hale gelmeliler.
- Advertisement -

Beyaz Saray, karmaşık siber saldırıları daha kolay ve hızlı bir şekilde gerçekleştirmeyi sağlayabilecek ve ulusal güvenlik riskleri oluşturabilecek Anthropic’in Mythos’unun sonuçlarıyla boğuşuyor.

Yapay zeka laboratuvarları güvenlik için şeffaf hale gelmek zorunda kalıyor

Americans for Responsible Innovation isimli bir grup, Trump yönetimini büyük geliştiricilerden gelen yeni nesil modelleri siber saldırı ve silah geliştirme yetenekleri açısından incelemek için yöntemler geliştirmeye çağırdı. Grup, yönetim yetkililerine yazdığı bir mektupta, şirketlerin devlet sözleşmelerine hak kazanmak için incelemeden geçmek zorunda kalması gerektiğini söyledi.

ABD Yapay Zeka Standartları ve İnovasyon Merkezi, OpenAI, Anthropic ve daha yakın zamanda Google, Microsoft ve xAI ile gönüllü anlaşmalar yoluyla bazı yapay zeka modellerini zaten inceliyor. CAISI, zorunlu gerekliliklerin geliştirilmesinde öncülük etmeli ve Kongre, bu gereklilikleri uygulamak için ABD Ticaret Bakanlığı bünyesinde kalıcı bir uygulama ofisi oluşturmalıdır, diye belirtti.

Önerilen gereklilikler, öncü modelleri eğitmek için yılda 100 milyon dolar veya daha fazla bilgi işlem harcaması yapan veya yapay zeka ürün ve hizmetlerinden yılda en az 500 milyon dolar gelir elde eden şirketler için geçerli olacaktır. Kaliforniya’da da geçen yıl yürürlüğe giren benzer bir güvenlik raporlama gerekliliği eşiği bulunmaktadır.

Siz bu konu hakkında ne düşünüyorsunuz? Görüşlerinizi yorumlarda paylaşın!

 

 

HABERLER

TÜMÜ

SON VİDEO

TÜMÜ

CEVAP VER

Lütfen yorumunuzu giriniz!
Lütfen isminizi buraya giriniz