Site icon TechInside

OpenAI, AB’nin çıkaracağı yapay zeka yönetmeliğinden istediğini aldı

OpenAI açık kaynak

OpenAI CEO’su Sam Altman geçen ayı dünya başkentlerini gezerek geçirdi; burada yaptığı görüşmelerde ve hükümet başkanlarıyla yaptığı toplantılarda defalarca küresel AI düzenlemesine duyulan ihtiyaçtan bahsetti.

Ancak OpenAI ‘in AB ile angajmanı hakkındaki belgelere göre, perde arkasında OpenAI , dünyadaki en kapsamlı AI mevzuatının önemli unsurlarının şirket üzerindeki düzenleme yükünü azaltacak şekilde seyreltilmesi, rahatlatılması için kulis çalışması yaptı.

OpenAI Avrupa operasyonlarını sonlandırmayacak

Bazı durumlarda OpenAI, 14 Haziran’da Avrupa Parlamentosu tarafından onaylanan ve şimdi Ocak ayında kesinleşmeden önce nihai müzakere turuna geçecek olan AB yasasının nihai metninde daha sonra yapılan değişiklikleri önerdi .

2022’de OpenAI, Avrupalı ​​yetkililere tekrar tekrar, yaklaşan AI Yasasının ChatGPT’nin öncüsü olan GPT-3 ve görüntü oluşturucu Dall-E 2 dahil olmak üzere genel amaçlı AI sistemlerini “yüksek riskli” olarak kabul etmemesi gerektiğini savundu. 

Bu, OpenAI’yi yapay zeka laboratuvarına 13 milyar dolar yatırım yapan Microsoft ve her ikisi de daha önce AB yetkilileriyle büyük yapay zeka sağlayıcıları üzerindeki yasanın düzenleyici yükünü hafifletmek için lobi yapan Google ile aynı çizgiye getirdi. Her iki şirket de, Yasanın en katı gerekliliklerine uyma yükünün, genel amaçlı AI sistemleri oluşturan şirketlerde değil, yüksek riskli bir kullanım senaryosu barındıran şirketlerde olması gerektiğini savundu.

OpenAI , Eylül 2022’de AB Komisyonu ve Konsey yetkililerine gönderdiği, Avrupa Birliği’nin Yapay Zeka Yasasına İlişkin OpenAI; Beyaz Kitap başlıklı, daha önce yayınlanmamış yedi sayfalık bir belgede “Kendi başına GPT-3 yüksek riskli bir sistem değildir” dedi. “Ancak, yüksek riskli kullanım durumlarında potansiyel olarak kullanılabilecek yeteneklere sahiptir.”

OpenAI ‘in lobicilik çabası başarılı olmuş gibi görünüyor; AB yasa koyucuları tarafından onaylanan Yasanın son taslağı, daha önceki taslaklarda bulunan ve genel amaçlı AI sistemlerinin doğası gereği yüksek riskli olarak değerlendirilmesi gerektiğini öne süren ifadeleri içermiyordu. 

Bunun yerine, üzerinde anlaşmaya varılan yasa, sözde “temel modeller” veya büyük miktarda veri üzerinde eğitilmiş güçlü AI sistemleri sağlayıcılarını, yasa dışı içeriğin oluşturulmasını önleme, bir sistemin eğitilip eğitilmediğini ifşa etme dahil olmak üzere daha küçük gereksinimlere uymaya çağırdı.

Exit mobile version