Techinside Google News
Techinside Google News

G7 yapay zeka kurallarına dikkat çekti!

G7 yapay zeka kuralları konusunda şirketlerin sorumlu olduğunu belirtti. Bu kuralların kabul edilmesine dikkat çekti.

G7’ye göre, hükümetler teknolojinin risklerini ve olası kötüye kullanımını azaltmaya çalışırken, Yedi sanayi ülkesinden oluşan Grup, ileri yapay zeka sistemleri geliştiren şirketler için bir davranış kuralları üzerinde anlaşmaya varacak.

Reuters tarafından tespit edilen belge, gönüllü davranış kurallarının, gizlilik endişeleri ve güvenlik riskleri nedeniyle büyük ülkelerin yapay zekayı nasıl yöneteceğine dair bir dönüm noktası oluşturacağını gösterdi. Kanada, Fransa, Almanya, İtalya, Japonya, İngiltere ve ABD’nin yanı sıra Avrupa Birliği’nden oluşan G7 ekonomilerinin liderleri, süreci Mayıs ayında “Hiroşima” adı verilen bir bakanlar forumunda başlattı.

- Advertisement -

G7 yapay zeka için kararlı

G7 belgesinde, 11 maddelik kodun “dünya çapında güvenli, emniyetli ve güvenilir yapay zekayı teşvik etmeyi amaçladığı ve en gelişmiş temel modeller ve üretken yapay zeka sistemleri de dahil olmak üzere en gelişmiş yapay zeka sistemlerini geliştiren kuruluşların eylemleri için gönüllü rehberlik sağlayacağı” belirtildi.

Kurallar, şirketleri yapay zeka yaşam döngüsü boyunca riskleri tanımlamak, değerlendirmek ve azaltmak için uygun önlemleri almaya ve ayrıca yapay zeka ürünleri piyasaya sürüldükten sonra olaylarla ve kötüye kullanım kalıplarıyla mücadele etmeye teşvik ediyor. Şirketler yapay zeka sistemlerinin yetenekleri, sınırlamaları, kullanımı ve kötüye kullanımı hakkında kamuya açık raporlar yayınlamalı ve ayrıca sağlam güvenlik kontrollerine yatırım yapmalı.

AB, zorlu Yapay Zeka Yasası ile gelişen teknolojiyi düzenlemede ön saflarda yer alırken, Japonya, ABD ve Güneydoğu Asya’daki ülkeler ekonomik büyümeyi artırmak için bloktan daha müdahaleci bir yaklaşım benimsedi. Bu ayın başlarında Japonya’nın Kyoto kentinde internet yönetimi konulu bir forumda konuşan Avrupa Komisyonu dijital şefi Vera Jourova, Davranış Kurallarının güvenliği sağlamak için güçlü bir temel olduğunu ve düzenleme yürürlüğe girene kadar bir köprü görevi göreceğini söyledi.

Önde gelen yapay zeka şirketlerinin çoğu, yapay zeka gelişiminin güvenliğini incelemek için kendi gönüllü kılavuzlarını ve finansman kuruluşlarını zaten geliştirdi. Anthropic, Google, Microsoft ve OpenAI, yapay zekanın olası zararlarını incelemek için bir güvenlik forumu duyurdular ve yakın zamanda kuruluşa fon sağlamak için 10 milyon dolar sözü verdiler. Aynı kuruluşların yanı sıra IBM, Meta, Nvidia ve Palantir de yapay zekanın geliştirilmesinde emniyet ve güvenlik taahhüdünde bulunmayı kabul etti.

Siz bu konu hakkında ne düşünüyorsunuz? Görüşlerinizi yorumlarda paylaşın!

SON VİDEO

TÜMÜ
00:06:39

CEVAP VER

Lütfen yorumunuzu giriniz!
Lütfen isminizi buraya giriniz

İlginizi çekebilir