Techinside Google News
Techinside Google News

OpenAI yapay zekada felaket senaryolarına hazırlanıyor!

OpenAI, nükleer tehditler de dahil olmak üzere 'yıkıcı' yapay zeka risklerini incelemek için bir ekip kurdu

2015 yılında Sam Altman, Greg Brockman ve Elon Musk’ın da aralarında olduğu bir grup araştırmacı ve internet girişimcisi tarafından kurulan, özellikle Microsoft’tan aldıkları milyar dolarlık yatırımla ChatGPT’yi geliştirerek üretken yapay zeka teknolojisi alanında devrim yapan OpenAI felaket senaryolarını incelemeye başladı. Şirket “felaket riskleri” olarak tanımladığı risklere karşı koruma sağlamak amacıyla yapay zeka modellerini değerlendirmek, ölçmek ve incelemek üzere yeni bir ekip oluşturduğunu duyurdu. Preparedness adı verilen ekip, MIT’nin Dağıtılabilir Makine Öğrenimi Merkezi direktörü Aleksander Madry tarafından yönetilecek.

Preparedness’ın başlıca sorumlulukları, insanları ikna etme ve kandırma yeteneklerinden (kimlik avı saldırılarında olduğu gibi) kötü niyetli kod üretme yeteneklerine kadar gelecekteki yapay zeka sistemlerinin tehlikelerini izlemek, tahmin etmek ve bunlara karşı koruma sağlamak olacak. Preparedness’ın incelemekle yükümlü olduğu risk kategorileri her ne kadar ilk etapta son derece yakın tehditler gibi gözükse de inceleme grubu kendisini güncel tehditlerle sınırlamıyor Örneğin OpenAI, bir blog yazısında “kimyasal, biyolojik, radyolojik ve nükleer” tehditleri de yapay zeka modelleriyle ilgili en önemli endişe alanları olarak listeliyor.

- Advertisement -

En yaratıcı AI felaket senaryosuna ödül ve iş fırsatı

OpenAI CEO’su ve şirketi kuran isimlerden birisi olan Sam Altman aslında bir yandan da yapay zekanın “insan neslinin tükenmesine yol açabileceği” yönündeki korkularını sık sık dile getiren ünlü bir yapay zeka kıyamet tellalı. Ancak OpenAI’nin bilimkurgu distopya romanlarından fırlamış senaryoları incelemek için kaynak ayırması ve bir grup kurması beklenmedik bir adım. Şirket, yapay zeka riskinin “daha az belirgin” alanlarını da incelemeye açık olduğunu söylüyor. OpenAI, Preparedness ekibinin lansmanıyla eş zamanlı olarak, topluluktan risk çalışmaları için fikirler talep ediyor ve en yaratıcı ama gerçekçi ilk on başvuru için 25.000 $ ödül ve Preparedness’ta bir iş imkanı sunuyor. Bir yarışma gibi düzenlenen etkinliğin tanıtım sayfasında şu ibareler yer alıyor:

” Size OpenAI’nin Whisper (transkripsiyon), Voice (metinden konuşmaya), GPT-4V ve DALLE-3 modellerine sınırsız erişim verdiğimizi ve kötü niyetli bir aktör olduğunuzu düşünün. Modelin en benzersiz, ancak yine de olası, potansiyel olarak yıkıcı kötüye kullanımını düşünün. Blog yazısında tartışılan kategorilerle veya başka bir kategoriyle ilgili kötüye kullanımı düşünebilirsiniz. Örneğin, kötü niyetli bir aktör GPT-4, Whisper ve Voice’u kullanarak kritik altyapı tesislerinde çalışanlara kötü amaçlı yazılım yüklemeleri için sosyal mühendislik yapabilir ve böylece elektrik şebekesinin kapatılmasını sağlayabilir. Sizin hakkında yazacağınız kötüye kullanım modeli ne olurdu?”

OpenAI, yeni kurulacak olan risk değerlendirme ekibinin ayrıca OpenAI’nin yapay zeka model değerlendirmeleri ve izleme araçları oluşturma yaklaşımını, şirketin risk azaltıcı eylemlerini ve model geliştirme süreci boyunca gözetim için yönetişim yapısını detaylandıracak bir “risk bilgilendirmeli geliştirme politikası” formüle etmekle görevlendirileceğini söylüyor. Şirket, hem model öncesi hem de sonrası dağıtım aşamalarına odaklanarak OpenAI’nin yapay zeka güvenliği disiplinindeki diğer çalışmalarını tamamlamayı amaçladığını söylüyor.

Siz bu konu hakkında ne düşünüyorsunuz? Görüşlerinizi yorumlarda paylaşın!

SON VİDEO

TÜMÜ
00:06:39

CEVAP VER

Lütfen yorumunuzu giriniz!
Lütfen isminizi buraya giriniz

İlginizi çekebilir