Yapay zeka silah ateşliyor!

0

Yapay zekanın insanları öldürecek silahlara dönüşmesi insanların en büyük kabusu. Bu konuda yapılan Terminator ve Matrix filmleri de toplumsal hafızamızdaki travmayı canlı tutuyor. Ancak yapay zeka konusundaki korkuların sadece bir travma olmayabileceğini gösteren ilginç bir deney, internette dikkat çekmeye başladı.

Silah kelimesine rağmen şüphelenmedi

Sadece birkaç gün önce, 23 Mayıs 2018 tarihinde yayınlanan bir video, bugün bütün dünyada yaygın olarak kullanılan Google yapay zekasının alsında silah kullanımına dair hiçbir önlem mekanizmasının olmadığını ortaya koydu.

Bir YouTuber evinde kurduğu bir düzeneğe bir toplu tabanca bağlayarak, yapay zekaya “silahı aktive et”, komutu verdi ve Google Assistant komutta kullanılan silah kelimesine rağmen hiç itiraf etmeden, kendisine verilen komutu yerine getirerek silahı ateşledi.

 

Yapay zeka şu anda dünyayı algılama konusunda henüz çok erken ve eksik bir aşamada olmasına rağmen, kullanıcının emir cümlesinde kasten kullandığı “silah” kelimesini anlamamış olması ve bir silahı ateşlemeye itiraz etmemesi, bugün geliştirilen yapay zeka rutinlerinin kötü niyetli kişilerin elinde, doğru kodlamayla ölümcül silahlara dönüştürülebileceğini gösteriyor.

Yapay zeka ile kurulan aşağıdaki video, kötü niyetli, katil ruhlu birinin, bir otel penceresi önüne kuracağı kameralı ve gerçek silahlı bir düzenekle yapabileceği katliamın ispatı kabul ediliyor. Katil ruhlu biri, yapay zekanın sokaktan geçen insanları kamera ve yüz tanıma teknolojisi sayesinde tespit etmesi ve ardından insanlara silahlara nişan alıp ateş etmesi için çok basitçe bir düzenek kurup, olay yerinden uzaklaşıp sadece “başla” komutunu vererek katlima başlamasını sağlayabilir.

Bilim insanları ve aydınlar, yapay zeka geliştiren uzmanların yapay zekanın bu tür eylemlerde kullanılmaması için ne yaptığını anlayacak ve analiz edebilecek önlemler almalarını istiyorlar. Yapay zekanın kendinden istenilen şeyin insan öldürmek olduğunu anlamasını ve bunu yapmayı reddetmesi gerektiğini savunuyorlar.