Techinside Google News
Techinside Google News

Dijital ahlak ve etik

Eğer, yapay zekâ sistemleri, içinde yaşadığımız toplumda pek çok karar alma mekanizmasına dahil olacak ve bize ait sorumlulukları, bizim yerimize gerçekleştirecek ise, yazılımlara temel etik kodlarının eklenmesi, makinelerin bu etik değerleri anlamasını ve bu değerlere saygı duymasını öğretmeliyiz.

İnsan olarak en büyük özelliklerimizden birisi, doğada toplumsal yaşam ile ilgili neyin doğru, neyin yanlış bir davranış olduğuna dair aldığımız eğitimdir. Küçük yaşlardan itibaren aile içinde, okullarda ve toplumsal hayatta bu eğitimi farkına varmadan yoğun bir şekilde alır, doğru ve yanlışları öğreniriz. Bu davranış modelleri, bir süre sonra toplumda kabul gören, adına etik dediğimiz alışkanlıklara dönüşür. Etik, köken olarak alışkanlık anlamına gelen Yunanca ethos kökünden gelen, kısaca “iyi bir insan” olarak nasıl yaşanması, davranılması gerektiğinin yanıtıdır. Fakat biz bugün daha çok ahlak, iyi davranış, toplumsal değer, amaç ve inanç gibi kavramlar içinde kullanıyoruz. Peki, etik ahlaki değerler hakkında eleştirel düşünmek ve davranışlarımızı buna göre şekillendirmekse ve insana dair bir kabiliyet ise, makinelerin ve yapay zekâ sistemlerinin bunu gerçekten anlamasını beklemeli miyiz?

Yapay zekâ sistemleri her zaman öncelikle verimlilik üzerine çalışır ve sonuç üretir. Olası bir durumda, en çok fayda (kar, para, zaman v.s.) sağlanacak ise ona göre modellenir. Bugün, hamile olan kadınların sezaryen mi yoksa normal doğum mu yapacağını yapay zekâ belirleyecek olsaydı, her zaman için sezaryeni seçerdi. Çünkü sezaryen, önceden doktor, hastane kaynaklarının planlanması açısından daha optimize, normal doğuma göre daha verimli. Belki olaya bu açıdan bakıldığında ve tüm bu karar mekanizmaları yapay zekaya devredildiğinde ve tekilliğe (singularity) gittiğimiz bir çağda, hamile kalan kişinin toplum ve çalışma hayatında verimliliğini sürdürebilmesi açısından yapay zekaların tek seçenek olarak harici gebeliği önereceğini öngörmemek elde değil.

- Advertisement -

2015 yılında, Science dergisinin 352. sayısında yayınlanan bir akademik çalışma bu açıdan oldukça düşündürücü sonuçlar içeriyor. Katılımcılara, otonom bir aracın yolda giderken, yola atlayan iki kişiye çarpma olasılığı doğduğunda, sizin zarar görmemeniz için yayalara çarpmayı mı tercih etmeli yoksa sizin ciddi yaralanma veya ölme ihtimalinize karşılık yayaların kurtulması yönünde mi karar vermeli sorusu yöneltiliyor. Katılımcıların neredeyse hepsi, araçtaki yolcunun(sizin) ölme ihtimalinize karşı yayaların kurtulması kararını vermeli derken, aynı kişilere, “Bu yazılıma sahip bir otonom araca sahip olmak ister misiniz?” diye sorulduğunda bu sefer hayır cevabını veriyorlar. Hayatta kalmak gibi durumlarda, etik değerler kimsenin umurunda olmayabiliyor. Bunun oldukça bilinen ve farklı bir versiyonu, büyük bir şirketin iş başvurularını değerlendirmede yapay zekayı kullanma hikayesidir. ABD merkezli, büyük ve kurumsal bir şirket o kadar çok iş başvurusu alıyordu ki, bu başvuruları değerlendirme de insanlardan daha titiz ve detaycı olacağını düşünerek yapay zekayı kullanmaya karar verdi. Bazı başvuranların itirazları sonrasında yapılan kontrollerde yapay zekanın pozisyonlara hep erkek adayları uygun bulduğu, gerekli yetkinlikler açısından daha yeterli olan kadın adayları tercih etmediği görüldü. Elbette yapay zekâ cinsiyetçi değil, ama kötü etik değerlerimiz yapay zekayı da benzer davranışlara yöneltiyor.

Kabul görür etik ve ahlaki değerlerimizi sistemlere kodlarsak bile, bunlara biz insanlar uyacak mıyız, uymak ister miyiz?

Üstat Asimov’un dünyaca meşhur 3 robot yasası vardır.

  1. Bir robot, bir insana zarar veremez, ya da hareketsiz kalarak zarar görmesine neden olamaz.
  2. Bir robot, insanların verdikleri emirlere uymak zorundadır. Ancak, bu emirler birinci yasa ile çeliştiğinde bu durum değişir ve emirleri uygulamaz.
  3. Bir robot, birinci ve ikinci yasalarla çelişmediği sürece, varlığını korumak zorundadır.

Biz, etik  ve ahlaki değerlerimizi bu tür sistemlere kodladığımızda, yapay zekâ nasıl davranacak? Evde, hasta bakımı yapan bir robota ilaçlarını almayı reddeden ve içmediği durumda %51 ölüm riski  taşıyan bir hastaya kaba kuvvetle, zorla ilaçları içir mi diyeceğiz? Yapay zekâ, obezite sorunu yaşayan birisinin, gece yarısı kalkıp, buzdolabını açmasını engelleyecek, ya da hamburgerciyi aramayalım diye telefonumuzu ve interneti mi kapatacak?

Biz insanlar, hata yaparız. Yapay sistemler gibi sadece akla uygun, etiğe uygun davranmayız. Hatta çoğu zaman kalbimizi dinleyip, yanlış olduğunu bilerek, duygusal kararlar alırız. Öğrenme ve karar alma açısından yapay zekâ, bizden çok ileri gidebilecek olsa da duygusal ve sosyal zekada şimdilik sıfır noktasındalar.

İnsanların 150 yaşına kadar yaşayabilmelerini sağlayacak, yaşlanmayı çözen bir “DNA tamirinin” geliştirildiğini düşünün. Bu teknolojiyi, tüm dünya halklarına yaymanız dünyanın kısıtlı kaynakları itibariyle problem olacaktır. O zaman yapay zekâ, bu teknolojiyi kimlerin hizmetine sunacak? En zengin %2’nin hizmetine mi, yoksa insanlık için önemli olduğuna karar verilen sanatçı, bilim adamları, düşünürler, iş adamları gibi seçkin insanların hizmetine mi sunulacak?  Bu konuda, nasıl bir seçim yapılırsa yapılsın, duygusal zekâmız yanlış bir tercih olduğunu söyleyecektir, çünkü herkesin yaşam hakkı kutsaldır ve eşittir.

Mükemmel bir işleyişe sahip, hiper-verimli bir dünya kurmak pahasına, duygusal ve sosyal zekadan yoksun ama bir o kadar da refah içinde ve sorunların daha doğmadan yok edildiği bir dünyada olmak ister miyiz diye kendimize sormalıyız. 

Son olarak ne yapılmalı?

Eğer, yapay zekâ sistemleri, içinde yaşadığımız toplumda pek çok karar alma mekanizmasına dahil olacak ve bize ait sorumlulukları, bizim yerimize gerçekleştirecek ise, yazılımlara temel etik kodlarının eklenmesi, makinelerin bu etik değerleri anlamasını ve bu değerlere saygı duymasını öğretmeliyiz.

Temel ahlaki ve doğru değerlerimizin – çocuk hakları, cinsiyet eşitliği, yaşam ve barınma hakkı v.s. gibi evrensel değerler- küresel bir etik kurulu tarafından belirlenmesi gerekir. Bu kurul içinde, bu değerlerin inovasyonun önünü kesmeyecek ama insanlığımızı koruyacak güçlü bir değerler seti olması gerekir. Nükleer silah kullanımı, genom değiştirme, siber saldırı gibi ana konularda, evrensel bir anayasa belirlenmeli ve bu etik kodlar tüm yapay zekâ ve otonom sistemlerin veri seti olmalıdır.

Gerçekten çok yakın bir zamanda, dijital etik uzmanı ve rolü, veri bilimi ile birlikte, çocuklarımız için  en çok aranan ve popüler işlerden biri haline gelebilir, neden olmasın?


Barış Özkan
Barış Özkan
IFS Türkiye CTO

Barış Özkan
IFS Türkiye CTO

1976 Ordu doğumludur. Lisans eğitimini Bilgisayar Mühendisliği üzerine tamamladıktan sonra çalışma hayatına IBM Türkiye’de mühendis olarak başlamıştır. Genç bir yazılım mühendisi olarak katıldığı IFS Türkiye ekibinde, halen CTO olarak görevini yürütmektedir. Seyahat edip yeni kültürler tanımaktan, edebiyat, tarih ve felsefe ile ilgili kitaplar okumaktan ve müzikten keyif alır. Evli ve bir çocuk babasıdır.

Siz bu konu hakkında ne düşünüyorsunuz? Görüşlerinizi yorumlarda paylaşın!

SON VİDEO

TÜMÜ
00:27:42

YORUM YAP

Lütfen yorumunuzu giriniz!
Lütfen isminizi buraya giriniz

İlginizi çekebilir