Yapay Zekâ ve Etik – Tayyip ÖZER

Çoğu insan yapay zekâ kavramını duyduğunda, karşısında bir robot olmasını bekliyor. Ama yapay zekâyı günümüzde, hâlihazırda kullandığımız uygulamalarda haberimiz olmadan kullanıyoruz. Ya da üzerimizde test mi ediliyor demeliydim.

Yapay zekânın aktif olarak kullanıldığı şirketlere, Facebook, Apple, Google, Tesla, SpaceX, Nvidia ve Microsoft örnek verilebilir. Facebook kendi uygulamalarındaki kullanıcılara yönelik reklamların kişiselleştirilmesini tamamen yapay zekâlara bırakmış durumda, ayrıca iş ilanları veren şirketlerde bunların arasına dâhil. Apple, kendi telefon veya bilgisayarlarında kullandığı, yapay zekânın kullanıldığı yüz tarama ve tanıma ile birlikte kullanıcılarına daha kolay, etkili ve güvenli bir kullanım sunuyor. Google da Facebook’a benzer şekilde reklamların kişiye göre sınıflandırılmasında ve daha birçok uygulamasında yapay zekâyı kullanıyor. Tesla ise elektrikli araçlarını yapay zekâ ile otonom hale getirme çabasında.

Peki, biz bu uygulamaları kullanırken, aynı zamanda kişisel verilerimizin yapay zekâları eğitmek ve daha net sonuçlara ulaşmak için kullanıldığının da farkında mıyız? Bu apayrı bir etik konusu ama çoğu uygulama sözleşmesinde bunlara bilmeden de olsa izin veriyoruz. Ben bu yazımda çok farklı bir açıdan yapay zekâların etik konusunu ele alacağım.

Çarpıcı bir örnekle başlayacak olursak, kendinizi otonom sürüş imkânı olan bir Tesla içerisinde hayal edin. Araç bir caddede hareket etmekte ve aracın seyir hızı kurallara uygun. Aniden önünüze çıkan bir köpek, bütün gidişatı değiştiriyor ve yapay zekânın acil durumda birçok senaryo içeresinden hızla bir karar vermesi gerekiyor. Bunlardan birincisi köpeğe çarpıp arabaya zarar vermek ve masum bir köpeği öldürmek. Dahası bu durumda aracın içerisindekilerden birine zarar gelmeyeceğinin de bir garantisi yok, ani bir fren arkadan gelen araçların da çarpmasına ve zincirleme bir kazaya da neden olabilir. İkinci durum ise kıvrak bir manevra ile köpeğe çarpmaktan kaçınmak. Yapay zekânın bu durumdan manevra ile kazadan kaçınılabileceği kanaatine varması hiçte zor değil, biraz fizik bilgisi ile kolayca hesaplar. Ancak o manevranın yapılabileceği tek yerde bir grup insanın olduğunu düşünün, masum bir grup insan kaldırımda yürüyorlar. Şimdi bir düşünelim, bir köpeği mi? Yoksa bir grup insanı öldürmek mi? Dahası da hâlâ arabanın içerisindekilere bir zarar gelmeyeceğinin garantisi yok. Üçüncü bir durum yine bir köpeğe çarpmaktan kaçınma manevrası fakat bu sefer amaç arabayı kaldırımdaki elektrik direğine çarpıp, boş olan kaldırımda durmak. Bu durumda yapay zekâ yolculara gelebilecek zararı hesaplıyor ve ölüme yakın bir yaralanma ile karşılaşıyor.

Olay iyice karmaşık bir hal aldı. Bir köpek mi, Bir grup insan mı yoksa arabanın sahibi ve yolcular mı? Hangisi veya hangileri daha önemli? Olay o kadar karmaşık ki her köpeğin araba kornasında aynı tepkiyi verme garantisi de yok. Yapay zekâlar bu durumu da bir insandan daha iyi değerlendirebilir, saniyeler içerisinde hangi köpek cinsi, hangi durumlarda, hangi davranışlarda bulunmuş, bunları göz önünde bulundurabilir. Bu mükemmel hesaplamalara rağmen kazadan kaçamayacak.

Peki, hangi kararı vermesi etik? Eğer bir canlıya zarar gelirse bunun sorumlusu kim? Araç sahibi mi? Aracı üreten firma mı? Araç yazılımını yazan, yazılımcılar mı? Yoksa eğitilen yapay zekâ mı? Yargı bu olayları nasıl değerlendirecek veya değerlendirmeli? İleriki yazılarda bu konuya daha çarpıcı örneklerle tartışmaya devam edeceğiz ve aslında kendi önyargılarımızla mı yapay zekâları eğitiyoruz bunları konuşacağız.

Tayyip ÖZER

Bir cevap yazın

E-posta hesabınız yayımlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir