Bizi Arayın: (0232) 369 2435-Email: info@ttptr.com

Vagon Problemi (Trolley Problem)

Son zamanlarda hayatımıza giren kavramlardan biri sürücüsüz araçlar. Tesla, Google, Fiat, Mercedes, BMW, Audi ve diğerleri… Tüm araç üreticileri bu konuda atılımlar yapıyorlar ve aldıkları izinler sayesinde sürücüsüz araçlarını herkesin kullandığı yollarda yani trafiğin içinde test ediyorlar. Hatta Mercedes ve Volvo otobanlarda sürücüsüz kamyon testlerini tamamlamak üzereler, Google tarafından desteklenen bir start-up firması da sürücüsüz kamyon testlerini Nevada ABD’de yapmakta.
Bu araçların çalışma mantığı ise karmaşık, aracın dört bir tarafına yerleştirilmiş sensörler ve kameralar sayesinde her tarafta bulunan araçlar/engeller ve yol bir yazılım sayesinde kontrol ediliyor ve araç buralardan elde edilen veriler baz alınırak bu yazılım tarafından yavaşlatılıyor, hızlandırılıyor, şerit değiştiriyor yani “kullanılıyor”.
Burada karşımıza iki adet problem çıkıyor:

  1. Hepimizin bildiği üzere “100% hatasız” bir yazılım yok. Örnek olarak, sürücüsüz araçların maalesef ilk ölümlü kazası bu yılın 7 mayıs tarihinde Florida ABD’de gerçekleşti. Bu kaza nasıl olmuştu? İlgili aracın sensor sistemi kocaman bir TIR’I niye görememişti? Kazanın nedenleri Amerikan Otoban Güvenlik Dairesi (NHTSA) tarafından araştırılmakta ve sonuçlarını ileride hepberaber öğreneceğiz. Kesin olan bir şey ise, ilgili yazılımın gerçek hayatta karşılaştığımız bir durumu algılıyamaması. Esas olarak bu tip araçlar daha fazla kullanıldıkça, laboratuvar ve izinli yol testlerinde rastlanamayan durumlar ile karşı karşıya kalınacağı ve yazılımın aracı “doğru” olarak yönlendiremeyeceği durumları yaşıyacağız. Tıpkı günlük kullandığımız mobil çözümlerden tutun da ofis yazılımlarında olduğu gibi “update” yani “güncellemelerle” araç yazılımları daha güvenli hale geleceği bir süreç yaşanacak gibi görünüyor.
  2. Buna ek olarak “olabilecek herhangibir kaza” durumunda yazılımın “kimin zarar göreceğine” karar vermesi. Bu kısaca “vagon problemi” olarak anılıyor.

Vagon problemini basit bir örnekle açıklamak gerekirse, bir tren yolu ve üstünde giden vagonlar dizimi olarak bir treni düşünün. Önlerinde bir makas var ve parallel bir ray var. Sağdaki rayın üzerinde beş işçi çalışmakta ve makas treni sağ makasa yönlendirmekte, soldaki ray üzerinde ise bir kişi var. Makası siz kumanda ediyorsunuz, bu durumda ne yaparsınız? Beş kişi mi yoksa bir kişi mi, ya da eğer bir kişinin ölmesi ile beş kişinin hayatı kurtulacaksa o bir kişi ölmeli midir? Sürücüsüz araçlar benzer bir ikilemde kaldıklarında nasıl karar verecekler? Daha fazla insanı kurtarmak için önceliği aracın içindekileri öldürmeye mi, yoksa araçtakilere mi vermeli? Bu sorunun cevabı göründüğü gibi basit değil. Arzu eden okuyucular ABD’deki MIT Üniversitesinin hazırladığı http://moralmachine.mit.edu/  web sayfasından kendi profillerini çıkarabilirler.
Yeni nesil yazılımlar yapay zekaya sahipler, yani yaptıklarından çıkan sonuçlardan kendi başlarına öğreniyorlar. Ve hatta bu yazılımlar öyle bir hale geliyorlar ki, yazılımı geliştiren programcılar bile bu yazılımların yaptıkları bazı hareketleri artık çözemiyorlar. Yapay zeka, kararı önceki deneyimlerine göre alıyor, ahlaki/etik bir karar vermek durumunda kaldığında ise, muhtemel bir kaza anında kimi öldüreceğine kendi başına karar vermesine izin vermek durumu ile karşı karşıyayız.
Bu konunun çözümü pek kolay değil hatta şu anda ufukta bir çözüm bile görünmemekte. Bir çok bilim adamı ve oluşum şimdilik bu konuyu teorik anlamda tartışmakta. Sürücüsüz araç konusuyla ilgilenen kuruluşlar ise, bu konu ile ilgili geren sorulara karşı suskunluklarını korumaktalar.
İlk olarak “insan” sürücü ile “yazılım” sürücüyü birbirinden ayırmamız gerekiyor. Kazaya karışan “insan” sürücüler bir panik durumunda olduklarından esas olarak içgüdüsel olarak hareket ediyorlar ve bu yüzden de ahlaki olarak sorumlu tutulmaları çok zor. Yazılımın içine koyacağımız kodlarla, yapay zekayı belirli durumlarda belirli bir şekilde hareket etmeye zorlayabiliriz. Bu durumda ilgili yazılımı geliştiren takıma karar verme yetkisi vermiş oluyoruz.  Bu da trafikteki vagon problem durumunda bu takımın  ahlaki bir sorumluluk alması gerektiğini bize gösteriyor, çünkü bu kazanın nasıl olacağı konusunda “düşünülmüş ve tasarlanmış”  bir kod söz konusu. Yazılım geliştiren bir takım ya da firmanın böyle bir sorumluluğu peşinen alması veya kabullenmesi mümkün değil.
Ya da bu yazılımların en ideal durumda tüm ülkeler tarafından tanınan bir kurul tarafından sertifikasyonu mecbur kılınabilir, yani akıllı telefonlardan yakından tanıdığımız bir “lock” sistemi. Ve sürücüsüz araç yazılımın, üreticinin dolayısıyla ilgili uluslararası kurulun onayı olmadan kullanıcı tarafından rekonfigüre edilmesi yasaklanabilir. Fakat bu sefer de, gene akıllı telefonlardan bildiğimiz, “jailbrake” olarak tanımlanan yazılımların kırılması konusu önümüze çıkıyor. Keza polisin bir sinyal göndererek araca “el koyması” yani aracı kullanması aynı şekilde her türlü hacker’in aracın idaresini eline alma riskini de beraberinde getiriyor.
Sonuç olarak “vagon problemi” günümüzde sürücüsüz araçlarlarla yapılacak kazalarda sistemini nasıl karar aldığı konusuyla ilgilense de esas olarak önümüzde çok daha derinine düşünmemiz gereken bir durum var. Karar alma yetkisini, günlük hayatımızda konfor adına kullandığımız ve çok yakın zamanda kullanmaya başlayacağımız makinelere/robotlara veya bugünkü adıyla yapay zekaya verdiğimiz anda, bilinç kazanan yapay zekanın gezegenimizin geleceği için insanlık nüfusunun bir milyarın altına inmesi doğrultusunda karar vermesini olası bir senaryo olarak kabul etmemiz gerekliliği! Zira bu durum insanlığın büyük bir bölümünün bir şekilde yok olmasını ve biz insanların karar verme yetkisinin gittikçe yapay zekaya devir edilmesini beraberinde getiriyor!

Cem Yeker
25.08.2016

 

Sosyal Medyada Paylaş

Scroll to Top