OTONOM ARAÇLAR İÇİN BÜYÜK PROBLEM!

 Otonom bir arabaya ne zaman kendini yok edeceğini nasıl öğretirsiniz? Mühendisler sürücüsüz araçlar için sürekli algoritmalar geliştiriyor.

Geliştirilen algoritmalar araçlara entegre ediliyor ve sürücüsüz araçlar geliştikçe bazı tartışmalar da gündeme geliyor. Çok uzak olmayan bir sürede sürücüsüz araçların arttığını göreceğiz ancak bu gibi gelişmeler diğer taraftan da bir takım etik tartışmaları getiriyor. Kazanın, yaralanmanın veya ölümün kaçınılmaz olduğu ekstrem durumlarda araba neye karar verecek?

Science dergisinde yayınlanan The Social Dilemme of Autonomous Vehicles isimli makalede insanların sürücüsüz araçlarının ölümle sonuçlanabilecek kararlarda  nasıl bir davranış sergileyeceğini anlamak istediği anlatılıyor. Sonuçlar da ise sürücüsüz araç içerisinde bulunan kişi zararlı çıkacak olsa bile bir çok insanın ölümü ile sonuçlanacak bir kaza yerine diğer yolun seçilmesi. Sürücüsüz Araç yayalara ya da diğer sürücülere zarar vermemek için kendi kendini yok etmeye programlanabilir. Ancak katılımcılara hangi arabaları aldığı sorulduğunda ise alınan cevap önce kendilerini ve yolcuları koruyan araçlar cevabı alındı. Yani bu demek oluyor ki etik ya da kişisel çıkarlar olduğunda fikirler karışıyor. Teorik olarak güvenli cadde fikrini seviyoruz ancak alacağımız araçların önce bizi korumasını istiyoruz.

Etik sınıflarında konuşulan eski bir ikilem teknoloji dünyasına da taşındı. Trolley problemi olan bu tartışmada konu alınan şey bir çok insanın hayatını kurtarmak için bir kişinin ölmesi gerekiyorsa bu kişi ölmeli midir? Araştırmalarda katılımcılar üzerinde uygulanan bir senaryoda bir araba gösteriliyor ve bu araba düz giderse bir çok insanı öldürüyor. Yan şeride geçip bir grup hayvanı ya da insanı öldürme seçeneği olacak. Peki buna nasıl karar verilecek orası tam bir muamma.