Yapay Zekâya Sorumluluk Verilebilir mi?

Yapay Zekâ (AI) kullanılan programlar tarafından alınan kararların açıklanamaması önemli bir sorun. Ancak yapay zekanın ne yaptığını anlamadaki bu yetersizlik; hukuk, sağlık hizmetleri ve hassas müşteri verilerini işleyen unsurlarda, bu teknolojinin kullanılmasının önüne geçebilir. Verilerin nasıl işlendiğini ve AI’ın sonuç olarak verdiği karara nasıl ulaştığını anlamak, son veri koruma yönetmeliği bağlamında, bir karara nasıl ulaşıldığına dair kayıt yapamayan şirketlerin ağır bir şekilde cezalandırılmasından daha da önemlidir.

IBM, AI modelinde önyargıyı saptamak ve karar alma sürecini izlemek için bir yazılım hizmetini duyurdu. Gelecek adına oldukça önemli bir konuyu ele almaya yönelik önemli bir adım atmış olduğunu söyleyebiliriz. Bu hizmet, şirketlerin AI kararlarını gerçekleştirirken takip etmelerini ve AI süreçlerinin yönetmelik ve genel iş hedefleriyle uyumlu olmasını sağlamak için “önyargılı” eylemleri izlemelerine izin veriyor.

Bu yazılım, en karmaşık derin öğrenme algoritmalarının bile aldığı kararları gerçekten açıklayabiliyorsa, bu gelişme, birçok şirketin verilerinin üzerinde AI açığa çıkarmadan önce ihtiyaç duyduğu kolaylığı sağlayabilir.

Kötü karar yollarını kırmak…

IBM Global Business Services’de Yönetici Ortak olan Jesus Mantas kendisi ile yapılan bir röportajda “Açıklanabilirlik araştırmamız için büyük bir odak noktasıydı” diyor. IBM’in, bir AI programı tarafından alınan gerçek kararlara karşı verdiği tepkiler, verdiği ağırlık ve bu karar üzerindeki güven dahil olmak üzere, teorik olarak algoritmanın önyargılı olup olmadığını belirleyebilir. Hatta bu önyargının nedenini de belirlemesi mümkündür. Yapay zekâ sayesinde şirketler ayrıca kendi karar parametrelerini de belirleyebilirler. Böylece verilen hatalı kararlar hem ticari hedefleri hem de yasal gereklilikleri etkilemez.

Önyargı tespit yazılımı tarafından sağlanan veri görselleştirme çalışmasının anlaşılması, karar nedenlerinin anlaşılmasına için de yeterli olacak. Ve bundan daha da önemlisi, karmaşık sistemlerin AI algoritmalarının nasıl karar verdiğini anlamanın imkânsız olduğu düşüncesi de yıkılmış olacak. Makine Öğrenimi uygulamaları üzerine çalışan bir profesör olan Tommi Jaakkola: “Eğer çok küçük bir sinir ağınız olsaydı, bunu anlayabilirdiniz, ancak çok büyük ve katman başına binlerce birim ve belki de yüzlerce katman var.  O zaman bu oldukça anlaşılmaz hale geliyor. Sorun sadece derin öğrenme algoritmalarının ne yaptığını göremiyor olmamız değil, aynı zamanda işleyişlerini anlamıyor olmamız” diyor. Dolayısıyla Datateam’in veri görselleştirme yazılımı Vision gibi yazılımlar, AI algoritmalarının hangi kararı neden verdiği hakkında fikir sahibi olmaya yardımcı olabiliyor.

Peki yapay zekânın verdiği kararlardan kim sorumludur?

Arabalar sürücüsüz olarak kullanıldığında, bir kaza olursa bundan kim sorumlu olur? Süperbilgisayarlar doktorların tanı koymasına ve tedavi sağlamasına yardımcı olduğunda, yanlış tanıdan kim sorumludur? Adaylar şirketlere başvuru yaptığında başvuruları bir algoritma tarafından reddedilirse bundan kim sorumlu olur? Yapay zeka nispeten yeni bir teknoloji olmasına rağmen yaşantımızın birçok alanında hızlı bir şekilde yerini aldı. Kendi başına karar verebilecek seviyeye getirildi, ancak verdiği kararlardan kimin sorumlu olabileceği hala tartışılıyor.

Yapay Zeka (AI) sadece verimliliği artırmak ve maliyetleri azaltmak için değil, aynı zamanda işletmelere yeniden düşünmeye ve kritik sorunları çözmeye yardımcı olmak için müthiş bir fırsat sunar. Yine de AI’ın sahip olduğu tüm vaatler için, ekonomiler ve toplumlar arasında eşit miktarda kaygı vardır. Birçok kişi ileri teknolojilerin önceden belirlenmiş ve kaçınılmaz olan büyük değişiklikler getireceğini düşünüyor.

Eğer yeni bir iş için başvuruları değerlendirmek için AI kullanılıyorsa, başvuru sahipleri adil ve tarafsız bir incelemeden nasıl emin olabilirler? Potansiyel çalışanlar, AI’nın hatalara eğilimli olmadığından ya da nasıl eğitildiğine bağlı olarak doğası gereği önyargılı olduğundan emin olabilirler mi?

Otomatik işlemlerin, anlayamayacağımız veya açıklayamayacağımız prosedürler aracılığıyla arzu edemeyeceğimiz sonuçlara yol açan kalıpları “öğrenmesi” tehlikesi vardır. Algoritmalar, toplumdaki mevcut yanlılığı ve ayrımcılığı devam ettirerek, AI’ın uygulanması konusunda güven eksikliği de yaşatabilir.

Örneğin, Virginia Üniversitesi’ndeki araştırmacılar yaygın olarak kullanılan veri görselleştirme seti üzerinde bir AI programını eğittiler ve daha sonra sistemin geleneksel toplumsal cinsiyet önyargılarını güçlendirdiğini keşfettiler. Peki, sistemler hata yaptığında sorumluların kim olmalıdır?

AI gündelik yaşamda da iş yaşamında da etkinliğini giderek artırıyor. Böyle bir durum söz konusu olduğunda, hata yapma ya da suç işleme ihtimali de yükseliyor. 2023 yılına kadar daha fazla kullanılır hale gelecek olan AI için hukukçular şimdiden çalışmaya başladı. Suçlu kim olacak?

Bu konuya 3 ayrı perspektiften bakılıyor:

Başkası aracılığı ile bir suç işlemek:

Bu tip suçlar, zihinsel engelli kişilerin ya da hayvanların işlediği suçları kapsıyor. Bu tip suçlarda zihinsel engelli kişileri ya da hayvanları o suçu yapmaya iten kişiler suçtan sorumlu tutuluyor. Yani yapay zekanın işlediği suç başkası aracılığı ile yaşanmışsa, bu durumda aynı işlem yapılarak sistemin sahibi sorumlu tutulabilir.

Sıradan işlemlerin suça neden olduğu olaylar:

Yapay zeka sıradan işlemlerini gerçekleştirirken suça neden olabilecek kararlar alabilir. 1981 yılında bir Japon motosiklet fabrikasında bir robotun insan bir işçinin ölümüne neden olduğu gerçeğini hatırlayın:

“Robot yanlışlıkla çalışanı görevine bir tehdit olarak algıladı ve bu tehditi yok etmenin en etkili yolunun, onu bitişiğindeki makineye itmek olduğunu hesapladı. Robot çok güçlü hidrolik kollarını kullanarak işçiyi makinenin içine itti ve anında ölümüne neden oldu. Sonrasında ise görevine devam etti.”

Bu tip olaylarda sorun yazılımcının böyle bir davranışı hesaba katmamasıdır. Yani sorumlu tutulacak kişi yapay zekalı robot değil, yazılımcı olabilir.

Doğrudan sorumluluk:

Hallevy’e göre, eğer sürücüsüz bir araba yolda hız limitini aşarsa, yasa arabayı o an kullanan cezai sorumluluğun yapay zekada olduğuna karar verebilir. Böyle bir durumda aracın sahibi işlenen suçtan hiçbir şekilde sorumlu olmayacaktır. Yani suçlu doğrudan yapay zekadır, ancak bu durumda yapay zekâ kim tarafından nasıl cezalandırılabilir?

Bu soruya şu an için herhangi bir cevap bulunmuyor.

Yapay zeka, insan varlığına tehdit mi olacak?

Elon Musk ve Stephen Hawking’in de aralarında bulunduğu bazı önde gelen teknoloji uzmanları, insan görünümünde yapay zeka oluşturmanın onu tehlikeli hale getireceğine inanıyorlar. Ancak, teorisyen Benjamin H Bratton, yapay zekânın bir tehdit olacağını düşünüyor, “o zeki ya da kötü olduğu için değil, bizler aptal olduğumuz için.”

“AI yanlış yollarla, tanıması zor olan, risklerini artıran ve faydalarını geciktiren formlarda ortaya çıkabilir”diye yazıyordu New York Times.

Ne yazık ki, en azından sayısız film, oyun ve kitapta tasvir edildiği gibi, popüler AI kavramı, hala insan benzeri özelliklerin (öfke, kıskançlık, kafa karışıklığı, gurur, arzu, yabancılaşma gibi) en önemlileri olduğunu düşünmekte.

San Diego California Üniversitesi’nde görsel sanatlar profesörü olan Benjamin H. Bratton, yapay zeka hakkında bir makale kaleme aldı. Bu makalede; “Gerçek” bir yapay zekanın, özellikle de odak noktası ve motivasyonu olarak, insanlık hakkında derinden ilgilenmesi gerektiği fikrini terk etmemiz gerektiğini savunuyorum. Belki de gerçekten korktuğumuz şey, bizi öldürmek isteyen bir Big Machine’den bile daha fazla, bizi ilgisiz olarak gören bir şey. Düşman olarak görülmekten daha kötüsü hiç görülmemektir.” diyor.

Makalenin tamamını okumak için tıklayın.



Bir Cevap Yazın