J. Doyne Farmer - Mahkemeler, yapay zeka çağında adaleti koruyabilir mi?
Mahkemeler, yapay zeka çağında adaleti koruyabilir mi?
J. Doyne Farmer
Ceza adalet sisteminde, bireylerin ne zaman ve ne kadar süreyle tutuklanacağına ilişkin kararlar tarihsel olarak hakimler ve şartlı tahliye kurulları gibi başkaları tarafından alınmıştır. Ancak, bu süreç değişmektedir: Karar vericiler, suç tahmininden DNA analizine ve hapis cezası önerilerine kadar çeşitli görevlerde yapay zeka sistemlerini giderek daha fazla kullanmaktadır. Bu alanlarda yapay zekanın kullanılması, bu bilgi işlem sistemlerinin tahmin ve öneriler yapmak için verileri nasıl kullandığına dair acil soruların yanı sıra, yapay zeka çağında adaletin nasıl korunacağına dair daha büyük sorular da gündeme getirmektedir.
Özellikle, birçok yapay zeka sistemi “kara kutu” niteliğindedir, yani davranışları ve karar verme süreçleri incelemeye kapalıdır. Bu durum, halkın güveni ve yargıçlar gibi kilit aktörlerin hesap verebilirliğinin, hayatı değiştiren kararların nasıl ve neden alındığının anlaşılmasına bağlı olduğu adalet sisteminde bir sorun oluşturmaktadır. Ayrıca, bir kara kutu sistemi istatistiksel olarak adil ve doğru olsa bile, anayasal sistemimizin gerektirdiği usul adaleti standartlarını karşılamayabilir.
Ulusal Adalet Enstitüsü (National Institute of Justice - NIJ), Nisan 2024'te, ceza adalet sisteminde yapay zekanın güvenli ve etkili kullanımına ilişkin gelecekteki kılavuzların hazırlanmasına yardımcı olabilecek bilgileri içeren bir kamu talebi yayınladı. Güncel sorunlarla ilgili yenilikçi bilgisayar araştırmalarına odaklanan büyük bir kuruluş olan Bilgisayar Araştırmaları Derneği (Computing Research Association), akademik kurumlardan ve endüstriden uzmanlardan oluşan bir ekip oluşturarak NIJ'ye sunulmak üzere bir yorum hazırladı. SFI Profesörü Cris Moore ve Dış Profesör Stephanie Forrest (Arizona State University) bu yorumun yazarları arasındaydı. Grubun argümanı açıktı: Anayasal hakların söz konusu olduğu durumlarda, gizli süreçler içeren yapay zeka kullanılarak kritik kararlar alınmamalıdır.
Yazarlar, “Ne sanıkların, ne avukatlarının, ne de hakimlerin anlayamadığı şeffaf olmayan bir sistemin, bir kişinin özgürlüğüyle ilgili önemli kararlarda rol oynayabileceği fikri, bireyselleştirilmiş adalet sistemimize aykırıdır” diye belirtti. “Şeffaf olmayan bir sistem, sanığın karşı karşıya gelemeyeceği bir suçlayıcıdır; çapraz sorguya çekemeyeceği, itiraz edemeyeceği kanıtlar sunan bir tanıktır.”
Bu Ağustos ayında, grup ACM Communications dergisinde yayınlanan bir görüşle konuyu takip etti. NIJ'nin sorgusuna neden olan orijinal 14110 sayılı Başkanlık Kararnamesi iptal edilmiş olsa da, yeni 13859 sayılı Başkanlık Kararnamesi, AI'nın güvenli bir şekilde test edilmesini ve “Yapay zeka teknolojilerine halkın güvenini ve inancını artırmayı ve bunların uygulanmasında sivil özgürlükleri, mahremiyeti ve Amerikan değerlerini korumayı” talep ediyor.
Moore, ceza adaleti ortamında, AI teknolojilerinin ancak mevcut sistemin adaletini ve şeffaflığını iyileştirmeleri halinde bu amaca uygun olacağını söylüyor. Bu, yapay zekayı çekici kılan unsurlardan biri. Sonuçta, insan karar verme süreçleri de her zaman şeffaf değildir.
Moore, “Yapay zeka, yargı sistemini daha şeffaf ve hesap verebilir hale getiriyorsa kullanmalıyız. Aksi takdirde kullanmamalıyız” diyor.
O ve işbirlikçileri, Mayıs 2024'te NIJ'ye görüşlerini sundular. Adalet Bakanlığı'nın, cezalandırma ve diğer davalarda yapay zekanın adil ve faydalı kullanımıyla ilgili yeni kılavuzlar geliştirirken ve uygularken dikkate alması gereken temel argümanları vurguladılar. Bu argümanların çoğu şeffaflığın gerekliliğini vurguluyordu: Yapay zekayı kullanan veya yapay zeka tarafından üretilen bir öneriden etkilenen herkes, yapay zekanın kullandığı verileri ve önerilerine veya risk puanlarına nasıl ulaştığını açıkça anlamalıdır. Ayrıca uzmanlar, yargıcın yapay zeka sisteminden gelen rehberliği kullanma prosedürünün açık olması gerektiğini de tavsiye ettiler.
Bazı araştırmacılar, şeffaflığın artırılmasının yapay sisteminin yararlılığını azaltabileceği konusunda uyarıda bulunmuşlardır, ancak son birkaç yılda, “açıklanabilir yapay zeka” alanındaki araştırmacılar, bu modellerin bilgileri nasıl işlediğini ve girdileri nasıl ürettiğini aydınlatmaya yardımcı olan yaklaşımlar geliştirmişlerdir.
Açıklanabilir yapay zeka sistemleri yardımcı olabilir, ancak Moore şeffaflığı tanımlamanın çeşitli yolları olduğunu belirtiyor. Şeffaflık, herkesin sinir ağının arkasındaki bilgisayar kodunu ve matematiği anlaması anlamına gelmez. Hangi verilerin nasıl kullanıldığını anlamak anlamına gelebilir. Moore, kredi derecelendirme şirketlerinin kredi kararları almak ve derecelendirmeler belirlemek için kullandıkları tüketici bilgilerini açıklamalarını gerektiren Adil Kredi Raporlama Yasası'na (Fair Credit Reporting Act - FCRA) işaret ediyor. Moore, şirketlerin süreçlerini gizli tutabileceklerini, ancak tüketicilerin algoritmada kullanılan bilgileri kolayca indirebileceklerini söylüyor. Ayrıca, tüketicilere bu verilerin doğru olmaması durumunda itiraz etme hakkı da veriyor. Öte yandan, FCRA'nın tüketicilerin algoritmanın verileriyle doğru şeyi yapıp yapmadığını sorgulamasına izin vermediğini belirtiyor. “Sadece girdileri ve çıktıları değil, bir yapay zekanın iç işleyişini de görebilmek önemlidir” diyor.
Şeffaflık ile ilgili önerilerin yanı sıra, araştırmacılar yapay zeka sistemlerinin çıktılarının spesifik ve niceliksel olması gerektiğini tavsiye ettiler — örneğin, bir şüpheliyi “yüksek riskli” gibi bir etiketle tanımlamak yerine, “şiddet içeren bir suçtan dolayı yeniden tutuklanma olasılığı yüzde 7” şeklinde raporlama yapılması gerektiğini belirttiler. Moore, niteliksel etiketlerin yanlış yorumlamaya çok fazla alan bıraktığını söylüyor.
Moore, “Yargıç, sistemin çıktısının ne anlama geldiğini, yapabileceği hataları da dahil olmak üzere anlarsa, bu sistemlerin yararlı araçlar olabileceğini düşünüyorum” diyor. “Yargıçların yerini almak için değil, ortalama veya temel bir öneri sağlamak için.”
Yazarlar, özellikle bir kişinin tutuklanması ve anayasal haklarının söz konusu olduğu durumlarda, yapay zeka sistemlerinin insan karar vericilerin yerini asla tamamen almaması gerektiği konusunda uyarıda bulundu. En uygun senaryoda, yapay zeka sistemleri, yargıç veya diğer karar vericiler tarafından dikkate alınan çıktıları, davayla ilgili diğer faktörlerle birlikte üreten bir tür dijital danışman haline gelebilir. Moore, “Ancak her zaman yapay zekanın önerisini açıklamaya ve bunun nasıl üretildiğini sorgulamaya hazır olmalıyız” diyor.
