Bilim kurgunun gelecek vizyonları yapay zekanın (AI) birçok versiyonunu içerir, ancak yazılımın insan yargıçların yerini aldığı nispeten az sayıda örnek vardır. Bir kez olsun, gerçek dünya hikayelerde öngörülmeyen şekillerde değişiyor gibi görünüyor.

Şubat ayında Kolombiyalı bir yargıç ChatGPT’den bir sigorta davasında nasıl karar vereceği konusunda rehberlik istedi. Aynı tarihlerde Pakistanlı bir yargıç da iki ayrı davada verdiği kararları teyit etmek için ChatGPT’yi kullandı. Hindistan ve Bolivya’daki yargıçların da ChatGPT’den tavsiye istediğine dair haberler var.

Bunlar resmi olmayan deneylerdir, ancak bazı sistematik reform çabaları yapay zekayı içermektedir. Çin’de yargıçlara AI tarafından danışmanlık ve yardım sağlanmaktadır ve bu gelişmenin devam etmesi muhtemeldir. Yakın zamanda yaptığı bir konuşmada, İngiltere ve Galler’deki en kıdemli ikinci hakim olan Sir Geoffrey Vos, bu yargı alanındaki hukuk sistemi dijitalleştikçe, ticari davalar gibi bazı “daha az yoğun kişisel anlaşmazlıklara” karar vermek için AI’nin kullanılabileceğini öne sürdü.

Yapay zeka o kadar da akıllı değil

Bu başlangıçta iyi bir fikir gibi görünebilir. Yasaların tarafsız ve objektif bir şekilde, “korku ya da kayırma olmaksızın” uygulanması gerekiyor. Bazıları, bunu başarmak için bir bilgisayar programı kullanmaktan daha iyi bir yol olabilir mi? Yapay zekanın öğle tatiline ihtiyacı yoktur, rüşvet alamaz ve maaşına zam istemez. AI adaleti daha hızlı ve verimli bir şekilde uygulanabilir. Dolayısıyla gelecekte mahkeme salonlarında “robot yargıçlar” görecek miyiz?

Avrupa’nın en iyi akademisyenlerinden kanıta dayalı analizler içeren haftalık e-posta

Bunun iyi bir fikir olmamasının dört temel nedeni vardır. Bunlardan ilki, uygulamada AI’nin genellikle bir uzman sistem veya bir makine öğrenme sistemi olarak hareket etmesidir. Uzman sistemler, kuralların yazılımda bir karar ağacı olarak adlandırılan bir karar modeline ve sonuçlarına kodlanmasını içerir. Bunlar 1980’lerde hukuk alanında en parlak dönemlerini yaşamışlardır. Ancak, nihayetinde büyük ölçekte iyi sonuçlar veremedikleri kanıtlanmıştır.

Makine öğrenimi, zaman içinde yaptığı işi geliştiren bir yapay zeka biçimidir. Genellikle oldukça güçlüdür, ancak çok eğitimli bir tahminden daha fazla değildir. Güçlü yanlarından biri, verilerde hesaplama kapasitesine sahip olmadığımız korelasyonları ve kalıpları bulabilmesidir. Bununla birlikte, zayıf yönlerinden biri, insanların yaptığından farklı şekillerde başarısız olması ve açıkça yanlış olan sonuçlara ulaşmasıdır.

Kayda değer bir örnekte, bir yapay zeka bir kaplumbağayı silah olarak tanıması için kandırılmıştır. Yüz tanıma genellikle kadınları, çocukları ve koyu tenlileri doğru bir şekilde tanımlamakta sorun yaşar. Dolayısıyla yapay zekanın olay yerinde olmayan bir kişiyi de hatalı bir şekilde olay yerine yerleştirmesi mümkündür. Makine öğreniminin arkasındaki mantık şeffaf olmadığından, açıkça yanlış olan ama aynı zamanda gözden geçirilmesi çok zor olan sonuçlar üreten bir hukuk sistemine güvenmek zor olacaktır. “Kara Kutu Sorunu” olarak bilinen bu olgu, iç işleyişini anlama kabiliyetimizi geride bırakmıştır.

Yapay zeka yasal süreçlerde kullanıldığında ve başarısız olduğunda, sonuçları ağır olabilir. ChatGPT gibi AI sohbet robotlarının altında yatan teknoloji olan büyük dil modellerinin tamamen gerçek dışı metinler yazdığı bilinmektedir. Bu, yazılımın çıktısındaki bir sonraki kelimenin ne olması gerektiğini istatistiksel olarak belirlemek yerine düşündüğünü ima etse de, AI halüsinasyonu olarak bilinir.

Bu yıl, New York’lu bir avukatın ChatGPT’yi bir mahkemeye sunum yazmak için kullandığı, ancak mevcut olmayan davalara atıfta bulunduğunu keşfettiği ortaya çıktı. Bu durum, bu tür araçların henüz avukatların yerini alamadığını ve aslında hiçbir zaman da alamayacağını gösteriyor.

Tarihsel önyargılar

İkinci olarak, makine öğrenimi sistemleri geçmiş verilere dayanır. Suç ve hukuk alanında, bunlar genellikle önyargı içerecektir. Marjinal topluluklar genellikle tutuklama ve mahkumiyet kayıtlarında daha fazla yer alacaktır, bu nedenle bir yapay zeka sistemi belirli geçmişlerden gelen insanların suçlu olma ihtimalinin daha yüksek olduğu gibi yersiz bir sonuca varabilir.

Bunun önemli bir örneği, ABD’li hakimler tarafından kefalet ve ceza verme kararlarını vermek için kullanılan bir yapay zeka algoritması olan Compas sistemidir. Bir soruşturmada bu sistemin beyaz olmayan kişiler için “yanlış pozitifler”, beyazlar için ise “yanlış negatifler” ürettiği iddia edilmiştir. Başka bir deyişle sistem, beyaz olmayan kişilerin aslında suç işlemedikleri halde yeniden suç işleyeceklerini, beyazların ise suç işledikleri halde yeniden suç işlemeyeceklerini öne sürüyordu. Ancak sistemin geliştiricisi bu iddialara karşı çıkmaktadır.

Üçüncü olarak, yasal kuralların güvenilir bir şekilde yazılım kurallarına dönüştürülebileceği açık değildir. Bireyler aynı kuralı farklı şekillerde yorumlayacaktır. Hız sınırlarının uygulanmasını otomatik hale getirme görevi 52 programcıya verildiğinde, yazdıkları programlar aynı örnek veriler için çok farklı sayıda ceza kesmiştir.

Bireysel yargıçlar, kanunu farklı yorumlayabilir, ancak bunu kamuya açık olarak yaparlar ve temyizde bozulmaya tabidirler. Bu durum, en azından teoride, zaman içinde kararlardaki değişkenlik miktarını azaltmalıdır. Ancak bir programcı bir kuralı uygularken çok katı ya da çok yumuşak davranırsa, bunu keşfetmek ve düzeltmek çok zor olabilir.

Otomatik hükümet sistemleri, telafisi çok zor olan bir ölçekte ve hızda başarısız olur. Hollanda hükümeti sosyal yardım dolandırıcılığını tespit etmek için otomatik bir sistem (SyRI) kullanmış, bu sistem birçok aileyi yanlışlıkla suçlamış ve bu süreçte hayatları mahvetmiştir.

Avustralya “Çevrimiçi Uyum Müdahalesi” programı, sosyal yardım ödemesi alanların borçlarını otomatik olarak değerlendirmek için kullanılmaktadır. Genellikle “Robodebt” olarak bilinir. Bu program sınırlarını aşarak yüz binlerce insanı olumsuz etkilemiş ve Avustralya’da bir Kraliyet Komisyonuna konu olmuştur. (Kraliyet Komisyonları Avustralya’da kamusal öneme sahip konularda yürütülen soruşturmalardır).

Son olarak, hakimlerin yaptığı tek şey yargılama değildir. Hukuk sisteminde bir mahkeme salonunu, bir dava yükünü ve bir personel ekibini yönetmek gibi birçok başka rolleri vardır ve bunların yazılım programlarıyla değiştirilmesi daha da zor olacaktır.

Kaynak: //theconversation.com/ai-why-installing-robot-judges-in-courtrooms-is-a-really-bad-idea-208718