ABD’deki Yanlış Tutuklamalardan AI Sorumlu mu?

Makine öğrenimi algoritmalarıyla yaptığınız popüler tarama, Facebook günlük haber akışı veya Snapchat veya Google’ın arama sonuçlarındaysa, yapay zekanın büyük bir kişisel etkisi yok gibi görünüyor. Ancak teknoloji uzmanları, hukuk uzmanları ve siyasi liderler geçtiğimiz hafta sonu Siyahlar için Bilgi Konferansı ‘nda Amerika’nın ceza adaleti sistemi tartışmasıyla olayları bakış açısına göre parçaladılar. Kendi hayatınızın gidişatının bir algoritma ile hesaplanabileceği yer.

ABD’de dünyadaki diğer ülkelere göre daha fazla insan hapsedildi. 2016 yılı sonuna kadar 2,2 değirmene yakın kişi hapishanelerde veya hapishanelerde tutuldu ve tahmini 4,5 değirmen diğer cezai tesislerde barındırıldı. Başka bir deyişle, 38 yetişkin Amerikalıdan biri bir tür cezai gözetim altındaydı. Bu senaryonun kötü yanı, koridorun her iki tarafındaki politikacıların hizaladığı çok az şeyden biri.

Şiddette artışa neden olmadan mahkum sayısını düşürmek için muazzam bir baskı altında olan ABD genelindeki mahkeme salonları, suçluları yargı sistemi genelinde olabildiğince hızlı ve etkili bir şekilde hareket ettirmek için elektronik cihazlara geçti. Hikayemizin AI tarafına burada devam ediyoruz.

Polis teşkilatları, rütbelerinin nereye gönderileceğini strateji haline getirmek için tahmine dayalı analitik kullanır. NBCNews, kolluk kuvvetlerinin suçluları tanımaya yardımcı olmak için yüz tanıma cihazlarını kullandığını söylüyor. Bu tür politikalar, sağlığı gerçekten geliştirip geliştirmedikleri veya yalnızca sosyal eşitsizlikleri sürdürüp sürdürmedikleri konusunda haklı bir ilgi görmüştür. Örneğin, araştırmacılar ve sivil haklar aktivistleri, Kongre üyelerini suçlu suçlularla karıştıranlar bile, özellikle koyu tenli bireyler için yüz tanıma süreçlerinin olağanüstü bir şekilde başarısız olabileceğini defalarca göstermiştir.

Yine de en bölücü yöntem, polis tarafından tutuklandıktan sonra açık ara ortaya çıkıyor. Suç riskini belirlemeye yönelik algoritmalara merhaba deyin.

Risk değerlendirme sistemleri temel bir şeyi yapacak şekilde yapılandırılmıştır: bir sanığın geçmişinin özelliklerini dikkate alın ve bir tekrarlama puanı verin — yeniden suçlama olasılığını ölçen bir sayı. Bundan sonra bir yargıç, bireysel suçluların ne tür bir iyileşme tedavisi alacağına, cezaya kadar hapiste tutulup tutulmayacaklarına ve duruşmalarının ne kadar ciddi olması gerektiğine karar verecek çeşitli seçeneklere faktörler attı. Kötü bir skor, daha olgunlaşmamış bir kaderin tek yolunu açar. Yüksek bir skor tam tersini yapar.

Bu algoritmik yöntemleri kullanmanın gerekçesi, suç faaliyetlerini doğru tahmin ederseniz, rehabilitasyon veya hapis cezası için sonuç olarak kaynaklar atayabilmenizdir. Prensip olarak, yargıçlar bağırsaklarından değil, kanıtlarla yönlendirilen tavsiyenin temeli hakkında karar verdikleri için süreci etkileyen herhangi bir önyargıyı da azaltır.

Muhtemelen asıl sorunu daha önce fark etmişsinizdir. Modern risk değerlendirme araçları, daha önce tartıştığımız gibi, sonuçlardaki eğilimleri belirlemek için istatistikleri kullanan, çoğunlukla tarihi suç verileri Makine öğrenimi süreçleri üzerine eğitilmiş algoritmalar tarafından desteklenmektedir. Ve eğer onu suçla ilgili geçmiş verilerle doldurursanız, suçla ilgili eğilimleri seçecektir. Yine de bu eğilimler istatistik korelasyonlarıdır – hiçbir yere yaklaşmamakla aynıdır. Örneğin, bir süreç düşük gelirin yüksek nüksle bağlantılı olduğunu tespit ederse, düşük gelirin gerçekte suçu nasıl tetiklediği konusunda hiçbir bilginiz olmaz. Yine de risk değerlendirme yöntemlerinin yaptığı şey budur: korelasyonel gözlemleri nedensel puanlama için çerçevelere dönüştürürler.

Bir cevap yazın

E-posta hesabınız yayımlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir