İnsan Hakları İzleme Örgütü: Çin, Azınlık Gruplarını Hedeflemek İçin Büyük Veri Kullanıyor

$config[ads_kvadrat] not found
Anonim

Çin hükümeti, Salı günü yayınlanan İnsan Hakları İzleme Raporuna göre, Sincan eyaletindeki etnik azınlıkları hedeflemek için öngörücü polislik algoritmaları kullanıyor.

Çin'in kuzeybatısındaki il, son yıllarda Çin hükümeti tarafından ayrımcılığa uğrayan bir Türk Müslüman etnik grubu olan 11 milyon Uygur'a ev sahipliği yapıyor.

Şimdi, yetkililerin siyasi sadakatsizlikten şüphelenilen kişileri sistematik olarak hedeflemek için büyük verileri kullandığı bildiriliyor. İtme, Çin'deki potansiyel terörist faaliyeti kesmeyi hedefleyen “Grev Zor” kampanyasının bir parçası. İnsan Hakları İzleme Örgütü, uygulamada bunun Uygurların polislik yapmamasına yol açtığını söylüyor.

IJOP - Entegre Ortak İşlemler Platformu - olarak bilinen öngörücü polislik sistemi, çeşitli gözetleme araçlarından verilerle beslenir. Bunlar arasında CCTV kameraları, güvenlik kontrol noktalarından elde edilen kimlik kartı ve vatandaş kimlik kartı numaraları ile sağlık, bankacılık ve yasal kayıtlar dahil olmak üzere bir kişisel bilgi hazinesi sayılabilir.

Otomatik gözetlemeye ek olarak, devlet yetkilileri, nüfus hakkında veri toplamak için ev içi ziyaretler gerçekleştirmektedir. Çinli bir işadamı, IJOP’un İnsan Hakları İzleme Örgütü’nün kayıtlarıyla doldurduğu bir formu paylaştı - diğer şeylerin yanı sıra, ankette işadamının Uygur olup olmadığını, ne sıklıkta dua ettiğini ve dini hizmetler için nereye gittiğini sordu.

Bu veri girişlerinin tümü IJOP tarafından insanları potansiyel tehdit olarak işaretlemek için kullanılmaktadır. Birisi işaretlendiğinde, polis daha fazla soruşturma açar ve şüpheli görünüyorsa onları gözaltına alır.

Çin Hakkı kıdemli araştırmacısı Maya Wang, “İlk defa, Çin hükümetinin büyük verileri ve öngörücü polisliği kullanmanın yalnızca gizlilik haklarını açıkça ihlal etmediğini, aynı zamanda yetkililerin keyfi olarak gözaltına alınmalarını sağladığını gösterebildik” dedi.

Rapora göre, işaretlenen kişilerin bir kısmı yargısız süresiz alıkonuldukları siyasi eğitim merkezlerine sevk edildi.

Raporda “İnsan Hakları İzleme Örgütü Nisan 2016'dan bu yana, Xinjiang yetkilileri on binlerce Uygur ve diğer etnik azınlıkları“ siyasi eğitim merkezlerine ”gönderdi.” Dedi. IJOP, ayrımcı tutuklamalara objektif, algoritmik bir analiz kaplaması uygulayarak bu tutuklamalara güvenilirlik kazandırmaktadır.

Sorunları daha da kötüleştirmek için, IJOP'un içsel çalışmaları gizlilik içinde örtülmüştür.

Wang, “Sincan'daki insanlar, günlük hayatlarının giderek daha müdahalesiz incelemesine karşı koyamıyor ya da itiraz edemiyorlar; çünkü çoğu, bu“ kara kutu ”programı ya da nasıl çalıştığını bile bilmiyor” dedi.

En karmaşık makine öğrenme sistemlerini rahatsız eden aynı problemdir: Kullandıkları karar prosedürleri algoritmanın yaratıcıları için bile opaktır.

Çin’in IJOP’i kullanması dikkat etmeye değer çünkü teknoloji geliştikçe öngörücü polisliğin artması bekleniyor. Jon Christian'ın işaret ettiği gibi Taslak ABD’de bazı yerlerde öngörücü polislik sistemleri zaten kullanılıyor. Los Angeles Polis Departmanı suçların nerede ve ne zaman olacağını tahmin eden bir yazılım kullanıyor, böylece memurlar onları yönlendirebiliyor.

Ceza adalet sisteminin diğer tarafında mahkeme salonları bazen hakimlerin daha bilinçli kararlar almasına yardımcı olmak için potansiyel şartlı tahliye şartlarına “risk değerlendirme” puanları veren algoritmalar kullanmaktadır. Ne yazık ki, sözde bu tarafsız algoritmalar aslında ırka dayalı ayrımcılık yapıyorlar.

Çin’in öngörücü polisliğe girme baskısı, makine öğreniminin kamu sektörüne girmeye devam etmesiyle sorumlu algoritma uygulamasının önemini vurgulamaktadır. Belki de teknoloji meraklısı hükümetlerin yeni bir mantra benimseme zamanı: Bazen yapay zeka çözdüğünden daha fazla sorun yaratıyor.

$config[ads_kvadrat] not found