A. I. Araştırma Enstitüsü Sorumlu Algoritmalar Nasıl Oluşturulur

$config[ads_kvadrat] not found

GHOSTEMANE - AI (OFFICIAL VIDEO)

GHOSTEMANE - AI (OFFICIAL VIDEO)
Anonim

AI Araştırma Enstitüsü AI, Çarşamba günü kamusal alanda algoritmaların sorumlu bir şekilde uygulanması için yeni öneriler yayınladı. Onların önerileri, hükümetin yapay zeka kullanımını inceleyen Ocak ayında New York Kent Konseyi tarafından oluşturulan bir görev gücüne yöneliktir.

AI Şimdi’nin raporu Algoritmik Etki Değerlendirmeleri: Kamu Kurumlarında Sorumlu Otomasyona Doğru, algoritmaların dağıtılması söz konusu olduğunda şeffaflığa duyulan ihtiyacı ortaya koyuyor. Algoritmaların günlük yaşamımız üzerinde büyük bir etkisi vardır, ancak etkileri bazen fark edilmez. Örneğin, sosyal medya ve video platformlarının altyapısına yerleştirildiği için, örneğin, programların çoğu zaman internet kullanıcıları için hangi içeriğin itildiğini belirlediğini unutmak kolaydır. Yalnızca bir şeyler ters gittiğinde, YouTube’un trend listesinin en üstüne çıkan bir komplo teorisi videosu gibi, çevrimiçi deneyimleri şekillendiren otomatik karar prosedürlerini gözden geçiriyoruz.

Algoritmalar internet platformlarıyla sınırlı değildir. Devlet kurumları, eğitimden ceza adaletine kadar çeşitli alanlarda algoritmalara giderek daha fazla bağımlı hale gelmiştir. İdeal bir dünyada, algoritmalar bir mahkumun şartlı tahliye edilip edilmemesi gerektiğini belirlemek gibi insanın önyargısını zor kararlardan alıkoyacaktır. Ancak uygulamada, algoritmalar ancak bunları yapan insanlar kadar etkilidir.

Örneğin, tarafından yapılan bir soruşturma ProPublica Mahkeme salonlarında kullanılan risk değerlendirme algoritmalarının ırksal önyargılı olduğunu göstermiştir. Daha da kötüsünü yapmak için, kamu sektöründe kullanılan algoritmaların birçoğu özel mülkiyettir ve bazı şirketler kendi yazılımlarının altındaki kodu paylaşmayı reddederler. Bu, sözde “kara kutu” algoritmalarının neden belirli sonuçlar verdiğini anlamayı imkansız kılıyor.

Şimdi AI tarafından sunulan bir olası çözüm? Algoritmik Etki Değerlendirmeleri. Bu değerlendirmeler tam bir şeffaflık normu oluşturuyor, yani algoritmalar kullanan devlet kurumlarının ne zaman ve nasıl kullandıklarını duyurmaları gerekiyor. Raporda, "Bu gereksinim, halka hizmet etmek için hangi teknolojilerin kullanıldığına ve hesap verebilirlik araştırmalarının nereye odaklanması gerektiğine ışık tutmaya doğru uzun bir yol kat edecektir." Dedi.

Çevresel algoritmaları çevreleyen bir açıklık politikası vatandaşların kullanımlarını incelemeleri ve protesto etmeleri için de bir kapı açacaktır. Kontrolünüz dışındaki faktörlere dayanarak size bir risk değerlendirme puanı veren bir algoritma ister misiniz, özellikle bu puan hapse girip girmeyeceğinize karar vermenize yardımcı olabilir mi? Belki evet belki hayır. Her iki durumda da, algoritma tarafından hangi değişkenlerin analiz edildiğini tam olarak bilmek önemlidir.

Ayrıca, AI Now, insanların haksız algoritmalara karşı lobi yapmaları için yasal bir standart belirlemeyi tavsiye ediyor.

Örneğin, bir ajans, otomatik kararlar alanların kapsamına giren sistemleri makul bir şekilde ifşa edemiyorsa veya satıcıların ticari işlemlerde gizli talepte bulunmalarına izin veriyorsa ve böylece anlamlı sistem erişimini engelliyorsa, halkın endişelerini dile getirme şansı olmalıdır Bir ajansın gözetim organı ya da ajansın kamuoyunun yorum döneminden sonra bu sorunları düzeltmeyi reddetmesi durumunda doğrudan bir mahkemede.

Öneriler temelde bir genel görevi yerine getirmektedir: Algoritmalar kullanıyorsanız, bu konuda gölgeli olmayın.

Raporun tamamını buradan okuyun.

$config[ads_kvadrat] not found