ISIS'e Karşı Öğrenme Silah Silahlama Makinesi Askeri Komuta Zincirlerini Dolaştırıyor

$config[ads_kvadrat] not found

Joyner Lucas ft. Logic - ISIS (ADHD)

Joyner Lucas ft. Logic - ISIS (ADHD)
Anonim

İnternetteki herkes, birkaç saat içinde ırkçı bir Holokost inkarcısı olan Microsoft'un Twitter robotu Tay ile harika zaman geçirdi (daha sonra geri geldi ve tekrar yaptı). Şirket, halkla ilişkiler flapı yarattı - bir felaketten daha fazla olay - kamuoyuna makine öğrenmesinin artıları ve eksileri hakkında bir nesne dersi verirken: Otomasyon, hızla etkileyici etkiyi düzenleyebilir, ancak sonuçların tahmin edilmesi zor olacak..

Çoğu zaman olduğu gibi, ordu otomasyon teknolojisinin erken bir uygulayıcısıdır. - Bir zamanlar - yükü makine öğrenmeye yönlendirmek ve çaresizce ayakta kalmak için çabalamaktır. Pentagon'un ana odak noktalarından biri, özerk robotlar ve örneğin insanlarla nasıl bir araya gelecekleri - örneğin R2D2 tarzı bir robot kanadıncı. Fakat bu hafta, Savunma Sekreteri Yardımcısı Robert Work, A.I.: açık kaynaklı veri sıkıştırması için başka bir görev belirledi.

Sekreter Çalışması'na göre, “Derin öğrenen makinelerin kullanılmasının, ISIL'i bir ağ olarak daha iyi anlayabilmemize ve onu tam olarak nasıl hedefleyeceğimizi ve yenilgisine yol açmamızı daha iyi anlayabilmemize izin vereceğinden kesinlikle eminiz” dedi. DoD'un web sitesi. Bu hesaba göre, İşçi tarafından düzenlenen bir etkinlikte konuşma yapan Washington Post, bir Silikon Vadisi teknoloji firmasını “Twitter, Instagram ve diğer birçok kamu kaynağından Temmuz 2014 Malezya Hava Yolları Uçuş 17'nin gerçek zamanlı olarak vurulmasını göstermek için veri alan bir makine” olarak gösteren bir makine gösterisini izlerken izletti.

Özel şirketler ve kolluk kuvvetleri uzun zamandır “büyük veriler” anlamında çaba harcıyorlar. Ancak ordunun bir avantajı var: kaynak. Ayrıca, sınıflandırılmış malzemelere erişimi var.

ABD hükümeti, yazılım algoritmalarının, diğerlerinden kaçacak olan ISIS hedeflerini belirlemek ve planlamacıları gerçekleştirmeden önce arazileri tespit etmek ve bozmak için büyük miktarda veriyi kullanarak sıralamada bulunabileceklerine bahse girmeye hazır görünüyor. Hükümet zaten çevrimiçi protestoların boyutunu tahmin etmek için sosyal medya üzerinde çalışıyor. Makine öğrenmenin, istihbarat analistlerine, dünyadaki mevcut bilgi hazinesi anlamında güç artırma gücü vereceği sorusu yoktur. Ancak bu istihbarat ölümcül bir grevin yapıldığı temel haline geldiğinde, etik meseleler basit görünseler bile daha karmaşık hale gelir.

Her ne kadar Work Pentagon'un “makineye ölümcül otorite devretmeyeceğini” söyleyemeyeceğini söyleseydi, oyunun sonu. Bu arada, insanlar jargon ilerledikçe “döngüde” kalacaktır. Ancak bir pencerenin yanında dururken hava durumu raporu için bir iPhone'a bakan herkesin bildiği gibi, cihazlarımız ve yazılımlarımızla olan ilişkilerimiz basit değildir. Sorunlu bir şekilde güvenilir ve UI sorunlarıyla kolayca dikkatiniz dağılıyor.

İnsanların makinelere erteleme eğilimi olan “otomasyon yanlılığı” açık ve giderek artan bir tehlike arz ediyor. Bu fenomeni örneklendirmenin en iyi yolu, telefonunuzun size bildiğiniz bir seyahat rotasına gitmenizi söylemesidir, ancak telefonun bilmediğiniz bir şeyi bilmesi gerektiğini varsayarsak yine de yaparsınız. Bu, askeri olmayan bağlamlarda yaygın bir sorundur. Pentagon’un daha da yaklaştığı görünen şey, yapay zekanın oluşturduğu tehdit raporları. Bu programın potansiyel etkinliği hakkında, insanların uygulanması zor olacak olandan başka bir şey bilmiyoruz.

Araştırmacılar, öğrencilere ve profesyonel pilotlara ve otomasyon yanlılığına ilişkin bir 2001 makalesinde, araştırmacılar “otomasyon anormalliklerini çapraz kontrol etmek ve tespit etmek için doğru bilginin mevcut olduğu senaryolarda, her iki popülasyonda da% 55'e yaklaşan hata oranlarının belgelendiğini” bulmuşlardır. ek bir insan takım arkadaşı ekleyerek sorunu hafifletmedi.

Benzer şekilde, geçen yıl yapılan bir MIT çalışması, bilgisayar ve video oyun oyuncularının “aşırı otomasyona karşı daha yüksek bir eğilime sahip” olduğunu rahatsız edici bir şekilde buldu. Bu, ekranlarımıza baktıkça daha fazla zaman harcadıkça gördüklerimize güvendiğimiz anlamına geliyor. Yine, sorun bizim kullandığımız sistemlerle değil, onları kullanma şeklimizle alakalı. Hata bizim yıldızlarımızda değil kendimizde.

Büyük veri umut verici olmaya devam ediyor. Makine öğrenimi umut verici olmaya devam ediyor. Ancak makineler insanlara tavsiyelerde bulunduğunda, sonuçlar tahmin edilebileceği gibi tahmin edilemez. Tay’in neo-Nazi misoginizcisine dönüşmesi, Twitter’ın Yahudilerden ve kadınlardan nefret ettiği anlamına mı geliyor? Bunu bilmek zor, ama oldukça düşük bir ihtimal. Girdilerin çıktı haline gelme sürecini anlamadığımız zaman, sonuçları rasyonel bir şekilde ele almakta zorlanıyoruz. Bu Pentagon'u ilginç bir konuma sokuyor. Ordunun makine öğrenme yazılımını programlayan insanlar hava saldırısı düzenleyenler olacak mı? Bu, emir komuta zincirinin işleyiş şekli değildir, ancak teknoloji devreye girdiğinde emir zincirleri birbirine karışıyor.

$config[ads_kvadrat] not found