Misk, Wozniak, Hawking, Diğer Cinayetler Özerk Silahlara Karşı Çıkıyor

$config[ads_kvadrat] not found

Bünyamin Altınay da cinayeti itiraf etti - Müge Anlı İle Tatlı Sert 12 Kasım 2020

Bünyamin Altınay da cinayeti itiraf etti - Müge Anlı İle Tatlı Sert 12 Kasım 2020
Anonim

Yıllardır AK-47, dünyanın pek çok tozlu köşesinde tercih edilen ölüm makinesi olmuştur, çünkü ucuz, dayanıklı ve her yerde bulunur. Bu aynı etkenler, Future of Life Institute'dan Pazartesi günü yayınlanan açık bir mektubun imzacılarının, özerk silahların tehlikeyle dolu olmasının nedenidir. Ancak yapay zeka silahlarını Kalaşnikoflardan ayıran şey, özerk makinenin “insan müdahalesi olmadan hedefleri seçip kullanabileceği” - yanlış ellerde, hesapsız tüfeklerden çok daha büyük vahşetleri sürdürebilmesi.

İmzacılar çalışmalarını onlar için durdurdu. İnsanlar olarak, bir bütün olarak, tepki vermekten, düşünmekten çok daha iyiyiz. Büyük oyuncular nükleer silahlarımızı düşürmekte yavaş davranıyorlardı (ve otonom dronları inşa etmek, düşünce gider, bir nükleer bomba oluşturmaya giden makinelerin bir kısmını gerektirir); başka yerlerde kara mayınları hala on yıllardır süren savaş alanlarını işaret ediyor. Bir teknoloji savaşta devrim yapmak için durduğunda - barut veya deniz güçleri ya da zenginleştirilmiş uranyum olsun - neredeyse hiç yoktu değil Bir silahlanma yarışı oldu.

FLI şu an sahip olduğumuz dronlar arasında, insan elleriyle uzaktan kumanda edilen ve bir robot kendi katil cihazlarına bırakılan ve bırakan arasında bir ayrım yapar. İkincisinin yaratılması, FLI’nin iddia ettiği ve Kalaşnikof’un tarihinin gösterdiği gibi, küresel bir AI silahlanma yarışına yol açacaktır:

Karaborsada ve teröristlerin, nüfuslarını daha iyi kontrol etmek isteyen diktatörlerin, etnik temizliği yapmak isteyen savaş ağalarının, vb. Ortaya çıkmalarının sadece bir zaman meselesi olacak. Özerk silahlar suikast, istikrarsızlaştırma gibi işler için idealdir. milletler, nüfusu bastırmak ve belirli bir etnik grubu seçerek öldürmek. Bu nedenle askeri bir AI silahlanma yarışının insanlık için faydalı olmayacağına inanıyoruz. AI'nın insanları öldürmek için yeni araçlar yaratmadan savaş alanlarını insanlar, özellikle siviller için daha güvenli hale getirmesinin birçok yolu vardır.

Bu çok ağır bir şey. Ve bu uyarının arkasındaki isimler sizin değirmeninizdeki Skynet çatlaklarınız değil - onlar bugün teknolojimizin nasıl göründüğünü şekillendirmeye yardım eden yaratıcılar, mühendisler, bilim insanları ve filozoflar. İsimlerden birkaçı: Apple’ın Steve Wozniak’ı, Skype’tan Jaan Tallinn, Harvard fizikçi Lisa Randall, AI araştırmacıları ve robotistleri olan - Stuart Russell, Barbara J., Stephen Hawking.

Hawking, son zamanlarda biraz karamsar bir şekilde eğildi, dünya dışı yaşamla karşılaşmanın tehlikeleri hakkındaki öngörülerini yineledi. Ayrıca, bu hafta ve bu hafta Reddit'te teknolojinin geleceği hakkında soruları yanıtlayacak - düşman uzaylıları kontrol edemeyebiliriz, ancak insan faktörünü korumak için “bu teknolojinin ön saflarında yer alan bilim insanlarına olan onayı koyabiliriz” yeniliklerin önü ve merkezi. ”

İsminizi de mektuba ekleyebilirsiniz.

$config[ads_kvadrat] not found