Как защитить конфиденциальную информацию | NDA | Советы организаторам концертов | Защита прав
New York’taki Cornell Tech’teki üç araştırmacı, bulanık ve pikselli görüntülerin yapay zekaya uygun olmadığını keşfetti. Gizlenmiş görüntüler insan gözüyle anlaşılmaz kalsa da ve hassas içeriklerini korudukları görülse de, sinir ağları genellikle orijinal görüntüde kimin kim olduğunu söyleyebilir.
Başka bir deyişle, insanlar artık turnusol testi değildir. Artık sadece bir şeyin tüm insan beynini alt edip etmediğini soramayız. A.I.s - basit A.I.s - insanlardan daha iyi performans gösterebilir, bu yüzden onları da yenmek her zaman denklemin bir parçası olmalıdır.
Cornell Tech araştırmacıları, belirli bilgileri veya resim parçalarını bulanıklaştıran veya pikselleştiren gizlilik koruma algoritmalarını test etmeye odaklandı. Önceden, gizlice saklayan yazılımlara ya da algoritmalara dolaylı olarak güvenmiştik, gizlemiş oldukları bilgilerin güvenli olduğunu düşünerek. insan Dijital perdenin arkasında kimin olduğunu söyleyebilir. Çalışma, dönemin bittiğini ve ilgili anonimleştirme yöntemlerinin de uzun sürmeyeceğini gösteriyor. Bu gizlilik önlemleriyle birleşen sinir ağları etkilenmiyor.
Richard McPherson bir doktora bilgisayar bilimi dalında aday olan Texas Üniversitesi'nde, profesörü Vitaly Shmatikov'u Cornell Tech'e kadar takip etti. Birlikte, Reza Shokri ile birlikte, basit sinir ağlarının ortak görüntü şaşırtma tekniklerini kaldırabileceğini gösterdiler. Teknik göreceli olarak karmaşık olmayan bir yapıya sahip, bu da keşfi daha endişe verici hale getiriyor: Bunlar yaygın, erişilebilir yöntemler ve şaşırtmaca için endüstri normlarını alt edebildiler.
Sinir ağları beynin temel yapısını taklit eden büyük, katmanlı düğüm yapıları veya yapay nöronlardır. McPherson “Nöronların nasıl işlediğine dair basitleştirilmiş bir anlayışa dayanıyorlar” diyor McPherson Ters. “Bir miktar girdi verin, nöron ya yanar ya da yanmaz”
Ayrıca, terimin kabaca tanımlanmasıyla “öğrenme” yeteneğine de sahiptirler. Eğer bir yabani (tamamen öğretilmemiş) insana “kırmızı” bir şey gösterirseniz ve onlara “kırmızı” şeyleri bir kovadan toplamalarını söylerseniz, ilk başta mücadele ederler, ancak zamanla iyileşirler. Yani sinir ağları ile de. Makine öğrenmesi, bir bilgisayara “kırmızı” şeyleri, mesela alacalı şeylerden oluşan sanal bir kovadan seçmeyi öğretmek anlamına gelir.
McPherson ve şirket sinir ağlarını böyle eğitti. “Sistemimizde bir model oluşturuyoruz - sinir ağlarının bir mimarisi, bu yapay nöronların yapılandırılmış bir kümesi - ve daha sonra onlara çok fazla karışık görüntüler veriyoruz” diyor. “Mesela onlara yüzlerce farklı Carol fotoğrafını, belki de yüzlerce Bob'un pikselli fotoğraflarını verebiliriz.”
Araştırmacılar daha sonra bu pikselli görüntüleri etiketliyor ve böylelikle her resimdeki modeli anlatıyor. Bu veri setini işledikten sonra, ağ fonksiyonel olarak Pixelated Bob ve Pixelated Carol'ın neye benzediğini bilir. “Daha sonra etiketsiz Bob veya Carol'ın farklı pikselli bir resmini verebiliriz,” diyor McPherson, “Bir tahmin yapabilir ve“ Bu yüzde 95 doğrulukla Bob olduğunu düşünüyorum ”diyebilir.”
Model, karışık imajı yeniden yapılandırmaz, ancak en yaygın ve en güvenilir anonimleştirme yöntemlerini yenebildiği gerçeği, kendi içinde endişe vericidir. McPherson “Ne karıştırıldığını çözebiliyorlar, ancak aslen neye benzediğini bilmiyorlar” diyor.
Ancak sinir ağları hala insanlardan çok daha iyi şeyler yapabiliyor. Görüntüler, endüstri standardı tek bir teknik kullanılarak en fazla karıştırıldığında, sistem hala yüzde 50'nin üzerinde doğruydu. Biraz daha az karışık görüntüler için, sistem yaklaşık yüzde 70 doğrulukta dikkat çekici oldu. YouTube’un bulanıklaştırma yüzleri normu tamamen başarısız oldu; En bulanık görüntüler bile, sinir ağları tarafından yüzde 96 oranında ispatlandı.
Önceden lekelenmemiş diğer veriler, metin ve görüntü anonimleştirme teknikleri de aynı şekilde güvenilmezdir. McPherson, “Yaz boyunca, pikselleştirme ve bulanıklaştırma kullanarak anonimleştirme metnine bakan ve bunların da kırılabildiklerini gösteren bir çalışma vardı” diyor. Ve bir zamanlar güvenilir olan diğer yöntemler de kapıdan çıkmakta olabilir. Sesin gizleme tekniklerinin içini ve dışını bilmediği halde, anonim TV röportajları için kullanılanlar gibi, sinir ağları anonimleştirmeyi kırabilirse “şaşırmaz”.
McPherson'ın keşfi, “geçmişte sahip olduğumuz mahremiyeti koruma yöntemlerinin, özellikle de modern makine öğrenme teknikleriyle, gerçekten de işe yaramayacağını” kanıtlıyor. Diğer bir deyişle, kendimizi ilgisizlik, eğitim makineleri konusunda kodluyoruz. Tüm alemlerde bizi aşın.
Araştırmacılar, “Makine öğrenmenin gücü arttıkça, bu olumsuzluk rakiplerin lehine kayacak” dedi.
İşte Niçin 'Kara Şövalye' Videosu Oyun Eşliğinde Olmadı
Christopher Nolan'ın Kara Şövalyesi, tüm zamanların en başarılı filmlerinden biriydi. Sadece süper kahraman filmleri için değil, tüm sinema için. Dünya çapında brüt 1 milyar doların kuzeyinde duruyor. Teknik ve hikaye anlatma başarıları, Heath Ledger'in zamansız ölümünün ürkütücü gölgesinden uzak durur. Fakat...
Savaş Büyülü Üçlü, “Büyücüler” in Aşırı Duygusal Bölümünü Kapattı
İlk çıkışından bu yana, Sihirbazlar, diğer YA serilerinden, yalnızca yetişkinlere yönelik materyale dökülen yemeleri ayırmaya çalıştılar - korku-şiddeti ile ya da Brakebill'leri azgın Hogwarts'ı yapacağını tahmin ederek. Ancak, dün geceki duygusal yüklü bölüm, “Düzeltici Savaş Büyüsü”, her ikisini de kullandı ...
Yasanın Yürütülmesinin Geleceği Nedir? NTechLab adında bir Rus başlangıcı, yüz tanıma aracı olduğunu düşünüyor.
Google’ı yüz tanıma yazılımı yarışmasında yenen bir şirket olan NTechLab, kolluk kuvvetlerinin gözetleme yöntemlerinin iyileştirilmesi için kendisine yönelmesini umut ediyor.