Gelecekteki Rogue A.I. HAL 9000 Taklit Etmekten

Lett å være rebell i kjellerleiligheten din (Offisiell video)

Lett å være rebell i kjellerleiligheten din (Offisiell video)
Anonim

Geleceği nasıl durdurabiliriz A.I. emirlere uymamak ve kendi yoluna gitmeyi seçmekten? Arsa gibi gelebilir 2001: Bir Uzay Odyssey Ancak bir uzman, bunun hakkında düşünmeye başlamamız gerekebilecek bir şey olduğunu iddia ediyor. Tabii, Google arama algoritmasını kötü durumdaysa kapatabiliriz, ancak finansal ve yasal sonuçlarla karşılaştığımızda, söylenenden daha kolay olabilir. Gelecekte, daha gelişmiş A.I.'ye bağımlı olarak büyüdükçe, imkansız olabilir.

“Bu algoritma bilerek tasarlamıyor kendisi yeniden başlatmak veya kapatmak mümkün olmamakla birlikte, bu şekilde ortaklaşa geliştirildi ”dedi. İnsanlık Enstitüsünün Geleceği'nde Çarşamba günü yapılan Korsan Zirvesi'nde araştırmacı olan Stuart Armstrong. Bu, istemeden sonuçlanan bir değişikliğin düzeltilmesi zor olabileceği ve ilk A.I. Bu durumda kendini bulmak için.

Isaac Asimov’un çözümü, insanlara zarar vermemek gibi fikirleri zorlayan üç robotik yasasıydı. Sorun şu ki, zarar oldukça öznel ve yorumlamaya açık. İnsanlar, asla zarar vermemeleri gereken katı bir kural üzerinde çalışmaktan ziyade, zarar vermenin ve durumu yorumlamanın kötü olduğunu anlamak gibi değerler üzerinde çalışırlar.

Armstrong, “Bu tür bir sorun nedeniyle, insanların değerlerini elde etmek için bu geleneksel şekilde kodlamaya çalışmak yerine, makine öğrenmeyi kullanma konusunda şimdiden daha istekli oldukları” dedi. “Değerler, diğer şeylerin A.I.'de olmadığı şekilde kararlıdır. Değerler kendilerini doğal olarak savunurlar. ”

Ancak bu durumlarda bile, A.I.'yi tasarlamak önemlidir. Koşarken kesilmelerini sağlamak için. Güvenli kesilebilirlik, öğrenilen değerlerden istenmeyen sonuçları önleyebilecek güvenli politika değişikliklerine izin verir. HAL 9000, bölme kapılarının açılmasını engellemeye çalıştıysa, A.I.’nin değerlerinin berbat olduğunu tespit edip sistemi çevrimdışına almadan müdahale etmemiz önemlidir.