Bu Robot İnsan Taleplerine Nasıl “Hayır” Dediğini Öğrendi

$config[ads_kvadrat] not found

Yılan robotlar depremde hayat kurtarabilir

Yılan robotlar depremde hayat kurtarabilir
Anonim

Robotlar, tıpkı insanlar gibi, ne zaman “hayır” deyince öğrenmek zorundadırlar. Eğer bir istek imkansız olursa, zarar verebilir veya onları eldeki görevden uzaklaştırırsa, o zaman bir 'bot'un ve onun insanının yararınadır. diplomatik için hayır teşekkürler konuşmanın bir parçası olmak.

Fakat bir makine ne zaman geri konuşmalı? Ve hangi koşullar altında? Mühendisler, insansılara verilen emirlere nasıl ve ne zaman karşı koyacağına dair bu duyguyu nasıl aşılayacağına karar vermeye çalışıyorlar.

Bu Nao robotunun ileriye doğru yürümeyi reddettiğini, bunun böyle bir masanın kenarından düşmesine neden olacağını bilerek izleyin:

Basit şeyler, ama insan hatasını kontrol etmek için kesinlikle gerekli. Araştırmacılar Gordon Briggs ve Tufts Üniversitesi'nden Matthias Scheutz, robottan bir insandan ne yapmasını istediğini değerlendirmesini, yapıp yapmamaya karar vermesini ve uygun şekilde yanıt vermesini sağlayan karmaşık bir algoritma geliştirdi. Araştırma, Yapay Zekanın Geliştirilmesi Derneği'nin yakın tarihli bir toplantısında sunuldu.

Robot, görevin yapılıp yapamayacağı ile ilgili bir dizi soru sorar. Nasıl yapıldığını biliyor muyum? Şimdi fiziksel olarak yapabiliyor muyum? Normalde fiziksel olarak yapabiliyor muyum? Bunu şimdi yapabilir miyim? Bunu yapmak için sosyal rolüme dayanmak zorunda mıyım? Bunu yapmak için herhangi bir normatif ilkeyi ihlal ediyor mu?

Sonuç sadece mantıklı görünmeyen, bir gün bile akıllıca görünen bir robot.

Nao, insanın onu yakalamaya söz verdikten sonra ileri gitmekle ilgili fikrini nasıl değiştirdiğine dikkat edin. Robotun “Mümkün değil, neden sana güveneyim?” Dediği farklı bir senaryo düşünmek kolay olurdu.

Fakat Nao, tasarım yoluyla sosyal bir yaratıktır. İnsanları memnun etmek için DNA'sında olduğu için, insanın onu yakalamak istediği bilgisine bakıldığında, kör bir şekilde uçuruma doğru ilerler. Tabii, eğer insan güvenini aldatsaydı, kasnaklanırdı, ama yine de güvenirdi. Nao’nun yolu bu.

Robot yoldaşları daha sofistike hale geldikçe, robot mühendisleri bu sorularla uğraşmak zorunda kalacaklar. Robotlar sadece kendi güvenliğini korumakla kalmayıp daha büyük etik sorularla da karar vermek zorunda kalacaklar. Ya bir insan bir robottan öldürmesini isterse? Dolandırıcılık yapmak için mi? Başka bir robotu yok etmek için mi?

Makine etiği fikri yapay zekadan ayrılamaz - geleceğin sürücüsüz arabalarının bile bizim adımıza yaşam ya da ölüm seçimleri yapmak için tasarlanması gerekecek. Bu konuşma mutlaka yürüyüş emirleri sunmaktan daha karmaşık olacak.

$config[ads_kvadrat] not found