Georgia Tech'in Klişeleşme Robotu AI'ın Geleceği, Irkçılık Değil

$config[ads_kvadrat] not found

GEORGIA TECH CAMPUS TOUR

GEORGIA TECH CAMPUS TOUR
Anonim

Okul sonrası özel ve çeşitlilik seminerleri ile duyarlı hale getirilmiş kulaklar için bu kötü gelecektir, ancak robotların görünüme dayalı hızlı kararlar vermelerini istiyoruz. Önyargıyı aşmak iyidir, ancak klişeleştirilememek zekayı azaltır - yapay ve başka türlü. Alan Tech, Georgia Tech’teki bir robotist olan Ph.D., basmakalıp teknolojisinin baş savunucusu. Bu tür bir mantığın sadece durumlar ve davranışlar olmak üzere ırk veya cinsiyete uygulanması gerekmediğini savunuyor.

Kalıplaşmış algoritmasının ilk testinde, Wagner gördüğü şeyden sonuç çıkarmak için naif bir robot eğitti. Robot öğrendi ve algılandı; bu da Wagner'in robot programlarının etiği, özellikle önceden programlanmış olanlar hakkında eleştirel düşünmeye başlamasına izin verdi. Konuştu Ters çalışmaları ve sonuçları hakkında.

Deneyin nasıl yürüdüğünü anlat bana.

Robot, farklı tür bireylerle - itfaiyeci, EMT veya ne olursa olsun - etkileşime girer, ancak bu kategorideki bireylerin hiçbiriyle ilgili önceden hiçbir deneyimi yoktur. Temel olarak deneysel öğrenmedir.

Fikir, robotun, araç kullanımı açısından ihtiyaçlarını öngörmek için bireyin algısal özelliklerini kullanabileceğini göstermektı. Algoritmanın çalışma şekli, robotun kamerası, bireyin nasıl göründüğünün farklı yönlerini algılayacaktır - örneğin, sakalı olup olmadıkları gibi tek tip renkleri ve saç rengini.

Ayrıca onlara nasıl göründükleri hakkında sorular sorardı. Elbette, sorular sormak, sahada yapmak istedikleriniz değildir, ancak robotun algısı şu anda çok sınırlıdır. Bir insan hakkında bilgi edinme sürecini önyüklemenin bir yoluna ihtiyacımız vardı. Kişi aracı seçer ve ardından robot aracı seçer ve zamanla robot hangi kişi tipini tercih edeceğini öğrenirdi.

Robotun bir rozetin polis memuru anlamına geldiğini veya ağır yansıtıcı bir paltonun itfaiyeci anlamına geldiğini öğrenmesini beklediniz mi?

Beklediğimiz gibi. Fakat bazı şaşırtıcı şeyler de oldu.Örneğin, robot yanlış bir sakalın bir itfaiyeci ile tahmin edildiğini kabul etti - garipti, ancak verilere baktığınızda, şaşırtıcı değildi. Onunla etkileşime giren ilk birkaç kişi sakalları olan itfaiyecilerdi. Bu yüzden, algısal çeşitliliğe ihtiyaç duyulduğunu, robotun bir kategorideki büyük, genel olarak farklı tipteki bireyleri görebilmesi durumunda, kategoriyi daha iyi geliştirip anlayacağı fikrini savunuyoruz.

Özerk robotların bu tuhaflıkları gidermek için eğitilmesi gerektiğini söyler misiniz, yani bir robotun sakalı olması durumunda itfaiyeci olduğunu düşünmez mi?

Kesinlikle. Bunları ütülenmemiz çok önemli. Farklı robot grubundan çalışan bu robotlara sahip olmamız kritik.

Bu öğrenme neye benzeyebilir?

Robotun itfaiyecileri daha iyi karakterize eden şeylere odaklanmasına izin verirdi. Örneğin, bir itfaiyeci ceketi bile giymiyor olabilir. Robot daha sonra yangınla mücadelenin diğer yönlerini, belki botları, belki eldivenleri, kasklarını fark edecektir. “Tamam, bu insan gerçekten olduğu bu ortamda bir itfaiyeci. ”

Yeterince insanınız varsa, bir Cadılar Bayramı partisinde bir itfaiyeciye karşı bir yangında itfaiyeciyi tanımak mümkün olabilir. Üniforma türlerinin kalitesi veya bağlamsal ortamlar arasındaki fark gibi ince algısal ayrıntıları.

Sakalları itfaiyecilerle ilişkilendirmenin yanı sıra, bu algoritma ne kadar başarılı oldu?

Gerçekten bakmak istediğimiz iki şey vardı: Birincisi, bununla ne yapabilirsin? Robotlar itfaiyecileri tanıyabilirse, bu gerçekten bir şekilde yardımcı olur mu? Belge, aramanızı daraltmanıza izin verdiğini gösterdi. Saç renginde sakallara bakmak, göz rengini aramak veya başka bir şey arayabilirseniz, gerçekten önemli olan özelliklere odaklanabilirsiniz. İtfaiyeci palto giyen kişi mi? Bu süreci hızlandırabilir.

Baktığımız bir diğer kritik şey ise, robotun tahmin ettiği kategori yanlışsa ne olur? Bu sizi nasıl etkiler? Arama kurtarma ortamlarının kaotik olabileceğini hayal edebilirsiniz: Dumanla dolu koşullarda çalışıyor olabilirsiniz, robot her şeyi çok iyi algılayamayabilir, hataları olabilir. Daha gerçekte, itfaiyeci olduklarında robotun kurban olduğunu düşündüğü daha kötü bir durum düşünebilirsiniz. Demek bir itfaiyeciyi kurtarmaya çalışıyor. Bu korkunç olurdu. Nerede kırıldığını, nasıl kırıldığını, onu en çok hangi özelliklerin etkilediğini ve farklı hata türlerinin neler olduğunu görmek istedik.

Bu yaklaşımı farklı şekillerde kullanabilirsiniz - kişiyi hiç göremiyorlarsa ancak yaptıkları eylemleri görebilirler. Baltayı seçen kişiyi görebilirsem, kaskları olduğunu tahmin edebilirim.

Bağlamı değerlendirmek ve bir tahminde bulunmak için bir robot almaya nasıl yaklaşıyorsunuz?

Bir kaç farklı ortam türüne bakmaya çalıştık: bir restoran, bir okul ve bir huzurevi. Çevre ve çevredeki hangi nesnelerin olduğu, hangi eylemleri seçtiği ve çevredeki insanların nasıl göründüğü ile ilgili özellikleri yakalamaya çalıştık ve bunu birçok sosyal öngörüde bulunmak için kullanmaya çalıştık. Örneğin, okul ortamında insanlar konuşmadan önce ellerini kaldırıyorlar. Öyleyse, insanların ellerini büyütme eylemini görürsem, ortamda ne tür nesneler görmeyi beklerdim? Bir kara tahta görmeyi bekliyor muyum; masa görmeyi umar mıyım? Çocukları görmeyi beklerim.

Umarım bu bilgiyi kullanmaktır. Robot bir tahliye prosedürü gerçekleştiriyorsa, hangi tür insanların orada olduğunu ve nerede olabileceğini görür.

Diyelim ki kapınıza gelen ve “Lütfen beni çıkışa kadar takip edin” diyen bir robot var diyelim. Bu kadar basit bir şey aslında çok karmaşık. Bir robot apartmanda bir kapıyı çalarsa, kiminle etkileşime geçeceğiniz hakkında hiçbir fikriniz yoktur. Dört yaşında bir çocuk olabilir, 95 yaşında bir çocuk olabilir. Robotun etkileşimli davranışını, onları kurtarmak için gördüğü kişiye göre düzenlemesini seviyoruz. Bu bağlamsal derslerden bazılarını alıyor ve bu uygulamayı geliştirmeye çalışıyoruz.

Robotlar ve insanlar için benzer bir “stereotip” tanımı kullanıyor musunuz, yoksa başka bir şeyler mi oluyor?

Basmakalıp terimi olumsuz bir bağlamda. Bunu kullanma şeklimiz, yalnızca insan kategorileri geliştirmek ve bir kişinin özelliklerini tahmin etmek için kategorik bilgileri kullanmaktır. Psikolojide biliyorum, birçok çalışma yüz klişelerine ve cinsiyet klişelerine odaklanıyor. Böyle bir şey yapmıyoruz. İşlem aynı mı? Bilmiyorum. Fikrim yok.

İnsanların işinizle ilgili yanılgıları olabilir endişeli misiniz?

Birkaç yıl önce, insanları aldatabilecek robotlar fikrini geliştirdik. Medyada, insanların cüzdanlarını çalan robotlara yol açacağı konusunda bir yanlış anlaşılma vardı.

Acil durum tahliye durumunu kullanmak istiyorum: Tahliye sırasında bir kişiye her zaman tamamen dürüst olmak istemezsiniz, değil mi? Örneğin, birisi size “Ailem iyi mi?” Diye sorsa, Robot “Hayır, hepsi öldü” dediğinde korkunç olabilirdi. Lütfen beni çıkışa doğru takip edin. ”Robotun gerçekte sahtekâr olmak zorunda kaldığı bazı durumlar var. Ama benim deneyimim, insanların dünyanın sonuna gelmeye çalıştığımızı hissetmeleriydi.

Bu insan-robot tekniklerinin sosyal yanlarıyla her zaman ilgileniyoruz. İnsanlara yardım etmeye çalışıyoruz, kötü bir şey değil.

$config[ads_kvadrat] not found