Video: Dublör Aktörleri Bu A.I. Teknoloji Bir Gün Yakında

Foreigner - Double Vision (Official Music Video)

Foreigner - Double Vision (Official Music Video)
Anonim

Yeni bir yapay zeka sistemi, aksiyon filmlerini her zamankinden daha serin hale getirebilecek bilgisayar animasyonlu dublörleri geliştirdi. Kaliforniya Üniversitesi'ndeki araştırmacılar Berkeley, dövüş sanatlarındaki en kaygısız hareketlerin bir kısmını yeniden oluşturabilen ve gerçek hayattaki insan oyuncuların yerini alabilecek bir sistem geliştirdi.

UC Berkeley'den mezun olan öğrenci Xue Bin “Jason” Peng, teknolojinin insanlardan ayırmak için zor hareketlerle sonuçlandığını söylüyor.

“Bu aslında derin öğrenme ve animasyon ile yapılanlardan oldukça büyük bir sıçrama” dedi. Peng, Ağustos'ta Ağustos ayında Kanada’da Vancouver’da yapılan 2018 SIGGRAPH konferansında yaptığı araştırmayla yaptığı açıklamada açıkladı. “Geçmişte, doğal hareketleri simüle etmek için birçok çalışma yapıldı, ancak bu fizik temelli yöntemler çok uzmanlaşmış olma eğilimindedir; Çok çeşitli becerilere cevap verebilecek genel yöntemler değillerdir.

“Sonuçlarımızı insanlardan kaydedilen hareket yakalama ile karşılaştırırsanız, simülasyonu ve gerçekte ne olduğunu anlatmak için ikisini ayırt etmenin oldukça zor olduğu noktaya geliyoruz. Sanal bir dublöre doğru ilerliyoruz. ”

Dergide DeepMimic adlı bir proje yayınlandı. ACM Trans. grafik Ağustosda. Eylül ayında, ekip kodlarını ve hareket yakalama verilerini GitHub'da diğerlerinin denemesi için hazır hale getirdi.

Ekip, sisteme nasıl hareket edileceğini öğretmek için derin güçlendirme öğrenme teknikleri kullandı. Gerçek hayattaki performanslardan hareket yakalama verisi aldı, onları sisteme besledi ve hareketleri, bir ayın eşdeğeri için bir simülasyonda günde 24 saat çalışarak uygulamaya koydu. DeepMimic, orijinal mocap verisine ne kadar yakın olduğunu görmek için sonuçlarını her seferinde karşılaştırarak, tekme ve geri çekilme gibi 25 farklı hareket öğrendi.

Art arda denenen ve arızalanabilen diğer sistemlerin aksine, DeepMimic adım adım ilerlemeye başladı, böylece bir noktada başarısız olursa, performansını analiz edebilir ve doğru zamanda doğru zamanda çimdikleyebilir.

Peng, “Bu teknikler ilerledikçe, filmlerde daha büyük ve daha büyük bir rol oynamaya başlayacaklarını düşünüyorum” dedi. Ters. “Ancak filmler genellikle etkileşimli olmadığından, bu simülasyon tekniklerinin oyunlar ve VR üzerinde daha acil bir etkisi olabilir.

“Aslında, güçlendirme öğrenmesi kullanılarak eğitilmiş simüle edilmiş karakter zaten oyunlara yöneliyor. Bağımsız oyunlar bu fikirler için çok hoş bir test alanı olabilir. Ancak, benzetilmiş karakterlerle çalışmak geleneksel geliştirme hatlarından oldukça büyük bir kayma gerektirdiğinden, AAA başlıklarına hazır olmaları biraz zaman alabilir. ”

Oyun geliştiricileri bu araçları denemeye başlıyor. Bir geliştirici, Unity oyun motorunda DeepMimic'i kullanmayı başardı:

Bayanlar ve Baylar, Backflip'i tamamladık! # Unity3d + #MLAgents & #MarathonEnvs kullanarak Ringo, aka StyleTransfer002.144'e tebrikler. StyleTransfer, MoCap verilerinden #ActiveRagoll eğitiyor aka Deepmimic http://t.co/gAGtYYeawE… #madewithunity pic.twitter.com/3iIoDsfdLe

- Joe Booth (@iAmVidyaGamer) 1 Kasım 2018

Peng, kodun serbest bırakılmasının benimsenmesini hızlandıracağını umuyor. Ayrıca, ekibin “bu işin olası uygulamaları hakkında birkaç oyun geliştiricisi ve animasyon stüdyosu ile konuştuğunu belirtti, ancak bununla ilgili henüz çok fazla ayrıntıya giremiyorum” dedi.

Makineler, yüksek oktanlı hareketleri tamamlamak yerine, çimlerin üzerinde yumuşakça takılıp çıkan futbol oynayan robotların gösterdiği gibi düzenli hareketlerle mücadele ediyor. A.I. Gerçek dünyadaki hareketlerin karmaşıklığı ile başa çıkmaya başlar ve insanlar gibi kendilerini düzeltmeye başlar.

Belki de DeepMimic, Neo'nun kung fu öğrendiği gibi bir gün saniyeler içinde yeni bir hamle öğrenebilirdi. Matris.

Aşağıdaki özeti okuyun.

Karakter animasyonunda uzun süredir devam eden bir amaç, veri odaklı davranış özelliklerini fiziksel bir simülasyonda benzer bir davranış yürütebilecek bir sistemle birleştirerek, bozulmalara ve çevresel değişime gerçekçi tepkiler vermektir. İyi bilinen takviye öğrenme (RL) yöntemlerinin, geniş kapsamlı örnek hareket kliplerini taklit edebilen, aynı zamanda karmaşık geri kazanımları öğrenen, morfolojideki değişikliklere uyum gösterebilen ve kullanıcı tarafından belirlenen hedefleri gerçekleştirebilen güçlü kontrol politikalarını öğrenmek için uyarlanabileceğini göstermekteyiz. Metodumuz, anahtar kare hareketlerini, hareket yakalama ve döndürme gibi döndürme hareketlerini ve yeniden hedeflenen hareketleri ele alır. Bir hareket taklidi hedefini bir görev hedefi ile birleştirerek, örneğin istenen yönde yürüyerek veya kullanıcı tarafından belirlenen bir hedefe top fırlatarak etkileşimli ortamlarda akıllıca tepki veren karakterleri eğitebiliriz. Böylece bu yaklaşım, istenen stili ve görünümü tanımlamak için hareket klipslerinin kullanım rahatlığını ve hareket kalitesini, RL yöntemlerinin ve fizik tabanlı animasyonun sağladığı esneklik ve genelliği birleştirir. Ayrıca, çeşitli becerilerin zengin bir repertuarını gerçekleştirebilen çok yetenekli ajanlar geliştirmek için çok sayıda klibin öğrenme sürecine entegrasyonu için bir dizi yöntemi araştırıyoruz. Çoklu karakterler (insan, Atlas robotu, iki ayaklı dinozor, ejderha) ve hareket, akrobasi ve dövüş sanatları dahil olmak üzere çok çeşitli beceriler kullanarak sonuçlar gösterdik.