Videó: Stunt Actors helyettesítheti ezt az A.I. Technológia Egy nap hamarosan

$config[ads_kvadrat] not found

Indila - Tourner Dans Le Vide

Indila - Tourner Dans Le Vide
Anonim

Az új mesterséges intelligencia rendszer olyan számítógépes animációs stuntmeneket fejlesztett ki, amelyek az akciófilmeket hűvösebbé tehetik, mint valaha. A Berkeley-i Kaliforniai Egyetem kutatói olyan rendszert fejlesztettek ki, amely képes a harcművészetek néhány leggyengébb mozgalmának újjáépítésére.

A Bue Berkeley egyetemi hallgató, Xue Bin Jason Peng azt mondja, hogy a technológia olyan mozgásokat eredményez, amelyek nehezen elválaszthatók az emberektől.

„Ez tényleg egy nagy ugrás a mély tanulás és az animáció eredményeiből” - mondta Peng egy tanulmányában, melyet a 2018. évi SIGGRAPH konferencián, augusztusban, Kanadában, Vancouverben tartottak. „A múltban rengeteg munka ment a természetes mozgások szimulálására, de ezek a fizikai alapú módszerek nagyon specializáltak; nem általános módszerek, amelyek képesek a sokféle készség kezelésére.

„Ha összevetjük az eredményeket az emberektől rögzített mozgás-rögzítéssel, akkor arra a pontra jutunk, ahol meglehetősen nehéz megkülönböztetni a kettőt, hogy megmondjam, mi a szimuláció és mi a valóság. Egy virtuális kaszkadőr felé haladunk.

A folyóiratban megjelent a DeepMimic nevű projektről készült papír ACM Trans. Grafikon augusztusban. Szeptemberben a csapat elkészítette a kódját és a mozgásrögzítő adatait a GitHub-nál, hogy mások megpróbálhassák.

A csapat mélyreható tanulási technikákat alkalmaztak, hogy megtanítsák a rendszert, hogyan kell mozogni. A valós élet előadásaiból mozgás-rögzítési adatokat vettünk, ezeket a rendszerbe tápláltuk, és a szimulációban egy egész hónapra, a napi 24 órás képzésre gyakorolták a mozgásokat. A DeepMimic 25 különböző mozdulatot tanult, mint például a rúgás és a visszapattanás, összehasonlítva az eredményeit minden alkalommal, hogy lássa, milyen közel áll az eredeti mocap adatokhoz.

Ellentétben más rendszerekkel, amelyek többször is megpróbáltak és kudarcot vallottak, a DeepMimic megszakította a lépéseket, így ha egy ponton nem sikerült, akkor elemezheti a teljesítményét és a megfelelő pillanatban csípett.

„Mivel ezek a technikák haladnak, úgy gondolom, hogy nagyobb és nagyobb szerepet fognak játszani a filmekben” - mondja Peng fordítottja. „Mivel azonban a filmek általában nem interaktívak, ezek a szimulációs technikák azonnali hatást gyakorolhatnak a játékokra és a VR-re.

„Tény, hogy a megerősítő tanulás segítségével képzett szimulált karakter már megtalálta a játékot. Az indie-játékok ezeknek az ötleteknek nagyon jó tesztterülete lehet. De lehet, hogy eltarthat egy ideig, mielőtt készen állnak az AAA címekre, mivel a szimulált karakterekkel való munka meglehetősen drasztikus váltást igényel a hagyományos fejlesztési csővezetékekről.

A játékfejlesztők kezdik kísérletezni ezeket az eszközöket. Az egyik fejlesztőnek sikerült a DeepMimic-et használni az Unity játékmotorjában:

Hölgyeim és uraim, befejeztük a Backflipet! Gratulálunk Ringo-nak, más néven StyleTransfer002.144-nek - a # unity3d + #MLAgents & #MarathonEnvs használatával. A StyleTransfer egy #ActiveRagoll-ot képez a MoCap adataiból, mint a Deepmimic http://t.co/gAGtYYeawE… #madewithunity pic.twitter.com/3iIoDsfdLe

- Joe Booth (@iAmVidyaGamer) 2018. november 1.

Peng reméli, hogy a kód kiadása felgyorsítja annak elfogadását. Azt is megjegyzi, hogy a csapat „több játékfejlesztővel és animációs stúdióval beszélt erről a munkáról, bár nem tudok túl sokat részletezni erről a témáról”.

A gépek rendszeresen küzdenek a bonyolult mozdulatokkal, amint azt a labdarúgó robotok bizonyítják, hogy a füvet lecsapják a füvön, ahelyett, hogy bármilyen magas oktánszámú mozgást végeznének. Az előrehaladás jelei vannak, mint A.I. megragadja a valóságos mozgások összetettségét, és jobban korrigálja magát, mint az emberek.

Talán a DeepMimic egy nap múlva megtanulhat egy új lépést, hasonlóan ahhoz, ahogy a Neo megtanulja a kung fu-t A Mátrix.

Olvassa el az alábbi absztraktot.

A karakteres animáció hosszú távú célja az adat-vezérelt viselkedés-specifikáció egy olyan rendszerrel való összekapcsolása, amely hasonló viselkedést képes végrehajtani egy fizikai szimulációban, ezáltal lehetővé téve reális válaszokat a perturbációk és a környezeti változásokra. Bemutatjuk, hogy a jól ismert megerősítési tanulási (RL) módszerek alkalmazhatók olyan robusztus vezérlési politikák megtanulására, amelyek képesek sokféle mozgókép klipre imitálni, ugyanakkor komplex helyreállítást tanulni, alkalmazkodni a morfológia változásához és a felhasználó által meghatározott célok eléréséhez. Módszerünk kulcsfontosságú mozgásokat, rendkívül dinamikus akciókat, például mozgáskorlátozott mozdulatokat és pörgetéseket és visszahelyezett mozgásokat kezel. A mozgásimitációs cél és a feladat célkitűzés kombinálásával az interaktív beállításokban intelligens módon reagálni képes karaktereket, például a kívánt irányba történő járás vagy a felhasználó által megadott célba dobás útján képezhetünk. Ez a megközelítés tehát kombinálja a mozgásklipek használatának kényelmét és mozgásminőségét, hogy meghatározza a kívánt stílust és megjelenést, az RL módszerek és a fizikai alapú animáció által biztosított rugalmassággal és általánossággal. Továbbá számos olyan módszert vizsgálunk meg, amelyekkel több klip integrálható a tanulási folyamatba, hogy olyan, képzett ügynököket fejlesszünk ki, akik képesek különböző készségek gazdag repertoárját végrehajtani. Az eredményeket több karakterrel (emberi, Atlas robot, bipedal dinoszaurusz, sárkány) és sokféle készséggel mutatjuk be, beleértve a mozgást, az akrobatikát és a harcművészeteket.

$config[ads_kvadrat] not found