【资料图】
今天,Epic发布了一款新工具,旨在使用像iPhone一样简单的设备捕捉演员的面部表演,并在“几分钟”内将其应用到虚幻引擎中的超现实主义“MetaHuman”。这项名为MetaHumanAnimator的功能在3月份的游戏开发者大会上进行了详细介绍,但现在可供开发者自行试用。Epic今天还发布了一段由其内部团队制作的新视频,以展示该工具的功能。
虽然Epic的短片展示了一些令人印象深刻的微妙面部动画,但该公司强调的最大好处是MetaHumanAnimator产生结果的速度。“动画是使用GPU硬件在本地制作的,最终动画可在几分钟内完成,”该公司的新闻稿中写道。这不仅有可能通过提高表演捕捉的效率来节省工作室的资金,而且,Epic认为,它可以让他们进行实验并更具创造力。
“需要演员给你更多,挖掘不同的情感,还是只是探索一个新的方向?”Epic的新闻稿问道。“让他们再拍一次。您将能够在大约煮一杯咖啡所需的时间内查看结果。”Epic表示,“只需点击几下”,就可以将面部动画应用于MetaHuman角色,而且该系统甚至足够智能,可以根据表演音频为角色的舌头制作动画。
至少自2020年Epic的LiveLinkFaceiOS应用程序推出以来,虚幻引擎就可以使用iPhone进行表演捕捉,但现在,它与Epic的MetaHuman技术所承诺的高水平细节相结合。除了在iPhone12及更高版本(能够捕获视频和深度数据)上工作外,Epic表示MetaHumanAnimator还可以与“现有的垂直立体头戴式相机[系统]一起使用,以实现更高的保真度。”
Epic表示,今天发布的BlueDot短片应该可以让人了解其动画工具的功能。它由EpicGames的3Lateral团队和明星演员RadivojeBukvić制作,根据MikaAntić的一首诗发表独白。尽管Epic表示可以在捕捉后调整动画,但它声称在MetaHumanAnimator的表演捕捉之上进行了“最少的干预”以实现这些结果。
如果您想了解更多信息,Epic发布了有关如何使用该工具的教学视频。文档也可通过Epic开发者社区的MetaHuman中心获取。
免责声明:本文由用户上传,如有侵权请联系删除!标签: