Algunas nuevas aplicaciones de terceros partidos, sumado a la existencia de nuevos métodos creativos, te permiten crear algo mucho más sorprendente que el simple mundo de los Animoji o los Memoji.

Gracias a la cámara TrueDepth del iPhone X (y posteriores) y su software de reconocimiento facial, los y las desarrolladoras de aplicaciones han comenzado a explorar las posibilidades que esta nueva herramienta de la cámara ofrece.

Esto puede ser de interés para creativos y artistas ya que podrás capturar movimiento y producir algo mucho más trabajado que un simple monigote moviendo la cabeza de arriba a abajo, como sucede con los Memoji.

Si te estás preguntando si es posible capturar movimientos del cuerpo con el iPhone X, la respuesta la tiene la técnica pionera de Cory Strassburger, cofundador del estudio de realidad virtual cinematográfico Kite & Lightning, con sede en Los Ángeles.

Utilizando un iPhone X junto con la tecnología de captura de movimiento inercial de Xsens, Cory muestra que se puede producir una captura simultánea de todo el cuerpo, incluido el rostro, con el último personaje animado en directo, transferido y editado a través de IKINEMA LiveAction a Unreal Engine de Epic Games. Todo esto se hace en tiempo real, como lo demuestra el siguiente video.

El método se basa en un casco DIY mocap capaz de sujetar un iPhone X frente a la cara del usuario, es un sistema Xsens MVN e IKINEMA LiveAction para transmitir y retomar el movimiento del personaje de tu elección en Unreal Engine.

A través de esta configuración, los usuarios pueden representar una escena donde quiera que estén, como Cory demostrará en el Siggraph de este año.

Los interesados en el trabajo de captura facial, mientras tanto, pueden probar Live Face, lanzada por Reallusion en junio. Esta aplicación gratuita alimenta datos de seguimiento facial directamente en tiempo real a un Mac o PC, usando tu iPhone X como punto de acceso público, conectándose a tu ordenador y rastreando puntos de datos en la cara a través de wifi.

No obstante, es muy importante tener en cuenta que los datos finales son recibidos y procesados por la suite CrazyTalk Animator 3 de Reallusion; la aplicación solo es compatible con este software de momento, lo que significa que si estás interesado tendrás que comprarla en la app store.

Otra opción para la captura facial es CV-AR de Maxon, una aplicación gratuita que también salió a la venta en junio y que es compatible con la tribuna que es Cinema 4D.

El software captura tu animación facial y la envía a C4D, con texturas y sonido incluidos, con los datos almacenados localmente en tu iPhone dentro de la propia aplicación.

La aplicación está diseñada para hacer que la captura y transferencia de la animación facial sea lo más fluida posible; las transferencias son posibles escaneando un código QR, por lo que no hay opciones de hotspot o USB en este caso.

Un lanzamiento más discreto es Face Cap del desarrollador independiente Niels Jansson. Este es muy interesante ya que su salida puede funcionar no solo con C4D, sino también con Lightwave 3D, Autodesk Maya, Houdini y Blender, avergonzando a sus competidores (insertar emoji de cara sonrojada).

Con Face Cap puedes grabar 50 expresiones faciales diferentes para una duración de grabación de hasta 10 minutos.

Exporta trabajos de malla genéricos, mezclas de formas y animaciones como Ascii-fbx, y ofrece una interfaz nativa para compartir en iOS y para que puedas enviar tus grabaciones por correo electrónico o Dropbox.

Por último, echemos un vistazo a algo diferente: el servicio de Animación para iPhone X de la francesa Polywink.

Polywink es una nueva plataforma online para hacer trabajos de animación facial en 3D que tiene como objetivo ahorrar tiempo y presupuesto a los estudios y a los profesionales del 3D mediante la generación automática de formas combinadas y aparejos.

En otras palabras, se trata de un servicio de outsourcing, con su opción para iPhone X que permite subir un modelo de cabeza 3D neutral y recibir una cabeza de un personaje lista para ser animada.

El servicio genera automáticamente un conjunto de 51 blendshapes adaptados a la topología y morfología específica de tu personaje. Sigue de cerca la documentación de ARKit, lo que significa que puedes conectar tu modelo al plugin de unidad de ARKit y dejar que el seguimiento facial del iPhone haga el resto; no se requiere ningún montaje ni modelado adicional.

El servicio le costará 299 dólares (263 € aproximadamente) por cabeza, y promete un plazo de entrega de 24 horas.