Meta esta semana lanzó una nueva aplicación de demostración llamada De primera mano para demostrar el tipo de experiencias que los desarrolladores pueden crear con las herramientas de seguimiento manual sin control de la empresa.
El seguimiento de manos sin controlador ha estado disponible en Quest durante años en este punto, y si bien es una modalidad de entrada más accesible que usar controladores, los controladores siguen siendo la principal forma de entrada para la gran mayoría de los juegos y aplicaciones en los auriculares.
Meta ha presionado cada vez más a los desarrolladores para que adopten el seguimiento manual como algo más que una simple novedad y, con ese fin, Meta ha creado herramientas para que a los desarrolladores les resulte más fácil aprovechar esta función. Pero que es mejor que uno bueno tocar ¿Ejemplo?
Esta semana Meta lanzó una nueva demostración llamada De primera mano (llamado así por una de las primeras aplicaciones de demostración de Oculus llamada Primer contacto). Aunque la demostración está diseñada principalmente para demostrar las capacidades de seguimiento manual a los desarrolladores, De primera mano Cualquiera puede descargarlo de forma gratuita desde App Lab.
En el blog para desarrolladores de Oculus, el equipo detrás de la aplicación explica que se creó con el «SDK de interacción», que forma parte de la «Plataforma de presencia» de la empresa, un conjunto de herramientas diseñadas para ayudar a los desarrolladores a navegar por la realidad mixta y el seguimiento manual. usa las habilidades de Quest. De primera mano también se lanza como un proyecto de código abierto que brinda a los desarrolladores la capacidad de mirar debajo del capó y tomar prestado código e ideas para crear sus propias aplicaciones de seguimiento de manos.
El equipo de desarrollo explicó algunas de las ideas detrás del diseño de la aplicación:
First Hand muestra algunas de las interacciones de Hands que hemos encontrado como las más mágicas, robustas y fáciles de aprender, pero también aplicables a muchas categorías de contenido. En particular, confiamos en gran medida en las interacciones directas. Con las heurísticas táctiles directas avanzadas que vienen de serie con Interaction SDK (como la limitación táctil, que evita que su dedo se deslice accidentalmente sobre los botones), interactuar con interfaces de usuario 2D y botones en VR se siente realmente natural.
También presentamos algunas de las técnicas de captura que ofrece el SDK. Hay algo visceral en la interacción directa con el mundo virtual con las manos, pero hemos descubierto que estas interacciones también necesitan un ajuste cuidadoso para que realmente funcionen. En la aplicación, puede experimentar interactuando con una variedad de clases de objetos (pequeños, grandes, restringidos, con dos manos) e incluso aplastar una roca apretándola lo suficientemente fuerte.
El equipo también compartió 10 consejos para los desarrolladores que buscan usar Interaction SDK en sus aplicaciones Quest, consulte la publicación del desarrollador.