Mesa de arena de realidad aumentada - Augmented Reality Sandtable


La mesa de arena de realidad aumentada (ARES) es una mesa de arena digital e interactiva que utiliza tecnología de realidad aumentada (AR) para crear un mapa de espacio de batalla en 3D. Fue desarrollado por la Dirección de Investigación e Ingeniería Humana (HRED) en el Laboratorio de Investigación del Ejército (ARL) para combinar los aspectos positivos de las mesas de arena militares tradicionales con las últimas tecnologías digitales para apoyar mejor el entrenamiento de los soldados y ofrecer nuevas posibilidades de aprendizaje. Utiliza un proyector para mostrar un mapa topográfico sobre la arena en una caja de arena normal, así como un sensor de movimiento que realiza un seguimiento de los cambios en el diseño de la arena para ajustar adecuadamente la visualización del terreno generada por computadora.

Un estudio de ARL realizado en 2017 con 52 militares en servicio activo (36 hombres y 16 mujeres) encontró que los participantes que usaron ARES pasaron menos tiempo preparando la mesa en comparación con los participantes que usaron una mesa de arena tradicional. Además, ARES demostró un puntaje de carga de trabajo percibido más bajo, medido utilizando las calificaciones del Índice de carga de tareas de la NASA (NASA-TLX), en comparación con la mesa de arena tradicional. Sin embargo, no hubo diferencias significativas en los puntajes de las pruebas posteriores al conocimiento al recrear el mapa visual.

Desarrollo

El proyecto ARES fue una de las 25 iniciativas ARL en desarrollo desde 1995 hasta 2015 que se centró en visualizar datos espaciales en interfaces virtuales o de mesa de arena. Fue desarrollado por el Centro de Tecnología de Capacitación y Simulación (STTC) de HRED con Charles Amburn como investigador principal. Las colaboraciones involucradas con ARES incluyeron Dignitas Technologies, Design Interactive (DI), el Instituto de Simulación y Capacitación de la Universidad de Florida Central y la Academia Militar de EE. UU. En West Point .

ARES fue diseñado en gran medida para ser una interfaz de usuario tangible (TUI) , en la que la información digital se puede manipular utilizando objetos físicos como la mano de una persona. Se construyó utilizando componentes comerciales listos para usar, que incluyen un proyector, una computadora portátil, un monitor LCD, el sensor Xbox Kinect de Microsoft y el software ARES desarrollado por el gobierno. Con el proyector y el sensor Kinect orientados hacia abajo en la superficie de la caja de arena, el proyector proporciona una superposición digital sobre la arena y el sensor Kinect escanea la superficie del mapa para detectar cualquier gesto del usuario dentro de los límites de la caja de arena.

Durante el desarrollo, los investigadores exploraron la posibilidad de incorporar ideas como superficies multitáctiles, pantallas holográficas 3D y entornos virtuales. Sin embargo, las restricciones presupuestarias limitaron la implementación de tales ideas.

En septiembre de 2014, durante la exposición Modern Day Marine en Quantico, Virginia, los investigadores de ARL presentaron ARES por primera vez.

Usos

Según un informe técnico de 2015 de los científicos de ARL, se informa que ARES tiene las siguientes capacidades.

  • Se pueden proyectar imágenes, mapas y videos en la mesa de arena desde un punto de vista de arriba hacia abajo en tiempo real.
  • El terreno y los escenarios creados en ARES se pueden importar a diferentes aplicaciones de simulación, como Virtual Battlespace 3 (VBS3) y One Semi-Automated Forces (OneSAF).
  • Los símbolos y gráficos militares se pueden crear, etiquetar y colocar en la mesa de arena para configurar diferentes escenarios.
  • Se pueden utilizar ayudas visuales como esquemas de color y líneas de contorno para guiar a los usuarios a dar forma a la arena para replicar un terreno 3D previamente guardado.
  • Los usuarios pueden usar su mano para navegar por los diferentes menús disponibles en ARES como si fuera el mouse.
  • El sensor ARES puede detectar y rastrear la presencia de mano (s) para identificar dónde apunta el usuario en la mesa de arena.
  • Se puede usar una cámara web para comunicarse con otros usuarios y proporcionar una vista de arriba hacia abajo de la mesa de arena a los colaboradores.
  • Se pueden usar aplicaciones de tableta basadas en AR y tarjetas de notas especialmente hechas para proyectar imágenes de diferentes vehículos en el terreno.

Referencias