Sentir el mundo con extremidades más pequeñas y otras características que definen a los niños puede ayudar a los adultos a incrementar su empatía con las necesidades de los pequeños. Una tecnología desarrollada por ingenieros y científicos de la Universidad de Chicago permite usar una mano en miniatura impresa en 3D, que hace posible experimentar las sensaciones de los niños en el mundo real. El dispositivo es económico y no requiere de complementos informáticos en su funcionamiento.

¿Cómo experimenta el mundo un niño desde una menor estatura o con manos más pequeñas? ¿Cómo modifican esas experiencias sus impresiones de los espacios en los que se desarrolla, como su hogar o la escuela? No cabe duda que disponer de esta información y poder sentir la experiencia como lo hacen los pequeños podría ser de gran ayuda para padres, docentes o incluso diseñadores de productos infantiles.

Ahora, un desarrollo de especialistas estadounidenses denominado HandMorph hace realidad esta idea. De acuerdo a una nota de prensa, la nueva tecnología desarrollada en el Human Computer Integration Lab de la Universidad de Chicago ofrece una experiencia real que acerca a niños y adultos.

“Me interesa cambiar la función del cuerpo para tener la experiencia de otra persona. Estos cambios pueden afectar la actitud o la relación social entre las personas y podrían ser útiles para obtener una especie de conocimiento incorporado o una mayor empatía hacia los niños o las personas diferentes”, expresó Jun Nishida, uno de los líderes de la investigación.

Impreso en 3D

HandMorph es único en cuanto a tecnología portátil, porque no requiere ordenadores o dispositivos de realidad virtual incorporados para funcional. El exoesqueleto portátil se imprime en 3D con un gasto mínimo en cuanto a materiales, deslizándose en la mano del usuario como un guante.

Utilizando pequeños enlaces mecánicos, el dispositivo traduce los movimientos de la mano de la persona que lo usa a otra mano más pequeña de silicona, adjunta a la de mayor tamaño. Como resultado, se obtiene una respuesta háptica realista, que se enriquece incluso con la colocación de un cable entre el guante y la cintura del usuario para restringir el alcance al que tendría un niño pequeño.

La tecnología háptica interactúa con el usuario a través del sentido del tacto, y aunque tiene amplias aplicaciones en el campo de la realidad aumentada, en este caso se emplea en un dispositivo que brinda una experiencia 100% real.

«Otros investigadores han utilizado avatares de realidad virtual para cambiar la percepción que las personas tienen de su cuerpo o entorno, pero nosotros queríamos cambiar la experiencia de las personas directamente en el mundo real, interactuando con otras personas y objetos a su alrededor. Eso las desafía a navegar por su espacio real con una mano más pequeña y ver cómo se siente”, indicó Nishida.

Modificando el mapa cerebral

En las pruebas realizadas, los investigadores encontraron que este dispositivo de simple configuración y fácil de usar era capaz de producir cambios de percepción. Después de algunos minutos de usar el dispositivo HandMorph e interactuar con pelotas de plástico de diferentes tamaños, los voluntarios que participaron del estudio percibieron los objetos como más grandes mientras usaban el guante, en comparación con sostener las pelotas con la mano sin guante.

De esta manera, el estudio confirmó la rapidez con la cual un dispositivo portátil puede modificar el mapa cerebral de representación corporal, generando una experiencia alterada. Para Nishida, «todo indica que sentir la herramienta y poder actuar en un entorno real es mucho más poderoso que estar inmerso digitalmente en realidad virtual o en un software de diseño asistido por computadora”, concluyó.

Referencia

HandMorph: a Passive Exoskeleton that Miniaturizes Grasp. Jun Nishida, Soichiro Matsuda, Hiroshi Matsui, Shanyuan Teng, Ziwei Liu, Kenji Suzuki and Pedro Lopes. UIST (2020).DOI:https://doi.org/10.1145/3379337.3415875

Foto:

HandMorph tomando una pequeña bola naranja como lo haría un niño. Crédito: Nishida et al.

Video: Human Computer Integration Lab.