miércoles, 24 de junio de 2020

Y al andar dirás quién eres


La lectura del lenguaje corporal es clave para nuestras interacciones con otros humanos. Para los robots también.



¿Qué opina usted de las minas de oro?

—¿De las minas de oro? Jamás he pensado en eso.

—Pero aquí estoy yo, que he pensado por usted. Hace un mes que lo vengo

observando. Cada vez que le he visto pasar me he dicho: «He aquí un hombre

enérgico, cuyo puesto está en las minas.» Me he fijado incluso en su modo de

andar, y estoy convencida de que usted descubrirá algún filón.

—¿Sólo por mi modo de andar, señora?

—Pues sí. ¿Acaso no cree que se puede deducir el carácter de una persona

por su manera de andar? Las ciencias naturales demuestran este hecho.

Los hermanos Karamazov – Libro VIII – Cap. III

Las minas de oro


“Caminante no hay camino, se hace camino al andar”, dice la canción. Y no solo se hace camino, también se comunica quiénes somos y cómo nos sentimos. La forma de caminar está dentro del lenguaje corporal, también conocido como kinésica, la cual estudia la manera en que nuestros movimientos comunican. La kinésica, a su vez, forma parte de lo que se conoce como comunicación no verbal (CNV): todo lo que comunicamos sin usar palabras. El lenguaje corporal se reconoce como una manera primitiva de comunicar, que aún hoy seguimos utilizando. Primitiva, pero no por eso menos importante.

El andar también permite reconocer problemas médicos asociados con nuestros músculos y huesos así como lesiones, patologías de origen genético y otras enfermedades. Incluso se investiga si el andar puede predecir el Alzheimer. En la resolución de crímenes son varios los países que aceptan la forma de andar como evidencia en la corte dada su singularidad.

En artículos previos hemos visto otras áreas de la CNV: el trabajo de Amy Cuddy que se centra en las poses de poder y los históricos aportes de Paul Ekman al campo de la relación entre expresiones faciales y emociones.

Decodificando el andar
Cuando “leemos” el lenguaje corporal debemos hacerlo en contexto. El andar junto con la expresión facial de la persona, puede darnos gran cantidad información sobre su estado emocional. Pero el andar por sí solo puede brindarnos información relevante. Ya sea un caminar con los hombros caídos y la cabeza baja expresando tristeza, o un andar erguido y desafiante denotando enojo o bien rebotando en cada paso por una alegría desbordante, nuestra habilidad para leer estas señales es absolutamente necesaria para gestionar nuestras interacciones sociales.

Pero no solo los humanos necesitamos saber leer esta información para ayudarnos en nuestra vida social diaria. En estos tiempos de inteligencia artificial, los robots también requieren conocer esta información. Ya sea para apartarse del camino de un humano enojado o bien para acercarse a ayudar a otro que lo necesite.

El estudio del lenguaje corporal aporta información para crear robots más eficientes.
El estudio del lenguaje corporal aporta información para crear robots más eficientes.
Robots que nos leen
Para que los robots puedan detectar e interpretar correctamente las señales que les damos con nuestro andar, investigadores del grupo "Geometric Algorithms for Modeling, Motion and Animation" (GAMMA Research Group, Universidad de Maryland) desarrollaron el algoritmo ProxEmo, el cual permite una interacción efectiva entre humano y robot.

En primer lugar, los investigadores pidieron a distintas personas que dijeran el tipo de emoción que percibían en filmaciones de individuos con determinadas maneras de andar.

Pero no se quedaron solo con opiniones subjetivas de seres humanos. También desarrollaron una serie de directivas destinadas a obtener determinados resultados, lo que conocemos como algoritmo. En primer lugar, el robot recoge información de 16 puntos corporales (en cuello, hombros y rodillas) tomados de un individuo en movimiento. Luego, y aplicando ProxEmo, el robot puede relacionar determinados movimientos de los 16 puntos con estados emocionales, basándose en la información obtenida con voluntarios humanos como referencia.

Andar feliz, triste, enojado y neutral. (Fuente: GAMMA Research Group).

En base a la información obtenida el robot determina la forma de la “burbuja” imaginaria generada alrededor del humano en cuestión para no atravesarla. La burbuja será de mayor tamaño para un humano enojado que para uno que está feliz. Esta porción de espacio en realidad no es esférica sino que se asemeja a un elipsoide, y en el caso de un humano molesto tendrá mayor lugar en el frente de la persona y menor en su parte trasera.

Robot sin y con algoritmo (primera y segunda columna, respectivamente). El algoritmo hace que el robot se aparte del camino de un ocasional transeúnte. (Fuente: GAMMA Research Group).

Los investigadores también preparan al robot para situaciones no tan ideales como las experimentadas al “leer” personas de cuerpo entero con sus miembros visibles. El robot debe poder interpretar estados emocionales incluso si una mano no está visible o si la ropa dificulta la visualización de determinadas partes del cuerpo.

En el futuro, este tipo de máquinas podrían también leer expresiones faciales, obteniendo un panorama más claro sobre la emoción que experimenta la persona con la que se cruzan generando una respuesta acorde.

*Bioquímico, farmacéutico y doctor por la Universidad Nacional de Rosario. Master en Análisis de Medios de Comunicación y Especialista en Comunicación Ambiental. Miembro de la Escuela de Comunicación Estratégica de Rosario y la Red Argentina de Periodismo Científico. Acreditado con la American Association for the Advancement of Science (Science) y la revista Nature.

Referencias
Moldeados por el lenguaje corporal.

Ekman y las expresiones faciales universales: caras del alma/Sonriendo en tiempos de barbijo.

What is abnormal gait?

Alzheimer's mat: Does your gait predict your risk?

Gait recognition: a useful identification tool

This robot can guess how you´re feeling by the way you walk

ProxEmo: Gait-based Emotion Learning and Multi-view Proxemic Fusion for Socially-Aware Robot Navigation
https://gamma.umd.edu/researchdirections/affectivecomputing/proxemo/



No hay comentarios:

Publicar un comentario

Me siento Rosario: mostrando lo bueno de vivir en la ciudad junto al río marrón

Un grupo de jóvenes muestra su pasión por la ciudad en un corto que destaca parte de sus habitantes y actividades. Messi, Aymar, el Acuario ...