La lectura del lenguaje corporal es
clave para nuestras interacciones con otros humanos. Para los robots también.
¿Qué
opina usted de las minas de oro?
—¿De
las minas de oro? Jamás he pensado en eso.
—Pero
aquí estoy yo, que he pensado por usted. Hace un mes que lo vengo
observando.
Cada vez que le he visto pasar me he dicho: «He aquí un hombre
enérgico,
cuyo puesto está en las minas.» Me he fijado incluso en su modo de
andar,
y estoy convencida de que usted descubrirá algún filón.
—¿Sólo
por mi modo de andar, señora?
—Pues
sí. ¿Acaso no cree que se puede deducir el carácter de una persona
por su manera de andar? Las ciencias
naturales demuestran este hecho.
Los hermanos Karamazov – Libro VIII – Cap. III
Las minas de oro
“Caminante no hay camino, se hace camino
al andar”, dice la canción. Y no solo se hace camino, también se comunica
quiénes somos y cómo nos sentimos. La forma de caminar está dentro del lenguaje
corporal, también conocido como kinésica, la cual estudia la manera en que
nuestros movimientos comunican. La kinésica, a su vez, forma parte de lo que se
conoce como comunicación no verbal (CNV): todo lo que comunicamos sin usar
palabras. El lenguaje corporal se reconoce como una manera primitiva de
comunicar, que aún hoy seguimos utilizando. Primitiva, pero no por eso menos
importante.
El andar también permite reconocer
problemas médicos asociados con nuestros músculos y huesos así como lesiones,
patologías de origen genético y otras enfermedades. Incluso se investiga si el
andar puede predecir el Alzheimer. En la resolución de crímenes son varios los
países que aceptan la forma de andar como evidencia en la corte dada su singularidad.
En artículos previos hemos visto otras
áreas de la CNV: el trabajo de Amy Cuddy que se centra en las poses de poder y
los históricos aportes de Paul Ekman al campo de la relación entre expresiones
faciales y emociones.
Decodificando
el andar
Cuando “leemos” el lenguaje corporal
debemos hacerlo en contexto. El andar junto con la expresión facial de la
persona, puede darnos gran cantidad información sobre su estado emocional. Pero el andar por sí solo puede brindarnos
información relevante. Ya
sea un caminar con los hombros caídos y la cabeza baja expresando tristeza, o
un andar erguido y desafiante denotando enojo o bien rebotando en cada paso por
una alegría desbordante, nuestra habilidad para leer estas señales es
absolutamente necesaria para gestionar nuestras interacciones sociales.
Pero no solo los humanos necesitamos
saber leer esta información para ayudarnos en nuestra vida social diaria. En
estos tiempos de inteligencia artificial, los robots también requieren conocer
esta información. Ya sea para apartarse del camino de un humano enojado o bien
para acercarse a ayudar a otro que lo necesite.
|
El estudio del lenguaje corporal aporta información para crear robots más eficientes.
|
Robots
que nos leen
Para que los robots puedan detectar e
interpretar correctamente las señales que les damos con nuestro andar,
investigadores del grupo "Geometric Algorithms for Modeling, Motion and Animation" (GAMMA Research Group, Universidad de Maryland) desarrollaron el algoritmo ProxEmo, el cual
permite una interacción efectiva entre humano y robot.
En primer lugar, los investigadores
pidieron a distintas personas que dijeran el tipo de emoción que percibían en
filmaciones de individuos con determinadas maneras de andar.
Pero no se quedaron solo con opiniones
subjetivas de seres humanos. También desarrollaron una serie de directivas
destinadas a obtener determinados resultados, lo que conocemos como algoritmo. En
primer lugar, el robot recoge información de 16 puntos corporales (en cuello,
hombros y rodillas) tomados de un individuo en movimiento. Luego, y aplicando ProxEmo, el robot puede relacionar determinados
movimientos de los 16 puntos con estados emocionales, basándose en la
información obtenida con voluntarios humanos como referencia.
Andar feliz, triste, enojado y neutral. (Fuente: GAMMA Research Group).
En base a la información obtenida el
robot determina la forma de la “burbuja” imaginaria generada alrededor del humano en
cuestión para no atravesarla. La burbuja será de mayor tamaño para un humano
enojado que para uno que está feliz. Esta porción de espacio en realidad no es
esférica sino que se asemeja a un elipsoide, y en el caso de un humano molesto
tendrá mayor lugar en el frente de la persona y menor en su parte trasera.
Robot sin y con algoritmo (primera y segunda columna, respectivamente). El algoritmo hace que el robot se aparte del camino de un ocasional transeúnte. (Fuente: GAMMA Research Group).
Los investigadores también preparan al
robot para situaciones no tan ideales como las experimentadas al “leer”
personas de cuerpo entero con sus miembros visibles. El robot debe poder
interpretar estados emocionales incluso si una mano no está visible o si la
ropa dificulta la visualización de determinadas partes del cuerpo.
En el futuro, este tipo de máquinas
podrían también leer expresiones faciales, obteniendo un panorama más claro
sobre la emoción que experimenta la persona con la que se cruzan generando una
respuesta acorde.
Referencias
Moldeados por el lenguaje corporal.
Ekman y
las expresiones faciales universales: caras del alma/Sonriendo en tiempos de
barbijo.
What is
abnormal gait?
Alzheimer's mat:
Does your gait predict your risk?
Gait
recognition: a useful identification tool
This robot
can guess how you´re feeling by the way you walk
No hay comentarios:
Publicar un comentario