¿Qué ve un robot cuando nos mira a los ojos?

Emociones y comunicación no verbal en la 4ª Revolución Industrial

friendly-robot_large

No te creo por mucho que insistas. Tus palabras no valen nada si no hay hechos que las acompañen, no valen nada si tus ojos me dicen todo lo contrario. Lo sé porque tengo empatía y sé descifrar esa aureola de gestos, miradas, tonos de voz, movimientos ….que te acompañan. Hasta puedo sentir la energía que desprendes. Tus silencios me hablan. Soy humana. Y mis compañeros de trabajo también.

Es imposible la no comunicación entre dos o más personas, los silencios también comunican. Comunicamos más con lo que no decimos y la mayoría de veces lo hacemos sin darnos cuenta.

Me explico. Sabemos que la comunicación es la base de las relaciones humanas. Que además la comunicación no verbal (CNV) es más del 90 % de la comunicación entre dos o más personas, y que un porcentaje muy alto de esa comunicación es inconsciente.

kisspng-communication-verbale-nonverbal-communication-body-negar-5b31b6df60a819.8427807115299847353959

Cuando mentimos, seducimos, trabajamos en un proyecto juntos, nos reunimos, negociamos, cuando tenemos miedo, desbordamos ego, estamos felices, etc. en todas las facetas de nuestra vida, emitimos señales no verbales que los demás interpretan y descifran, clarificando el mensaje que intentamos comunicar.

Recomiendo leer un libro muy interesante de Flora Davis “La comunicación no verbal” que nos da pautas para descifrar las señales; sin embargo, normalmente no hacen falta pautas ya que la mayoría de los humanos las desciframos de una forma intuitiva.

Por ejemplo. Es curioso analizar el comportamiento no verbal en una reunión, observar cómo sincronizamos nuestros movimientos y adoptamos posturas similares o en espejo, con aquellos con los que estamos más de acuerdo. O como adoptamos posturas de “demostración de poder”:

“Cuando se reúnen cuatro o más personas, es común descubrir varios grupos de posturas distintos. Rápidamente nos daremos cuenta de que esto no es mera coincidencia. Si una de las personas reacomoda la posición de su cuerpo, los otros miembros de su grupo la imitarán hasta que todas las posturas resulten congruentes. Si escuchamos la conversación nos daremos cuenta que los que opinan igual sobre el tema también se sientan de igual modo.”

 O cuando en una reunión una de las personas adopta una posición de poder – por ejemplo colocando sus manos en la cabeza- quien esté compitiendo adoptará esa misma postura a modo de “lucha por el poder”.

La comunicación no verbal es apasionante y a la vez muy compleja. Numerosos factores nos llevan a adoptar diferentes posturas, tonos de voz, movimientos, miradas. Existen igualmente diferencias culturales, de edad y de sexo, podríamos hablar horas y horas de este tema, y nunca podemos tener la certeza de que estamos comprendiendo bien lo que nos trasmite la otra persona. Ante contradicciones en el mensaje nos fijamos fundamentalmente en la mirada.

La mirada es una de las fuentes más exactas de información y más difíciles de falsear. Jean Paul Sartre sugirió una vez que el contacto visual lo que nos hace real y directamente conscientes de la presencia de otra persona como ser humano, que tiene conciencia e intenciones propias. Cuando los ojos se encuentran se nota una clase especial de entendimiento de ser humano a ser humano.

9a35506add7d7621e6325bb595bdadd7

Nuevos compañeros de trabajo. ¿Qué ocurrirá en el futuro del trabajo cuando miremos a los ojos a ese robot compañero de trabajo? ¿Qué descifrará en nuestra mirada y en el resto de señales no verbales?

Uno de los retos que nos depara el futuro es que los robots puedan entender las emociones de sus compañeros de trabajo humanos (y clientes y proveedores…), emociones que se manifiestan en un elevado porcentaje a través de la CNV. La analítica de las emociones nos va a ayudar ya que permite que la Inteligencia Artificial analice los sentimientos a través de la comunicación tanto verbal como sobre todo no verbal.

Seguramente si desgranamos las señales de CNV y las programamos en un robot, éste sabrá interpretar la comunicación, pero lo fascinante de la CNV justamente es saber interpretar las incongruencias debidas a diferentes factores. ¿Sabrán analizar las incongruencias?

Cuando nos mire a los ojos y esquivemos la mirada, probablemente su programación le llevará a descifrar que estamos ocultando algo, aunque quizás solo sea que algo en la otra punta de la oficina ha llamado nuestra atención y hemos mirado hacia otro lado (ejemplo muy simple).  Nuestro compañero robot podrá aprender rápidamente algunas de las diferentes interpretaciones de nuestro “esquivar la mirada” y, gracias a sofisticados algoritmos, determinará de una forma más exacta el principal motivo.

Cada vez existen más aplicaciones y tecnología que permite detectar, analizar y cuantificar emociones: analizando las expresiones del rostro – Microsoft ‘s Project Oxford -,analizando las emociones a través de la voz – Vokaturi– o analizando las emociones a través de textos escritos y el Procesamiento del Lenguaje Natural (NPL) – Bitext – entre otras.

Sin embargo, este es un ejemplo sencillo -esquivar la mirada- y los humanos somos mucho más complejos, y es en esa complejidad donde aparecen las grandes incógnitas.

Pero ¿llegarán los robots a interpretar la realidad como la mayoría de los humanos? O quizás ¿la pueden interpretar mejor gracias a esos sofisticados algoritmos y “machine learning“?

Comprender a un humano es realmente complicado, y si ya nos cuesta entendernos entre nosotros ¿Cómo lo lograrán ellos? ¿Cómo van a ayudarnos a tomar decisiones con posibles interpretaciones incorrectas?

Como siempre lanzo reflexiones para empezar a debatir entre todos

 

 

6 Respuestas a “¿Qué ve un robot cuando nos mira a los ojos?

  1. Una mirada lo puede ser todo, donde el ser humano puede interpretar el silencio revelando una verdad o una mentira. Un gran trabajo para los programadores de inteligencia artificial y robótica. Gracias por tan acertada aportación!

    Me gusta

  2. Interesantísimo post donde deja claro la brecha existente entre IA y de la humana. Ese espacio donde reservamos como la capacidad innata de los seres humanos (aunque haya diferencias entres los mismos seres).

    Al ver la gráfica, tiendo a pensar que va a ser más fiable conversar con los robots/máquinas mediante el gesto. Es decir, con el lenguaje signado. Del mismo modo que muchas soluciones ya se puede seleccionar el idioma, espero que se incluya en la misma lista el idioma de los diferentes lenguajes signado de los sordomudos existentes en lugar de crear uno propio. Esto podría ser una forma interesante de fomentar el aprendizaje de un lenguaje un tanto especial para comunicar tanto con las máquinas/robót como con otras personas (sordomudos). ¿no creéis?

    Un saludo,

    Le gusta a 1 persona

  3. Pingback: Los mejores Posts RRHH | Enero 2019 – Glocalthinking·

  4. Pingback: MIS FAVORITOS DEL MES - INED21·

Responder

Introduce tus datos o haz clic en un icono para iniciar sesión:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Cerrar sesión /  Cambiar )

Google photo

Estás comentando usando tu cuenta de Google. Cerrar sesión /  Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Cerrar sesión /  Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Cerrar sesión /  Cambiar )

Conectando a %s