La Verdad

Tecnología y sentimientos se unen en la computación afectiva
/ Mikel Casal

Tecnología y sentimientos se unen en la computación afectiva

  • Ingeniería Biomédica, Neurociencia, Psicología, Medicina y Marketing son algunas de las disciplinas que encuentran un enorme potencial en dotar a las máquinas de emociones, siempre en beneficio de las personas

Robots que hacen el trabajo de los humanos, que conviven con ellos e incluso que se enamoran. Son algunas de las situaciones tratadas a menudo en la ciencia ficción y que cuentan con tantos defensores como detractores, en el supuesto de que llegasen a ser una realidad.

Si bien es cierto que, por el momento, detrás de esos personajes de película siempre hay un humano que lo maneja, son muchos los científicos que dedican su carrera a conseguir que algún día se logre fabricar robots dotados de inteligencia e incluso de sentimientos, esos que incluso siguen siendo unos grandes desconocidos para las personas.

La computación afectiva fue desarrollada en el reconocido MIT, el Instituto Tecnológico de Massachusetts, en Boston (Estados Unidos), por la doctora Rosalind Picard, que en 1997 publicó el libro 'Affective Computing'.

Ella afirmaba que en el diseño del 'software' era necesario tener en cuenta los factores emocionales de los usuarios. En líneas generales, la computación afectiva se definiría como un nuevo paradigma computacional que permite a los ordenadores usar o expresar emociones.

De igual modo, pretende detectar, reconocer y actuar en relación al estado emocional de las personas (del usuario) y aprender continuamente. Se utilizan herramientas que pueden interpretar, interaccionar y simular las emociones humanas de manera no invasiva (la electricidad cutánea, la sudoración, el ritmo cardiaco, la entonación de la voz, la dilatación de las pupilas, la contracción de músculos de la cara o del cuello o del cuerpo en general...). El objetivo principal de la computación afectiva está centrado en el desarrollo de aplicaciones que permitan ayudar a la toma de decisiones de una forma más humana, así como de mejorar la interacción entre las personas y las máquinas.

Este nuevo paradigma requiere para su desarrollo equipos multidisciplinares que abarcan áreas como la Inteligencia Artificial, Ingeniería Biomédica, Neurociencia, Psicología y Medicina.

Pero, ¿cómo ha llegado la tecnología a integrar la neurociencia y la psicología? Es algo que todavía suena a ciencia ficción. En la opinión de José Tomás Palma, investigador principal del grupo AIKE (Artificial Intelligence and Knowledge Engineering) de la Facultad de Informática de la Universidad de Murcia, «todo sigue una evolución natural encaminada a hacer que nuestra interacción con los ordenadores, robots y aplicaciones sea cada vez más humana, y que permita que las tareas que realizamos con ellos sean más efectivas. Por ejemplo, la comprensión de una determinada información que presente un ordenador bajo emociones negativas es totalmente distinta cuando dicha información es presentada bajo la influencia de emociones positivas. Un ordenador que sea capaz de determinar el estado afectivo puede buscar formas de presentar la información que maximicen su asimilación por parte de los usuarios».

Las aplicaciones de la computación afectiva son muy variadas, desde la educación hasta el entretenimiento. El grupo de computación afectiva del MIT, pionero en este campo, trabaja en un tutor de piano que, dependiendo del estado anímico, presenta unos ejercicios u otros.

«Si mostramos interés y vamos progresando de forma adecuada, puede mostrar unos ejercicios acordes con nuestro nivel; pero si mostramos falta de interés y hacemos los ejercicios rápido, puede ofrecernos ejercicios de un nivel más alto. Si, por el contrario, detecta frustración, puede ofrecer ejercicios más sencillos y disminuir el ritmo de aprendizaje. Por ejemplo, la empresa Beyond Verbal, de Israel, analiza emociones en tiempo real poniendo un chip en un robot que capta las inflexiones de la voz y responde de forma acorde a las emociones que se graban y que están relacionadas con diferentes entonaciones», según Palma.

En el campo de los videojuegos, ya se pueden crear juegos que, cuando detecten aburrimiento, generen acciones para «enganchar al usuario». Y, al contrario, si el nivel de estrés supera unos umbrales, reducir la intensidad del mismo.

También se puede aplicar al neuromarketing. Las empresas de publicidad pueden diseñar anuncios (para cualquier medio) que maximice las emociones de las personas a las que van orientados.

O, por ejemplo, cadenas de televisión como la BBC o la CBS están testando sus programas a la respuesta de la audiencia (los oyentes y telespectadores). Así, envían clips a miles de voluntarios, estos los pueden ver con una webcam y se pueden interpretar las reacciones faciales y conductuales (datos que se transforman en validar si gusta o no).

Medicina

En el caso de la salud, es conocido que las emociones están íntimamente relacionadas con la misma. Situaciones estresantes, estados de depresión, frustración y otras emociones negativas pueden afectar a su estado.

El profesor de la UMU explica que «un sistema que sea capaz de detectar dichas situaciones y nos ayude a salir de dichos estados puede ayudar a mejorar nuestra salud. Por ejemplo, si somos capaces de mantener estados emocionalmente positivos potenciaríamos nuestro sistema inmune. La eficacia de los tratamientos y los periodos de recuperación mejoran sensiblemente bajo la influencia de estados emocionales positivos. También se está aplicando en niños autistas, en el tratamiento del Síndrome de Asperger y en hiperactividad, y se están desarrollando muchas más aplicaciones».

Esta tecnología no podrá sustituir a los médicos, por ahora, pero sí ayudar al diagnóstico y tratamiento, y sobre todo a facilitar la vida cotidiana de los usuarios y pacientes. Igualmente, es una herramienta que se vislumbra de gran utilidad para ayudar al seguimiento de los pacientes. Por tanto, será muy útil e imprescindible en el futuro.

María Trinidad Herrero, investigadora principal del grupo NiCE (Neurociencia Clínica Experimental) de la Facultad de Medicina de la Universidad de Murcia, aclara que «el hecho de que el médico tenga la posibilidad de poder determinar con una mayor precisión el estado emocional de un paciente mejorará la calidad de la atención al mismo, la prestación de servicios será más efectiva y, por lo tanto, se reducirían los costes. Pero esto no implica que este tipo de sistemas tengan como objetivo sustituir a los médicos, sino ser asistentes que colaboren en una prestación de servicios más adecuada y personalizada. Así mejorará la calidad asistencial».

Control permanente

Evidentemente, la determinación continua del estado afectivo requiere de una monitorización constante y, por tanto, la sensorización de las personas. Sin embargo, muchos de los trabajos se basan en la detección de las emociones con sensores que ya se utilizan a diario.

«Existen pulseras de actividad que ofrecen las señales necesarias para determinar el estado afectivo. También hay aproximaciones que son capaces de detectar determinados estados emocionales analizando cómo utilizamos el teclado o el ratón», según Herrero.

«No obstante -añade- no significa que nos dirijamos a un mundo controlado por sensores, sino que los sensores permitirán interacciones más precisas y eficaces con el entorno. En la actualidad, la mayoría de nosotros tenemos un móvil con el GPS activado, se está generalizando el uso de relojes inteligentes y pulseras de actividad, que recogen multitud de datos sobre nuestros hábitos (ejercicio, sueño, frecuencia cardíaca...). Además, gracias al desarrollo de Internet de las Cosas, se va a generalizar el uso de multitud de sensores conectados a internet (solo hay que echar un vistazo a los proyectos pilotos sobre ciudades inteligentes)».

Palma advierte de que «el problema no está en los sensores, sino en la utilización y manipulación de dichos datos. Hay aspectos éticos, de privacidad y seguridad, en los que se está trabajando para garantizar un buen uso de dicha información».

Formación

El pasado noviembre ambos investigadores estuvieron al frente del 'workshop' 'Affective Computing' en la UMU, que, durante dos días, congregó a un nutrido grupo de investigadores interesados en el campo de la computación afectiva, inteligencia ambiental y sistemas sensibles al contexto.

A dicha reunión acudieron científicos de Corea del Sur, Polonia, España, Portugal y Alemania, así como representantes de empresas. Cada uno de los investigadores presentó sus líneas de trabajo y los últimos resultados de investigación en cada uno de sus campos. Además de conocer los últimos avances, se celebraron reuniones para identificar oportunidades de colaboración. Concretamente, se vieron diferentes posibilidades de colaboración en el marco del programa europeo 'Horizonte 2020' en forma de acciones tipo COST o Marie Curie.

«El balance de este 'workshop' no pudo ser más positivo», según los organizadores. «Permitió contactar con importantes investigadores de muy diversas áreas (ingeniería biomédica, inteligencia artificial, videojuegos, etc.) y planificar futuras colaboraciones que nos permitirán trabajar de forma conjunta en proyectos de investigación innovadores en el campo de la computación afectiva, entre otros».

Investigación

Como es normal, para seguir avanzando es necesario realizar estudios, obtener datos y trabajar con ellos. El grupo que dirige la profesora Herrero busca ahora conocer el efecto de diferentes sentidos (vista, oído, gusto y olfato) en la expresión y detección de emociones así como en el rendimiento cognitivo.

Su objetivo es descifrar los efectos positivos en el procesamiento cerebral, la memoria visuoespacial, la planificación, la velocidad de reacción y el control de emociones. Igualmente, se evalúa el efecto del aprendizaje.

Para ello, emplean diferentes estrategias de análisis de conducta y de respuestas cerebrales y emocionales. «Con los sensores, podemos establecer diferentes parámetros cuantitativos que se traducen en índices de memorización, de interés, de atención y de emoción, y podemos evaluar sus cambios, segundo a segundo, en diferentes circunstancias experimentales», explica.

Se trata de un trabajo que cuenta con financiación de la Fundación Séneca y un contrato con la empresa Nutrafur, SA en base a un proyecto del CDTI (Smartfoods) sobre efectos cerebrales de alimentos inteligentes. Se está desarrollando en colaboración con el profesor Babiloni de la Facultad de Medicina de la Universidad La Sapienza (Roma) y con profesores de la Universidad Jageillonian de Cracovia (Polonia), además de con otros colegas españoles de la Universidad Politécnica de Madrid.

A día de hoy, ya disponen de algunos resultados, aunque están a la espera de ser publicados en revistas científicas. María Trinidad Herrero apunta, como algunos de los más destacados, «el efecto de olores en las emociones, en parámetros cognitivos y en la percepción estética; los efectos de distintos anuncios y estímulos (neuromarketing) o las diferencias entre niños indígenas de Patamban y Zamora (México) con niños de institutos públicos y privados de Murcia». Este último estudio ('Colibrí') fue financiado parcialmente por el Programa Europeo Cruz del Sur de la Universidad de Murcia con la visita de investigación de la doctora Herrero al Colmich (Colegio de Michoacán).

Temas