Cada vez se habla más del binomio «tecnología emocional», en la que el bienestar del individuo se prioriza. El objetivo es que la transición hacia un futuro tecnológico más inclusivo y humanista permita que innovación y emoción se den la mano.
Las nuevas tecnologías están llegando más allá de lo imaginable, traspasando fronteras físicas y virtuales que antes eran insondables. De alguna forma, tecnología y emociones interactúan cada vez más, tanto con el reto de mejorar nuestra calidad de vida como con objetivos menos diáfanos que podrían traspasar límites éticos, incluso legales.
Sin embargo, los grandes avances en inteligencia artificial (IA) no parece que vayan a reemplazar las reacciones neuropsicológicas, cognitivas o de comportamiento que a diario suscitan en nuestro cerebro los acontecimientos vitales. Otra cosa es que artificialmente se puedan desatar emociones o manipularlas a través de dispositivos tecnológicos, o que se nos pueda someter a una “vigilancia emocional”, no ya por motivos estrictos de salud, sino por intereses políticos o comerciales, entre otros.
La Unión Europea (UE) ha integrado esta materia en la Conferencia sobre el Futuro de Europa y solicita propuestas de los ciudadanos sobre cómo mejorar la calidad de vida mediante la tecnología, ante la creación de un mercado único digital en un entorno legal y seguro. A través de una Brújula Digital que guiará las metas de la Década Digital de Europa (2030) la UE aspira a capacitar a las empresas y las personas para un futuro digital sostenible y centrado en el ser humano.
Si en los últimos años se viene hablando de “bienestar digital” como “un estado intencionado de salud física, mental y social que ocurre cuando hay un compromiso consciente con el medio natural y el medio digital”, ya se está incorporando el término “tecnología emocional” con la idea de que la transición hacia un futuro tecnológico más inclusivo y humanista permitirá que innovación y emoción se den la mano.
¿Cuál sería el objetivo de la tecnología emocional?
Según la Fundación Integra Digital, es que “desarrolladores, administraciones y organizaciones de todos los ámbitos enfoquen la innovación tecnológica hacia la mejora de la vida diaria de las personas y la construcción de una mejor sociedad”.
Durante el II Foro de Tecnología Emocional, promovido por el Gobierno de la Región de Murcia en el marco de la Conferencia sobre el Futuro de Europa, se ha visto que uno de los principales motores para el bienestar digital son las propias empresas tecnológicas, pero también cuenta la responsabilidad individual de los usuarios. Directivos de empresas como Microsoft, la ONCE y Baufest han apostado por empapar el talento digital de humanismo para conseguir soluciones tecnológicas realmente útiles para las personas.
¿Cómo hacer una tecnología más humana?
Ángel Pérez Puletti, CEO de Baufest, empresa de desarrollo de software que ha diseñado más de 1.000 proyectos tecnológicos, propone 5 principios para hacer una tecnología más humana, “puesto que las soluciones digitales están cambiando nuestras vidas desde niños y también la forma de relacionarnos con los demás”.
Consciente de que la tecnología soluciona muchos problemas y crea otros, este alto directivo cree en la responsabilidad personal del ciudadano. “Nos proponemos mejorar la vida con tecnología dejando una huella en la sociedad, pero ¿es válido aceptar cualquier proyecto que nos propongan los clientes?”, se pregunta, advirtiendo que un mismo mecanismo puede utilizarse para llamar a una ambulancia o para activar una bomba atómica.
En busca de respuestas, esta compañía internacional organizó un marco de reflexión para esbozar algunos principios generales que ayuden a humanizar la tecnología. Y lo hizo en torno a 5 temas previos al desarrollo de cualquier proyecto tecnológico: su impacto, el rol, el posicionamiento, la función y los atributos.
“La tecnología en sí misma es neutra, pero no lo es su impacto. Es una herramienta similar a un martillo, que parece algo inerte, pero puede ser útil tanto para construir como para hacer daño”, argumenta Pérez Puletti. “Como ingenieros podemos estar entusiasmados con la parte tecnológica de nuestros proyectos, pero deberíamos valorar qué efectos tienen en la sociedad y decidir si los queremos hacer o no”.
En ese entorno digital hay muchas incertidumbres ¿Cómo posicionarse ante determinadas propuestas que, por ejemplo, remarcan estereotipos masculinos y femeninos, o que fomentan el consumo de tabaco o alcohol?
Otros principios tienen que ver con el producto y con saber qué priorizar para que los diseños se centren en las personas. “Ya no basta con que los hagan arquitectos de software que dominan la parte técnica, sino que son necesarios otros roles profesionales capaces de investigar las necesidades de los usuarios antes de fabricar aplicaciones y también durante su uso”, comenta este tecnólogo, avanzando un futuro multidisciplinar digital en el que se persigue la “honestidad tecnológica”.
Pérez Puletti concluye que lograr una tecnología que mejore la vida de las personas pasa por “combatir sesgos, centrarse en seguridad, transparencia de funciones, privacidad de datos, impacto en minorías y bienestar digital”.
Algoritmos que nacen en la calle
Otros expertos también insisten en que para desarrollar tecnología emocional ya no se buscan especialistas que den soluciones “de laboratorio”, sino que deben conocer los problemas de primera mano. “Hay que centrarse en las personas, en cómo afecta la tecnología a sus vidas, en sus formas de decidir, o saber qué impacta en su comportamiento”, arguye Matthias Ostermann, manager de Innovación en EY, una red de 45 centros internacionales que facilitan la conexión mundial.
Este gestor califica de desafío el cambio de paradigma de algo que estaba muy enraizado y recomienda trasformar los rituales y las dinámicas de los equipos, generar grupos multidisciplinares y diversidad de perfiles laborales que puedan mantener los diseños tecnológicos centrados en el usuario.
“Está claro que la tecnología influye en el bienestar de las personas a través de sus experiencias y emociones”, agrega Gaspar Brändle, profesor de Sociología en la Universidad de Murcia (UMU), recalcando que no basta con que exista una responsabilidad social corporativa de los desarrolladores tecnológicos, sino que también es necesaria “una responsabilidad social individual que a la vez confiere poder al usuario”. Es decir, que deberíamos decidir qué tecnologías usar y que esté asociadas con determinados valores, principios o expectativas; o de forma inversa, hacerles un boicot dejando de adquirirlas.
“Una sociedad hipertecnológica no debería convertirse en una sociedad hiperactiva. Deberíamos ser capaces de poder gestionar el entorno digital y no convertirnos en clicactivistas que no quieren responsabilidades”, sentencia Brändle.
Este sociólogo recuerda que durante los confinamientos por la pandemia hubo más desigualdad y pobreza tecnológica para determinados colectivos. “El tejido digital no llega por igual a todas las personas, y aunque las tecnologías son cada vez más inmersivas, tengo duda de que sean muy inclusivas”, recalca, proponiendo que la alta sensibilidad social que hay en la vida analógica se traslade al ámbito digital “para que la tecnología llegue al corazón de todas las personas”.
Hacia la identidad digital saludable
En el Laboratorio de Bienestar Digital del Hospital Infantil de Boston (el muy conocido Children’s Hospital) están familiarizados con estos términos desde hace 20 años, cuando empezaron a evolucionar haca el aprendizaje socio-emocional como forma de desarrollar identidades saludables, manejar emociones y poder alcanzar logros personales y colectivos, entre otros.
Algunos proyectos que han orientado al bienestar digital son los videojuegos, para poder identificar y combatir el acoso cibernético mediante habilidades de concienciación social, o la responsabilidad a la hora de crear una identidad digital, ayudando a los más jóvenes a reflexionar sobre el uso de las redes, impacto en salud emocional y en relaciones sociales.
Las áreas de uso de la IA son muy variadas en el ámbito de la salud: videojuegos (se pueden detectar emociones durante la partida); diagnóstico médico (ya hay software que detecta depresión o demencia), o cuidado de los pacientes a distancia (no solo para recordar la medicación, también para acompañar). Otra tecnología visual instalada en coches permite monitorizar el estado emocional del conductor y le envía alertas si está somnoliento o muy cansado.
Pero hay muchas más aplicaciones, algunas ciertamente invasivas, como las que quieren instalar algunas tiendas para capturar el humor y las reacciones de los clientes; o en el ámbito educativo, la que adapta las tareas escolares a la frustración detectada en estudiantes, bien por ser trabajos muy difíciles o demasiado fáciles.
La variedad es casi infinita si la IA se aplica a los servicios públicos con fines de vigilancia emocional: en algunas calles de Emiratos Árabes hay cámaras que detectan las expresiones faciales de la gente para ver cuál es el ánimo de la población, según el proyecto de su Ministerio de la Felicidad.
Por otro lado, la inteligencia artificial está facilitando cada vez más que la tecnología emocional esté al servicio de las personas. Según la empresa estadounidense Gartner, consultora de TICs, en 2022 el 10% de los dispositivos electrónicos personales tendrán capacidades emocionales de IA, bien en el propio aparato o en la nube, frente al 1% de 2018.