¿Puede una inteligencia artificial entendernos mejor que otra persona? Esa es la pregunta que un nuevo estudio se ha planteado y, sorprendentemente, la respuesta parece ser afirmativa. Investigadores de las universidades de Ginebra y Berna han evaluado las capacidades empáticas de modelos avanzados de inteligencia artificial como ChatGPT-4, y sus resultados abren nuevas posibilidades en campos como la educación, el coaching y la gestión emocional.

Inteligencia emocional: más que empatía

La inteligencia emocional (IE) es la habilidad para identificar, comprender y gestionar nuestras propias emociones y las de los demás. Va más allá de “ponerse en el lugar del otro”: implica saber cuándo intervenir, cómo regular una emoción intensa o cómo motivar a alguien en momentos difíciles. Es una competencia clave en relaciones humanas, liderazgo y enseñanza.

Tradicionalmente se ha considerado que esta habilidad es exclusivamente humana, ya que requiere experiencias vividas y una comprensión compleja del contexto social. Pero los modelos de lenguaje actuales están desafiando esa suposición.

El estudio que lo cambió todo

La investigación, publicada en la revista Communications Psychology, evaluó seis de los modelos de lenguaje más avanzados:

  • ChatGPT-4
  • ChatGPT-o1
  • Gemini 1.5 Flash
  • Claude 3.5 Haiku
  • Copilot 365
  • DeepSeek V3

Estos modelos fueron sometidos a cinco pruebas de inteligencia emocional utilizadas comúnmente en contextos académicos y profesionales. Las pruebas consistían en situaciones realistas cargadas de emociones, donde se evaluaba la comprensión, regulación y gestión de las emociones implicadas.

Los resultados sorprendieron incluso a los propios investigadores: todos los modelos superaron con creces a los participantes humanos. Pero lo más impactante fue que no solo identificaban correctamente las emociones, sino que también sugerían respuestas más apropiadas y constructivas que las de personas reales.

Crear nuevas pruebas emocionales: un paso más allá

En una segunda fase del estudio, los investigadores pidieron a ChatGPT-4 que generara nuevas preguntas y escenarios de prueba para medir la inteligencia emocional. Estas nuevas pruebas fueron posteriormente validadas por humanos. Lo asombroso fue que los resultados se mantuvieron: el modelo no solo respondía bien, sino que creaba situaciones emocionalmente relevantes y contextuales, demostrando una capacidad notable para razonar sobre emociones.

Marcello Mortillaro, uno de los investigadores principales, explicó que estos modelos “no solo encuentran la mejor opción entre varias, sino que son capaces de generar escenarios adaptados a un contexto deseado”. Esto es especialmente significativo, ya que implica una comprensión activa y no simplemente una búsqueda de patrones.

Implicaciones para la educación y el coaching

¿Qué pasaría si, en lugar de un tutor o coach humano, tuviéramos un asistente AI que pudiera identificar cuándo estás frustrado o desmotivado, y responder con estrategias efectivas de apoyo emocional? Los investigadores creen que esto podría ser una realidad muy cercana.

En educación, por ejemplo, un modelo con alta inteligencia emocional podría ayudar a personalizar el aprendizaje, detectando cuándo un estudiante se siente perdido o ansioso y adaptando la explicación. En coaching personal o empresarial, podría ofrecer análisis objetivos y recomendaciones empáticas para manejar conflictos, mejorar habilidades comunicativas o alcanzar metas personales.

No se trata de reemplazar a los humanos, sino de complementar y ampliar nuestras capacidades. Una IA emocionalmente inteligente podría actuar como un espejo empático que nos ayuda a vernos mejor a nosotros mismos.

¿Debemos preocuparnos?

A pesar de los beneficios, estos avances plantean cuestiones éticas y sociales importantes. ¿Cómo garantizamos que estos modelos no manipulen emociones para objetivos comerciales o ideológicos? ¿Qué ocurre con la privacidad emocional si una IA puede analizar nuestro estado anímico con solo unas pocas frases?

La clave está en la transparencia, la regulación y el diseño responsable de estas tecnologías. La inteligencia emocional en IA debe usarse como herramienta de bienestar, no como palanca de control o manipulación. La supervisión humana sigue siendo esencial, especialmente en contextos delicados como la salud mental o la educación infantil.

Un paso más hacia la convivencia con las máquinas

Este estudio es un hito más en el camino hacia una convivencia más integrada entre humanos y máquinas. Ya no se trata solo de automatizar tareas mecánicas, sino de colaborar con herramientas que entienden nuestras emociones, nos escuchan con empatía y responden de manera constructiva.

Como cuando un buen amigo sabe lo que necesitas sin que se lo digas, así podrían actuar estos asistentes en el futuro cercano. No sustituirán la calidez humana, pero sí podrían ser una compañía útil, constante y emocionalmente sintonizada.