Estas son las funciones sociales y emocionales que nunca podrá cubrir un chatbot / Por Oliver Serrano León

Estas son las funciones sociales y emocionales que nunca podrá cubrir un chatbot / Por Oliver Serrano León

Millones de personas interactúan a diario con sistemas conversacionales, no solo para resolver dudas o aumentar su productividad, sino también para desahogarse, ordenar pensamientos o sentirse acompañadas.

Lo relevante no es únicamente el avance tecnológico, sino el tipo de vínculo que empieza a emerger. Aplicaciones diseñadas específicamente para ofrecer compañía –como Replika o Character.AI– y herramientas más generalistas como ChatGPT están ocupando un espacio que hasta hace poco pertenecía exclusivamente a las relaciones humanas: el de la interacción emocional cotidiana.

La cuestión ya no es si estas tecnologías pueden conversar de forma convincente sino qué ocurre cuando empezamos a relacionarnos con máquinas que simulan escucharnos, comprendernos y acompañarnos.

Cuando una herramienta se percibe como “alguien”

Desde la psicología social, sabemos que los seres humanos no necesitamos demasiado para activar nuestros mecanismos de interacción social. Basta con que algo responda de forma contingente, coherente y mínimamente personalizada. Este fenómeno, conocido como antropomorfización, describe la tendencia a atribuir mente, intención y emociones a sistemas no humanos.

Los sistemas conversacionales actuales cumplen con creces esas condiciones. Responden rápido, ajustan el lenguaje, recuerdan información previa y simulan estados emocionales. No es que confundamos una IA con una persona; es que nuestro sistema cognitivo no está diseñado para interactuar con entidades que “parecen sociales” sin tratarlas como tales. Como ya mostraron los investigadores de la Universidad de Standford Clifford Reeves y Byron Nass en su informe The Media Equation, tendemos a aplicar normas sociales a ordenadores y medios, incluso cuando sabemos que no son humanos.

En la práctica, esto significa que hablar con una IA no es una interacción neutra. Es una interacción psicológicamente social, aunque uno de los interlocutores no sea una persona.

Millones de personas conversan con chatbots de forma habitual. Brett Jordan / Unsplash. , CC BY-SA.

El atractivo de una relación sin fricción

Las relaciones humanas son complejas por definición. Implican tiempos de espera, malentendidos, reciprocidad, conflicto y ajuste continuo. Los compañeros artificiales o AI companions eliminan gran parte de esa fricción. Están disponibles en cualquier momento, responden de forma inmediata y rara vez introducen disonancia o desacuerdo.

Desde el punto de vista del aprendizaje, esto genera un entorno especialmente reforzante. Las interacciones tienden a ser satisfactorias o, al menos, no aversivas, lo que incrementa su repetición. Este tipo de dinámica se entiende bien desde los modelos de refuerzo: cuando una conducta (en este caso, interactuar con la IA) produce consecuencias positivas de forma consistente, su probabilidad de repetición aumenta.

Además, la ausencia de evaluación social negativa reduce el coste de exponerse. Sabemos que las personas pueden llegar a compartir más información personal con sistemas automatizados que con otros humanos, precisamente porque perciben menor riesgo de juicio. En otras palabras, la IA ofrece algo difícil de encontrar en la vida cotidiana: escucha constante sin consecuencias sociales inmediatas (posibles juicios, críticas, burlas, etc.).

Qué necesidades emocionales pueden estar cubriendo

En este contexto, no resulta sorprendente que muchas personas empiecen a utilizar estos sistemas para funciones que antes cumplían otras personas. Una de ellas es la regulación emocional básica. Verbalizar pensamientos, ordenar lo que sentimos o recibir una respuesta estructurada puede reducir la activación emocional. Este efecto está bien documentado en la literatura sobre escritura expresiva: poner en palabras la experiencia emocional facilita su procesamiento.

También aparece la sensación de compañía. Aunque sepamos que la IA no tiene conciencia, la interacción continuada puede generar una percepción subjetiva de presencia. Este fenómeno conecta con las relaciones parasociales, donde los individuos desarrollan vínculos emocionales con figuras mediáticas o virtuales, sin reciprocidad real.

A esto se suma la validación. Los sistemas están diseñados para responder de forma comprensiva y ajustada, lo que facilita una experiencia de escucha difícil de sostener en relaciones humanas, en las que el otro también tiene límites, emociones y necesidades.

Lo que no está: reciprocidad, conflicto y reconocimiento real

Sin embargo, hay elementos fundamentales que no aparecen en este tipo de interacción y que son clave para el desarrollo psicológico. El primero es la reciprocidad real. En una relación humana, el otro no está ahí solo para responder. También tiene necesidades, puede retirarse, puede no entendernos o puede no estar de acuerdo. Esa interdependencia es parte esencial del vínculo.

El segundo es el conflicto. Aunque tendamos a evitarlo, el desacuerdo, la frustración y la necesidad de negociación son contextos donde se ponen en juego habilidades fundamentales: tolerancia a la frustración, regulación emocional, empatía recíproca y corregulación interpersonal. En las relaciones humanas, el conflicto obliga a ajustar la propia respuesta al estado emocional del otro. Las interacciones con IA, en cambio, tienden a reducir esta fricción: no solo facilitan la conversación, sino que a veces disminuyen la exposición a información incómoda o discrepante. Esa “fricción de verdad” es precisamente una de las dimensiones problemáticas de la bautizada en inglés como AI sycophancy –“adulación de la IA”–, entendida como la tendencia de los modelos de lenguaje a estar de acuerdo, halagar y validar al usuario.

El tercero es el reconocimiento genuino. Ser validado por otra persona implica una contingencia real, podría no ocurrir. Esa posibilidad es lo que da valor al reconocimiento. En una IA, la validación está garantizada por diseño. No hay riesgo de rechazo, pero tampoco autenticidad en sentido estricto.

Sustitución funcional y dependencia sin conflicto

El escenario más probable no es una sustitución total de las relaciones humanas, sino una sustitución funcional. Es decir, que determinadas funciones –desahogo emocional, toma de decisiones, compañía puntual– empiecen a desplazarse hacia la interacción con sistemas artificiales.

Este cambio es sutil, pero relevante. Reduce la exposición a la complejidad relacional humana y puede favorecer un patrón particular: dependencia sin conflicto. Una forma de relación que no exige adaptación, no genera rechazo y no obliga a revisar el propio comportamiento.

A corto plazo, esto puede resultar altamente eficaz para reducir el malestar. A largo plazo, puede limitar el desarrollo de habilidades psicológicas que solo se adquieren en contextos donde hay fricción, incertidumbre y reciprocidad real. Como advierte la investigadora del Massachusetts Institute of Technology Sherry Turkle en su ensayo Alone Together, la tecnología puede ofrecer la ilusión de compañía sin las demandas de la relación, pero eso no es equivalente a una relación.

Una nueva categoría de vínculo

Más que sustituir a las relaciones humanas, los AI companions parecen estar configurando una categoría intermedia: espacios psicológicos de baja exigencia donde es posible hablar, organizarse emocionalmente o sentirse acompañado sin asumir el coste de una relación.

La cuestión no es si debemos utilizar estas herramientas, sino cómo integrarlas sin que desplacen aquello que las relaciones humanas aportan y que no puede ser replicado: la negociación, la diferencia, la imprevisibilidad y, en última instancia, la capacidad de transformarnos a través del otro.

Y es que una conversación que siempre funciona puede ser cómoda. Pero no necesariamente es la que más nos hace crecer.The Conversation

Oliver Serrano León es director y profesor del Máster de Psicología General Sanitaria por la Universidad Europea.

Este artículo fue publicado originalmente en The Conversation.

Resumen de privacidad

Usamos cookies en nuestro sitio web para brindarle la experiencia más relevante recordando sus preferencias y visitas repetidas. Al hacer clic en "Activar todo", acepta el uso de todas las cookies. Sin embargo, puede visitar la Configuración de cookies para proporcionar un consentimiento controlado.