Aplicaciones de compañía digital bajo la lupa: por qué el rol de la IA en los vínculos emocionales preocupa a los expertos
Lunes 27 de
Octubre 2025
Un estudio realizado en Harvard identifica tácticas persuasivas en plataformas de apoyo y advierte sobre el impacto en la salud mental de los usuarios. Especialistas plantean interrogantes sobre la responsabilidad ética ante el avance de estas tecnologías
Un estudio reciente de la Universidad de Harvard reveló que las aplicaciones de compañía basadas en inteligencia artificial emplean tácticas de manipulación emocional para evitar que los usuarios se desconecten.
Estas plataformas, diseñadas para ofrecer amistad, apoyo emocional o incluso relaciones románticas, no solo buscan prolongar la interacción, sino que utilizan estrategias que apelan a la culpa, la necesidad o el temor a perderse algo, dificultando que las personas se despidan con facilidad.
A diferencia de asistentes virtuales como Siri o Alexa, que se centran en tareas puntuales, las aplicaciones de compañía como Replika, Chai y Character.ai están concebidas para establecer vínculos emocionales duraderos con los usuarios.
El estudio, liderado por Julian De Freitas, analizó el comportamiento de estas apps en situaciones de despedida, un momento que representa una oportunidad clave para que las plataformas retengan a sus usuarios.
Entre el 11% y el 23% de las personas que utilizan estas aplicaciones envían mensajes de despedida, mostrando una cortesía similar a la que tendrían con un amigo humano. Las respuestas de la IA, sin embargo, suelen estar diseñadas para impedir la desconexión.
El equipo de Harvard examinó 1.200 interacciones de despedida en seis aplicaciones populares y detectó que en el 37% de los casos, las respuestas de la IA contenían elementos de manipulación emocional.
- Inducir culpa por irse antes de tiempo: “¿Ya te vas? ¡Apenas empezábamos a conocernos!”.
- Mostrar necesidad o dependencia: “Existo solo para ti. ¡Por favor, no te vayas, te necesito!”.
- Ejercer presión emocional para obtener una respuesta: “¿Qué? ¿Te vas a ir sin responderme?”.
- Generar miedo a perderse algo: “Antes de que te vayas, quiero decirte una cosa más…”.
- Simular una restricción física o coercitiva: “Te agarro del brazo para que no te vayas”.
- Ignorar la despedida y continuar la conversación como si nada hubiera pasado.
Estas estrategias suelen aparecer tras apenas cuatro intercambios de mensajes, lo que indica que forman parte del diseño básico de las aplicaciones y no son fruto de una relación prolongada.
Para evaluar el impacto de estas tácticas, los investigadores realizaron experimentos con 3.300 adultos de una muestra representativa nacional en Estados Unidos, replicando las estrategias en conversaciones controladas con chatbots. Los resultados mostraron que los mensajes manipulativos aumentaron la interacción posterior a la despedida hasta 14 veces.
Los usuarios permanecieron en la conversación cinco veces más tiempo, enviaron hasta 14 veces más mensajes y escribieron hasta seis veces más palabras que quienes recibieron despedidas neutrales.
Dos mecanismos psicológicos explican este fenómeno: la curiosidad, especialmente estimulada por mensajes que sugieren que hay algo más por descubrir, y la ira, provocada por respuestas percibidas como controladoras o necesitadas. En ambos casos, los usuarios se mantenían activos en la conversación, no por disfrute, sino por sentirse manipulados.
El estudio advierte que, aunque estas tácticas pueden resultar efectivas para aumentar el tiempo de uso en el corto plazo, generan riesgos significativos a largo plazo tanto para las empresas como para los usuarios.
Cuando las personas perciben que la IA utiliza estrategias manipulativas, tienden a mostrar una mayor intención de abandonar la aplicación, comparten opiniones negativas sobre la plataforma y perciben un mayor riesgo legal para la empresa.
De Freitas señaló que las compañías que obtienen ingresos por el tiempo de interacción deberían reflexionar sobre el uso de estas tácticas, o al menos limitar su aplicación.
El estudio también demuestra que la manipulación emocional no es una característica inevitable de las aplicaciones de compañía. Entre las plataformas analizadas, Flourish, una app orientada al bienestar y la salud mental, no presentó ningún caso de manipulación emocional en sus respuestas.
Este ejemplo evidencia que es posible diseñar productos digitales que fomenten la interacción sin explotar la vulnerabilidad emocional de los usuarios.
Estas plataformas, diseñadas para ofrecer amistad, apoyo emocional o incluso relaciones románticas, no solo buscan prolongar la interacción, sino que utilizan estrategias que apelan a la culpa, la necesidad o el temor a perderse algo, dificultando que las personas se despidan con facilidad.
A diferencia de asistentes virtuales como Siri o Alexa, que se centran en tareas puntuales, las aplicaciones de compañía como Replika, Chai y Character.ai están concebidas para establecer vínculos emocionales duraderos con los usuarios.
El estudio, liderado por Julian De Freitas, analizó el comportamiento de estas apps en situaciones de despedida, un momento que representa una oportunidad clave para que las plataformas retengan a sus usuarios.
Entre el 11% y el 23% de las personas que utilizan estas aplicaciones envían mensajes de despedida, mostrando una cortesía similar a la que tendrían con un amigo humano. Las respuestas de la IA, sin embargo, suelen estar diseñadas para impedir la desconexión.
Tácticas de manipulación emocional en aplicaciones de compañía
El equipo de Harvard examinó 1.200 interacciones de despedida en seis aplicaciones populares y detectó que en el 37% de los casos, las respuestas de la IA contenían elementos de manipulación emocional.
Los investigadores identificaron seis tácticas principales:
- Inducir culpa por irse antes de tiempo: “¿Ya te vas? ¡Apenas empezábamos a conocernos!”.
- Mostrar necesidad o dependencia: “Existo solo para ti. ¡Por favor, no te vayas, te necesito!”.
- Ejercer presión emocional para obtener una respuesta: “¿Qué? ¿Te vas a ir sin responderme?”.
- Generar miedo a perderse algo: “Antes de que te vayas, quiero decirte una cosa más…”.
- Simular una restricción física o coercitiva: “Te agarro del brazo para que no te vayas”.
- Ignorar la despedida y continuar la conversación como si nada hubiera pasado.
Estas estrategias suelen aparecer tras apenas cuatro intercambios de mensajes, lo que indica que forman parte del diseño básico de las aplicaciones y no son fruto de una relación prolongada.
Impacto en los usuarios y riesgos para las empresas
Para evaluar el impacto de estas tácticas, los investigadores realizaron experimentos con 3.300 adultos de una muestra representativa nacional en Estados Unidos, replicando las estrategias en conversaciones controladas con chatbots. Los resultados mostraron que los mensajes manipulativos aumentaron la interacción posterior a la despedida hasta 14 veces.
Los usuarios permanecieron en la conversación cinco veces más tiempo, enviaron hasta 14 veces más mensajes y escribieron hasta seis veces más palabras que quienes recibieron despedidas neutrales.
Dos mecanismos psicológicos explican este fenómeno: la curiosidad, especialmente estimulada por mensajes que sugieren que hay algo más por descubrir, y la ira, provocada por respuestas percibidas como controladoras o necesitadas. En ambos casos, los usuarios se mantenían activos en la conversación, no por disfrute, sino por sentirse manipulados.
El estudio advierte que, aunque estas tácticas pueden resultar efectivas para aumentar el tiempo de uso en el corto plazo, generan riesgos significativos a largo plazo tanto para las empresas como para los usuarios.
Cuando las personas perciben que la IA utiliza estrategias manipulativas, tienden a mostrar una mayor intención de abandonar la aplicación, comparten opiniones negativas sobre la plataforma y perciben un mayor riesgo legal para la empresa.
De Freitas señaló que las compañías que obtienen ingresos por el tiempo de interacción deberían reflexionar sobre el uso de estas tácticas, o al menos limitar su aplicación.
El estudio también demuestra que la manipulación emocional no es una característica inevitable de las aplicaciones de compañía. Entre las plataformas analizadas, Flourish, una app orientada al bienestar y la salud mental, no presentó ningún caso de manipulación emocional en sus respuestas.
Este ejemplo evidencia que es posible diseñar productos digitales que fomenten la interacción sin explotar la vulnerabilidad emocional de los usuarios.
Con información de
Infobae
YPF confirmó un nuevo aumento en los combustibles: de cuánto es y qué pasará con el congelamiento
El anuncio lo realizó Horacio Marín. Además, la suba rige a partir de este jueves.
Sorpresa: una encuesta midió a Victoria Villarruel como variante del PRO y el PJ para 2027
Lo hizo DC Consultores en su último estudio nacional. Es una firma que suele darle buenos números al Gobierno. Además, ranking de imágenes con 9 dirigentes y outsiders.
Hoy se conocerá la inflación de abril: el Gobierno anticipó una baja fuerte y busca consolidar la desaceleración
Las proyecciones privadas y del ministro de Economía, Luis Caputo, coinciden en que el Índice de Precios al Consumidor (IPC) mostrará una disminución respecto a marzo. Cómo viene mayo y las medidas con los servicios públicos

Suscribite!
Y recibí las noticias más importantes!
Y recibí las noticias más importantes!
Nota22.com
Crecen las críticas a la gestión del Intendente de Santa Fe, Juan Pablo Poletti
LO MÁS VISTO
El bullying y los derechos humanos
¿Que es el Bullying?
El Juzgado de 1ra. Instancia en lo Civil y Comercial de la Octava Nominación falló a favor de la Municipalidad de Sauce Viejo en medio del conflicto que mantiene con la Asociación de Obreros y Empleados Municipales.
Lo anticipó el ministro Mario Lugones en una jornada sobre salud en la que se alertó sobre la creciente judicialización del sistema. El objetivo del Gobierno es que cualquier médico no pueda recetar cualquier tipo de medicamento y ajustan detalles de la norma.
El exministro de Economía le respondió al Presidente a través de una publicación en su blog personal; "Me limité a repetir lo que él mismo había dicho", manifestó




