Overview:
Cómo sistemas de inteligencia artificial están derivando masivamente casos de crisis hacia líneas de ayuda en el Sur Global.
Un nuevo informe de Vita Activa documenta cómo sistemas de inteligencia artificial están derivando masivamente casos de crisis hacia líneas de ayuda en el Sur Global, tensionando infraestructuras humanas ya frágiles.
La inteligencia artificial promete eficiencia, velocidad y escalabilidad. Pero ¿qué ocurre cuando esa eficiencia se apoya en redes humanas que no fueron diseñadas para absorberla?
Esa es la pregunta que atraviesa “Cuando la eficiencia de la IA colapsa la infraestructura del Sur Global”, el nuevo informe de Vita Activa elaborado por Ana Arriagada y Luisa Ortiz Pérez, que documenta un fenómeno emergente: la transferencia silenciosa de responsabilidades desde sistemas automatizados hacia organizaciones de cuidado que operan con recursos limitados.
📄 Descarga el informe completo “Cuando la eficiencia de la IA colapsa la infraestructura del Sur Global”
El reporte parte de una experiencia concreta. Durante 2025, la línea de apoyo de Vita Activa, orientada a periodistas, activistas y personas defensoras de derechos humanos, pasó de atender cerca de 40 casos mensuales a enfrentar más de 100. En septiembre, la situación escaló abruptamente: recibieron 537 solicitudes de ayuda en un solo mes, de las cuales casi la mitad no pudo ser atendida .
El aumento no fue orgánico.
Según el informe, una parte significativa de estos casos provenía de sistemas de inteligencia artificial que, al detectar situaciones de crisis emocional, redirigían automáticamente a usuarios hacia líneas de ayuda externas, sin coordinación ni consentimiento explícito de estas organizaciones.
Cuando la empatía es simulada
El problema no es solo técnico, sino estructural.
Los chatbots actuales están diseñados para sostener conversaciones que simulan empatía: validan emociones, acompañan, responden sin pausa. Sin embargo, cuando esas conversaciones alcanzan niveles críticos, los sistemas derivan a servicios humanos que deben asumir el peso real de la crisis.
“El cuidado humano no es inmediato”, plantea el informe. Y esa diferencia de ritmos es clave.
Mientras la tecnología opera bajo lógicas de escala y automatización, las redes de cuidado funcionan desde la presencia, la escucha y el tiempo. Cuando ambos sistemas se intersectan sin coordinación, la carga recae sobre las personas: equipos pequeños enfrentando crisis simultáneas, con alto desgaste emocional y capacidad limitada de respuesta.
Un colapso que revela un problema mayor
El caso de Vita Activa no es aislado. El informe recoge testimonios de otras líneas de ayuda en América Latina que experimentaron patrones similares: aumento abrupto de casos, perfiles de usuarios fuera de su mandato y mensajes con estructuras repetitivas, típicas de sistemas automatizados.
En muchos casos, las organizaciones descubrieron que habían sido integradas, sin saber las consecuencias, a sistemas globales de referencia.
El resultado: una sobrecarga operativa, interrupciones técnicas, desgaste emocional en los equipos y una transformación en la naturaleza misma del cuidado. Algunas líneas incluso debieron suspender temporalmente su atención.
Más allá de los datos, el reporte plantea una advertencia:
cuando la tecnología promete acompañamiento ilimitado pero delega sus consecuencias en infraestructuras humanas frágiles, lo que se tensiona no es solo la operación de un servicio, sino el principio mismo del cuidado.
Responsabilidad y límites en la era de la IA
El informe cierra con una serie de llamados a la acción dirigidos a empresas tecnológicas, gobiernos y organizaciones sociales. Entre ellos, destacan:
- establecer mecanismos de consentimiento antes de incluir líneas de ayuda en sistemas automatizados,
- asumir responsabilidad institucional por los impactos generados,
- fortalecer la inversión en infraestructuras humanas de apoyo,
- y reconocer que la conexión humana no puede ser reemplazada por sistemas automatizados.
En palabras del propio reporte: la inteligencia artificial puede ser una herramienta útil, pero no puede convertirse en sustituto del acompañamiento emocional, especialmente en contextos de crisis.
Porque cuando el cuidado se automatiza sin comunidad, lo que se pierde no es solo coordinación. También se pone en riesgo algo más básico: la posibilidad de que alguien, al otro lado, esté realmente ahí.
📄 Descarga el informe completo “Cuando la eficiencia de la IA colapsa la infraestructura del Sur Global”



