La filtración: ¿Qué ocurrió en Cal AI?
El 9 de marzo de 2026, un actor de amenazas publicó un volcado de datos en BreachForums afirmando haber comprometido Cal AI, la app de seguimiento de calorías impulsada por IA que recientemente fue noticia por adquirir MyFitnessPal. El volcado sumaba 14,59 GB en ocho archivos, que supuestamente contenían más de 3,2 millones de registros de usuarios.
Puntos clave
- Un hacker bajo el alias «vibecodelegend» afirma haber vulnerado Cal AI, la app viral de seguimiento de calorías con IA que recientemente adquirió MyFitnessPal, publicando 14,59 GB de datos que supuestamente contienen más de 3,2 millones de registros de usuarios en BreachForums. Los datos expuestos incluyen fechas de nacimiento, nombres completos, géneros, direcciones de correo electrónico, perfiles en redes sociales, códigos PIN, detalles de suscripción, atributos físicos como altura y peso, registros de comidas con marcas de tiempo y objetivos de ejercicio.
- El vector de ataque fue, según se informa, un backend de Google Firebase sin autenticación: el atacante afirmó que toda la tabla de suscripciones era legible sin credenciales. Además, la app utilizaba PINs numéricos de 4 dígitos sin limitación de intentos ni CAPTCHA en el endpoint de inicio de sesión, facilitando enormemente los ataques de fuerza bruta.
- Investigadores de Cybernews revisaron los datos filtrados y confirmaron que parecen legítimos. El conjunto de datos contenía aproximadamente 2,8 millones de direcciones de correo electrónico únicas, de las cuales casi 1,2 millones usaban el servicio de relay privado de Apple, lo que significa que la filtración expuso datos que los usuarios intentaron proteger activamente.
- Al menos un registro pertenecía supuestamente a un menor nacido en 2014, lo que plantea serias preocupaciones sobre la protección de datos infantiles bajo COPPA y GDPR. La naturaleza profundamente personal de los datos de salud y comportamiento involucrados —hábitos alimenticios, medidas corporales, metas de fitness— permite crear perfiles de estilo de vida que pueden ser usados para ingeniería social dirigida, extorsión o fraude de seguros.
- Cal AI adquirió MyFitnessPal sin una revisión aparente de integración de seguridad, a pesar de la anterior filtración de MyFitnessPal en 2018 que afectó a 150 millones de cuentas bajo Under Armour. Esta falta de diligencia debida en seguridad en la fusión y adquisición agrava un patrón de fallos sistémicos de seguridad en apps impulsadas por IA, donde al menos 20 incidentes documentados entre enero de 2025 y principios de 2026 expusieron decenas de millones de registros de usuarios por causas raíz evitables.
No es un error tipográfico. La app que promete «mantener siempre tu información personal privada y segura» aparentemente dejó toda su base de datos de suscripciones legible sin autenticación.
Cal AI ha ganado popularidad como herramienta de seguimiento de alimentos basada en cámara. Los usuarios toman una foto de su comida y la IA estima calorías y macronutrientes. Ha sido respaldada por celebridades e influencers, y su adquisición de MyFitnessPal posicionó a Cal AI como un actor principal en el seguimiento de salud y bienestar. Cal AI no había respondido a las consultas de la prensa al momento de la publicación.
Por qué esta filtración es diferente
Los registros de comidas con marcas de tiempo revelan cuándo y qué comen los usuarios. Los objetivos de ejercicio y metas de macronutrientes exponen objetivos personales de salud. Altura, peso y medidas corporales crean perfiles físicos. Estos datos dibujan un retrato detallado del estilo de vida diario, permitiendo ingeniería social altamente dirigida, fraude de seguros, extorsión y robo de identidad.
Y luego están los datos de menores. Al menos un registro pertenecía a un usuario nacido en 2014. Los datos de salud de menores en manos de actores maliciosos suponen un desastre regulatorio y ético. Bajo COPPA y GDPR, la exposición de datos de menores conlleva sanciones mucho más severas que las filtraciones de adultos.
Análisis de causa raíz: cuatro fallos que nunca deberían ocurrir
Esta filtración no fue el resultado de una operación sofisticada patrocinada por un Estado ni de un exploit zero-day ingenioso. Fue causada por fallos de seguridad fundamentales que cualquier revisión competente habría detectado en cuestión de horas.
Backend de Firebase sin autenticación. El punto de entrada del atacante fue un backend de Google Firebase sin requisitos de autenticación. Las bases de datos Firebase son seguras por defecto; los desarrolladores deben configurarlas incorrectamente para dejar los datos públicos. Una auditoría de Cybernews a más de 38.000 apps de IA para Android encontró cientos de instancias de Firebase sin autenticación, exponiendo colectivamente miles de millones de registros. Cal AI cayó en una trampa ampliamente conocida.
Autenticación con PIN de 4 dígitos sin limitación de intentos. Cal AI, según se informa, usaba un PIN numérico de 4 dígitos como mecanismo principal de autenticación: 10.000 combinaciones posibles. Sin limitación de intentos, bloqueo de cuentas ni desafíos CAPTCHA, un atacante puede crackear cualquier cuenta en minutos. Un PIN de 4 dígitos ofrece menos protección que un candado de maleta y no cumple ningún estándar de autenticación publicado en las últimas dos décadas.
Sin detección de exfiltración para 14,59 GB de datos. Extraer casi 15 gigabytes de datos debería haber activado alertas. Las lecturas masivas de datos a esa escala generan patrones de tráfico inconfundibles. La ausencia de detección sugiere que Cal AI no tenía monitoreo de anomalías, controles de prevención de pérdida de datos ni detección de intrusiones. Los datos se almacenaban sin cifrado significativo; si hubieran estado cifrados con claves controladas por el cliente, el volcado habría sido ilegible.
Falta de diligencia debida en seguridad en la fusión y adquisición. Cal AI adquirió MyFitnessPal, una plataforma que ya había sufrido una filtración masiva bajo su anterior propietario. Esa adquisición debía haber activado una revisión exhaustiva de seguridad. O bien esa revisión no se realizó, o se hizo y se ignoraron los hallazgos. Ambas opciones son indefendibles.
El panorama general: las apps de IA tienen una crisis sistémica de seguridad
Cal AI no es un caso aislado. Entre enero de 2025 y principios de 2026, al menos 20 incidentes de seguridad documentados expusieron datos personales de decenas de millones de usuarios en aplicaciones impulsadas por IA. Las causas raíz son sorprendentemente consistentes: bases de datos Firebase mal configuradas, falta de autenticación en backends en la nube, claves API codificadas y ausencia de limitación de intentos.
El fenómeno del «vibe coding» —donde las herramientas de IA generan apps funcionales sin revisión de seguridad— ha acelerado esta crisis. Las apps se lanzan a una velocidad sin precedentes, creadas por desarrolladores que priorizan la adquisición de usuarios sobre la arquitectura de seguridad. El resultado es una generación de aplicaciones que manejan datos sumamente sensibles con una seguridad de backend propia de un proyecto de hackathon de fin de semana.
Lo que deben saber los clientes de Kiteworks
Cada fallo en la filtración de Cal AI corresponde directamente a capacidades que la Red de Contenido Privado de Kiteworks está diseñada arquitectónicamente para evitar.
Acceso de confianza cero y autenticación empresarial. Kiteworks aplica controles de acceso de confianza cero con políticas basadas en atributos que regulan cada solicitud de datos. La autenticación multifactor mediante RADIUS, PIV/CAC, OTP y servicios 2FA de terceros, combinada con SSO vía SAML, OAuth, LDAP y Azure AD, elimina por completo los mecanismos de autenticación débiles. Un PIN de 4 dígitos nunca sería un mecanismo de acceso válido.
Arquitectura de defensa en profundidad. Kiteworks se implementa como un dispositivo virtual reforzado con firewall de aplicaciones web integrado, firewall de red y detección de intrusiones, bloqueando llamadas API no autorizadas antes de que accedan a los datos. Incluso si una capa es vulnerada, los componentes en capas bloquean el movimiento lateral mediante un diseño de asunción de brecha.
Cifrado doble con claves controladas por el cliente. Los datos cifrados tanto a nivel de archivo como de disco usando AES-256 con claves separadas permanecen ilegibles incluso si se accede al backend. Las claves controladas por el cliente aseguran que ni siquiera el proveedor de la plataforma pueda acceder a los datos del cliente. Un motor de prevención de pérdida de datos bloquea o pone en cuarentena automáticamente las transferencias que violan la política.
Registro de auditoría integral y detección de anomalías. Cada interacción con los datos queda registrada en una única traza de auditoría inmutable con feeds SIEM en tiempo real y sin limitación de eventos. La detección de anomalías basada en IA señala patrones de acceso inusuales —como las lecturas masivas de datos típicas de la exfiltración— y habría detectado y bloqueado el volcado de datos de Cal AI mucho antes de extraer los 14,59 GB.
Gobernanza de datos de IA para el próximo vector de ataque. A medida que las apps de salud impulsadas por IA utilizan agentes de IA internamente para recomendaciones personalizadas, esos agentes necesitarán acceso a datos de salud sensibles. El servidor MCP seguro de Kiteworks y la puerta de enlace de datos IA garantizan que los agentes de IA estén sujetos al mismo escrutinio de confianza cero que los usuarios humanos: cada solicitud autenticada, autorizada y auditada.
La ecuación de la confianza ha cambiado
La filtración de Cal AI es de manual. Un backend abierto. Un mecanismo de autenticación ridículo. Sin detección de exfiltración. Sin cifrado. Y los datos de salud más íntimos de 3,2 millones de personas en un foro de hackers, listos para ser descargados por cualquiera.
Esto es lo que ocurre cuando la seguridad se deja para después: cuando las apps se crean para escalar rápido antes de construir la infraestructura que protege a los usuarios. Las organizaciones que manejan datos sensibles deben tratar la arquitectura de seguridad como el producto, no como una función adicional. Una Red de Contenido Privado que exige autenticación en cada capa, cifra los datos incluso frente a la propia plataforma y monitoriza cada interacción en tiempo real no es un lujo. Es el estándar mínimo. La pregunta para toda organización que gestiona datos sensibles no es si ocurrirá una filtración, sino si tu arquitectura resistirá cuando ocurra.
Preguntas frecuentes
La filtración de Cal AI expuso los nombres completos, correos electrónicos, fechas de nacimiento, géneros, códigos PIN, altura, peso, registros de comidas con marcas de tiempo, objetivos de ejercicio y detalles de suscripción de 3,2 millones de usuarios. Para quienes usan apps de seguimiento de calorías, estos datos de salud y comportamiento crean perfiles de estilo de vida que los atacantes pueden aprovechar para ingeniería social, extorsión y fraude de seguros.
La filtración de Cal AI explotó un backend de Firebase sin reglas de autenticación, dejando toda la base de datos de suscripciones accesible públicamente. Firebase es seguro por defecto, pero los desarrolladores deben configurar las reglas de seguridad. Si desarrollas apps de salud con Firebase, revisa tus reglas de seguridad de inmediato: esta es la mala configuración más común en aplicaciones impulsadas por IA.
Los datos de menores están en riesgo tras la filtración de Cal AI. Al menos un registro correspondía a un menor nacido en 2014, y puede haber más afectados. Los padres deben vigilar comunicaciones sospechosas, cambiar contraseñas de cuentas asociadas y activar la autenticación multifactor. La exposición de datos de salud de menores implica sanciones agravadas bajo COPPA y GDPR.
Tras recibir la notificación de la filtración de Cal AI, cambia de inmediato las contraseñas de cualquier cuenta que use el mismo correo electrónico y activa la autenticación multifactor en todos los servicios posibles. Vigila correos de phishing que hagan referencia a datos de salud o fitness y revisa tus cuentas financieras ante cualquier actividad sospechosa. Los datos filtrados circulan en plataformas rusoparlantes y Telegram, aumentando el riesgo de estafas dirigidas.
La filtración de MyFitnessPal en 2018 expuso 150 millones de cuentas, pero principalmente involucró nombres de usuario y contraseñas cifradas. La filtración de Cal AI es menor en volumen pero mucho más invasiva, exponiendo medidas corporales, registros de comidas y objetivos de fitness. Para empresas que evalúan MyFitnessPal para el bienestar de empleados, la adquisición por parte de Cal AI sin abordar debilidades de seguridad conocidas plantea serias dudas sobre la diligencia debida.
Las apps de salud con IA como Cal AI son vulnerables porque recopilan datos personales y de comportamiento muy sensibles, priorizando la velocidad de salida al mercado sobre la arquitectura de seguridad. Entre enero de 2025 y principios de 2026, al menos 20 filtraciones en apps de IA tuvieron las mismas causas raíz: bases de datos Firebase mal configuradas y ausencia de autenticación. Los equipos que desarrollan apps de salud con IA deben exigir revisiones de seguridad antes de la implementación en producción.
La filtración de Cal AI se habría evitado con controles de acceso de confianza cero, autenticación multifactor en vez de PINs de 4 dígitos, WAF y firewalls integrados que bloqueen accesos API no autorizados, cifrado doble con claves controladas por el cliente y detección de anomalías que señale exfiltraciones masivas. Los equipos de seguridad deben exigir evidencia de estos cinco controles antes de aprobar la integración de cualquier proveedor.
La filtración de Cal AI demuestra que las empresas que implementan herramientas de bienestar con IA deben verificar la arquitectura de seguridad del backend antes de integrarlas. Exige acceso de confianza cero, MFA, cifrado con claves controladas por el cliente, registro de auditoría y detección de anomalías a cualquier proveedor que maneje datos de salud de empleados. Una Red de Contenido Privado garantiza gobernanza consistente en todos los intercambios de datos con terceros.