
Caída global de Cloudflare: una falla interna provocó interrupciones masivas el 18 de noviembre de 2025
Salta Man

La interrupción masiva de la red de Cloudflare provocó una ola de fallos que afectó a millones de usuarios a nivel global, dejando inaccesibles plataformas tan utilizadas como X (la antigua Twitter), ChatGPT y el popular videojuego League of Legends, entre otros servicios. Según informó el medio Infobae, usuarios de la red social de Elon Musk empezaron a reportar fallos en la carga de publicaciones y contenido multimedia desde los primeros momentos, mientras que herramientas de monitoreo de caídas como Downdetector también se vieron afectadas por culpa de su dependencia de la infraestructura de Cloudflare. De hecho, la empresa reconoció estar investigando una “anomalía” que impide el funcionamiento normal de páginas web y aplicaciones, y aunque al inicio se vinculó a labores de mantenimiento, la falta de acceso generalizado –incluyendo medios de comunicación, tecnologías de IA y videojuegos– refuerza la magnitud del impacto.

Una falla interna paralizó parte de Internet
El 18 de noviembre de 2025, a partir de las 11:20 UTC, Cloudflare sufrió una interrupción masiva que afectó múltiples servicios a nivel global, generando errores 5xx y dejando sin acceso a millones de usuarios y empresas. La causa del problema fue un error en el sistema de gestión de bots, vinculado a un archivo de configuración que superó los límites previstos de tamaño, provocando el colapso de servicios clave.
Aunque inicialmente se sospechó de un ataque DDoS, el incidente fue producto de una modificación en los permisos de una base de datos ClickHouse. Este cambio duplicó el tamaño de un archivo esencial para el sistema de detección de bots, desencadenando fallos en cascada.
Qué ocurrió exactamente
El sistema de gestión de bots de Cloudflare utiliza un archivo de características que se actualiza cada pocos minutos y alimenta un modelo de aprendizaje automático. Este archivo, que normalmente contiene alrededor de 60 entradas, se duplicó inesperadamente tras una modificación en la consulta a la base de datos, generando más de 200 entradas. Al superar ese umbral, el sistema entró en pánico y colapsó, provocando errores HTTP 5xx.
La causa raíz fue un cambio en cómo se gestionan los permisos y metadatos en las tablas del sistema ClickHouse. Al no filtrar por base de datos, la consulta generó registros duplicados que el sistema no estaba preparado para manejar.
Servicios afectados y cronología del incidente
La falla tuvo consecuencias en varios productos y servicios de Cloudflare:
CDN y servicios de seguridad: Caída generalizada con errores HTTP 500.
Workers KV: Elevada tasa de errores por fallos en el proxy principal.
Cloudflare Access: Fallas de autenticación para la mayoría de los usuarios.
Dashboard: Fallos de acceso debido a la caída de Turnstile, sistema utilizado en el login.
Email Security: Impacto limitado en la detección de spam y acciones automatizadas.
Turnstile: Inaccesible en dos tramos, afectando el inicio de sesión.
Línea de tiempo destacada (UTC):
| Hora | Evento clave |
|---|---|
| 11:05 | Cambio de permisos en la base de datos. |
| 11:20 | Comienzo de errores HTTP en clientes. |
| 13:05 | Bypass de Workers KV y Access reduce el impacto. |
| 14:24 | Se detiene la propagación del archivo defectuoso. |
| 14:30 | Se restablece la configuración anterior; tráfico vuelve a la normalidad. |
| 17:06 | Todos los servicios restaurados. |
Cómo funcionó mal la infraestructura
La arquitectura de Cloudflare está diseñada para enrutar cada solicitud a través de un sistema de proxy (FL o FL2), donde se aplican reglas de seguridad y rendimiento. En esta ocasión, ambos proxies (el clásico FL y el nuevo FL2) fueron afectados, aunque de maneras distintas:
En FL2, las solicitudes generaban errores 5xx.
En FL, no se producían errores, pero los puntajes de bots eran cero, lo que provocó falsos positivos en las reglas de seguridad de algunos clientes.
Adicionalmente, el aumento de errores generó una sobrecarga en los sistemas de observabilidad y depuración, elevando la latencia en todo el tráfico de la red.
Medidas correctivas y próximos pasos
Cloudflare ha reconocido que esta fue su peor caída desde 2019. A raíz del incidente, se implementarán varias acciones para evitar su repetición.
La empresa reiteró sus disculpas, subrayando que la resiliencia es una prioridad clave en su arquitectura, y que cada incidente conduce a mejoras estructurales profundas.
Fuente: Blog oficial de Cloudflare, comunicado de Matthew Prince.




Gemini llega a Android Auto: La conducción inteligente redefinida por Google

¿Recibís mucho spam? Cómo la IA está superando fácilmente los captchas de Google

Bots con inteligencia artificial: la nueva amenaza para los formularios públicos en la web

Claves para comprender los móviles de Xiaomi: desde el 12 al 15 Ultra

Perplexity.ai: la IA que desafía a ChatGPT y lanzó a Comet, el primer navegador inteligente

¿Cuáles son las mejores plataformas para gestionar un periódico digital?


