Una incidencia de gran alcance en la infraestructura de Amazon Web Services (AWS) ha dejado sin servicio, de manera intermitente, a miles de plataformas y aplicaciones en distintos países. Los reportes de usuarios se dispararon a primera hora del día por errores de conectividad, latencia y cargas fallidas, con especial concentración en Estados Unidos y efectos visibles en Europa.
Según el panel de estado de la compañía, el problema se originó en la región US-EAST-1 (Virginia del Norte) y provocó un aumento anómalo de tasas de error en varias APIs. A media mañana, AWS comunicó que ya veía signos claros de recuperación en numerosos servicios, aunque los equipos continuaban trabajando para cerrar la incidencia por completo y normalizar todas las operaciones.
Cronología del incidente
Los primeros avisos se situaron en torno a las 9:00 (hora peninsular española), con un pico de incidencias poco después y notificaciones constantes en herramientas de seguimiento como DownDetector. A partir de las 11:00, la compañía informó de que había identificado una posible causa y comenzó a aplicar mitigaciones que aceleraron la recuperación en distintas capas.
Hacia el mediodía, AWS señalaba que la mayoría de operaciones mostraban comportamiento normalizado, si bien advertía de restricciones puntuales en determinadas solicitudes y servicios concretos de la región afectada. Durante las primeras horas de la tarde, aún se registraron impactos residuales mientras avanzaban las tareas de estabilización.

Dónde estuvo el origen técnico
La compañía centró el foco en Amazon DynamoDB, su servicio de base de datos clave-valor administrado, cuyo punto de conexión en US-EAST-1 experimentó fallos que se tradujeron en errores en cascada en múltiples dependencias. AWS apuntó a un problema subyacente de DNS como desencadenante, que fue mitigado progresivamente.
En la práctica, cuando el sistema de nombres de dominio no resuelve correctamente, las aplicaciones no localizan sus recursos y se producen errores de conexión, timeouts y fallas en la carga de datos. Como medida de contingencia, AWS recomendó a clientes con incidencias persistentes vaciar las cachés de DNS para restablecer la resolución hacia los endpoints correctos.
Quiénes se han visto afectados
El alcance fue transversal: la propia Amazon registró incidencias en Alexa y Prime Video, mientras que entre terceros hubo problemas en servicios populares como Canva, Duolingo o Snapchat. También se notaron fallos en plataformas de IA generativa y en aplicaciones colaborativas que dependen de la nube de AWS.
El ocio digital tampoco quedó al margen. Títulos y servicios con gran volumen de usuarios como Fortnite, Roblox o Clash Royale reportaron errores de inicio de sesión o de conectividad, mientras que algunas tiendas y lanzadores de juegos aplicaron mitigaciones para reducir el impacto hasta la estabilización del tráfico.
Impacto en España
En el ámbito nacional, múltiples usuarios notificaron problemas de acceso a aplicaciones y webs de servicios digitales, con especial incidencia en horas cercanas a media mañana. También se vieron alteradas plataformas de venta de entradas como Ticketmaster, que retrasaron lanzamientos anunciados para el mediodía; entre ellos, salidas de tickets vinculadas a conciertos muy demandados.
Entidades financieras y grandes plataformas de consumo comunicaron incidencias puntuales en sus sistemas online, aunque la afectación fue variando por regiones y servicios. Conforme fueron aplicándose las mitigaciones en la región estadounidense afectada, se observó una recuperación paulatina del acceso en Europa.
Situación actual y recomendaciones
Con el paso de las horas, AWS indicó que veía señales significativas de recuperación en la mayor parte de sus servicios, al tiempo que mantenía restricciones acotadas en determinadas operaciones dentro de US-EAST-1. La compañía continúa monitorizando el rendimiento e implementando ajustes para cerrar completamente la incidencia.
Si aún percibes fallos aislados, conviene revisar el estado oficial de AWS y, cuando proceda, limpiar la caché de DNS o reiniciar clientes y servicios que dependan de la resolución hacia endpoints en la región afectada. En despliegues críticos, es aconsejable verificar conmutaciones por error, dependencias de red y políticas de reintentos para minimizar el impacto de latencias y errores transitorios.
El episodio evidencia hasta qué punto la infraestructura de computación en la nube se ha vuelto estructural para la economía digital: una avería localizada en un hub clave puede traducirse en efectos en cadena a escala global, desde el streaming y los videojuegos hasta las aplicaciones financieras y de productividad.