Análisis técnico del apagón del 28 de abril de 2025 (“28A”) en el sistema eléctrico español (versión extendida)

Hola, amigos:
Os prometí una interpretación más completa sobre el origen y las causas del apagón, pero no la había publicado antes porque me faltaba información clave. Con las nuevas medidas solicitadas por Red Eléctrica de España (REE) en octubre 2025 y los informes independientes publicados en septiembre, creo que ya es momento de “posar llum a la foscor”.
A continuación os comparto una primera versión ampliada: un resumen, apoyado en IA, de los informes publicados hasta la fecha, explicado de la forma más clara y entendible posible.
(Son 4.850 palabras, unos 26 minutos de lectura… ideal para los que disfrutáis leyendo con calma.)
Contexto y condiciones previas al evento
El 28 de abril de 2025 España peninsular y Portugal continental sufrieron un apagón eléctrico generalizado sin precedentes, con cero de tensión a las 12:33 CEST aproximadamente. Este colapso dejó sin suministro a más de 50 millones de personas en la Península Ibérica y Andorra, con efectos menores en el sur de Francia. Las condiciones operativas previas al evento no parecían extraordinarias: era un lunes mediodía de primavera con demanda baja-moderada y alta generación renovable, especialmente solar fotovoltaica, lo que llevó los precios horarios cercanos a 0 €/MWh y a España a exportar en torno a 5 GW netos hacia Francia. La inercia del sistema (aportada por centrales síncronas convencionales) se consideraba suficiente, incluso ligeramente superior a la recomendación mínima de ENTSO-E (2 s), por lo que a priori no había indicios de riesgo inminente en términos de estabilidad inercial. Sin embargo, desde primera hora se observaron anomalías en el voltaje: en días previos y esa misma mañana se registraron variaciones de tensión más pronunciadas de lo normal. En particular, antes del mediodía ocurrieron oscilaciones electrotécnicas inusuales en la red que exigieron acciones de mitigación y sentaron las bases de la crisis.
Cronología técnica del colapso (28 de abril de 2025)
Las investigaciones oficiales (Comité de Análisis 28A y un informe fáctico de ENTSO-E) reconstruyen el encadenamiento de eventos técnicos que llevaron del funcionamiento aparentemente normal al colapso total. A continuación se resume la línea de tiempo técnica del evento:
Fase 1 – Oscilaciones previas (12:03–12:30)
A las 12:03 se detectó una oscilación de frecuencia atípica (~0,6 Hz) originada en la Península, que se prolongó unos 4,4 minutos causando grandes fluctuaciones de tensión. El Operador del Sistema (Red Eléctrica de España, REE) aplicó medidas según protocolo para amortiguar esta oscilación: incrementó el mallado de la red (conexión de líneas de transporte que estaban abiertas debido a la baja demanda) y redujo el flujo de exportación hacia Francia. Estas maniobras lograron amortiguar la oscilación/subtensión, pero tuvieron el efecto secundario de elevar el nivel de tensión en la red peninsular. A las 12:16 ocurrió una segunda oscilación similar, de menor amplitud, y a las 12:19 una tercera oscilación (~0,2 Hz) con características típicas de fenómenos interárea europeos. REE repitió las mismas acciones de mitigación, nuevamente reduciendo intercambios con Francia y ajustando control de enlaces, lo que contuvo las oscilaciones pero siguió incrementando las tensiones de fondo. Después de las 12:19, el sistema volvió a un estado aparentemente estable pero con tensiones más altas de lo habitual, y se intentó preparar generación adicional: tras la segunda oscilación, REE solicitó la disponibilidad de una central síncrona adicional para ayudar a controlar tensión, pero este tipo de centrales tarda unos 90 minutos en estar operativa y no hubo tiempo material de conectarla antes del colapso.
Fase 2 – Aumento de tensión y pérdidas de generación (12:32:57–12:33:18)
Minutos después, la situación se deterioró súbitamente. A partir de las 12:32:57, la tensión empezó a subir de forma rápida y sostenida en partes de la red. Este sobrevoltaje provocó una cascada de desconexiones de generación dispersas por el territorio: en cuestión de unos 20 segundos se desconectaron numerosas plantas de generación, principalmente renovables (fotovoltaicas, termosolares y eólicas) en Granada, Badajoz, Segovia, Huelva, Sevilla, Cáceres, entre otras provincias. Según el informe de ENTSO-E, entre 12:32:00 y 12:32:57 ya se habían perdido unos 208 MW de eólica/solar distribuida en el norte y sur, y la carga en distribución aumentó ~317 MW (indicando que esas desconexiones de generación distribuida hicieron que la red absorbiera más demanda). Luego, exactamente a las 12:32:57, un pico de sobretensión en un transformador 400/220 kV que agrupa varias plantas renovables en Granada provocó la pérdida instantánea de otros ~355 MW. Acto seguido, en la zona de Badajoz, dos subestaciones de 400 kV desconectaron aproximadamente 725 MW adicionales de fotovoltaica y termosolar, por causas aún no aclaradas (no está claro si fue protección por sobretensión o alguna mala configuración). La secuencia continuó: entre 12:33:17 y 12:33:18 se volatilizaron otros ~930 MW en Segovia, Huelva, Badajoz, Sevilla y Cáceres; parte de estas pérdidas fueron por protecciones de sobretensión, aunque la mayoría quedaron sin causa determinada inmediata. En total, pasadas las 12:33:18 la potencia de generación perdida en España superaba los 2,5 GW. Muchas de estas unidades, antes de desconectarse, estaban consumiendo potencia reactiva (absorbiendo VARs) para ayudar a contener la tensión; su pérdida, sin que otros recursos compensaran ese control de voltaje, agravó aún más la subida de tensiones en el sistema. Paralelamente, al perder de golpe generación renovable, el desequilibrio potencia-demanda hizo caer la frecuencia, lo que activó esquemas automáticos de deslastre de carga (corte de demanda) para frenar la bajada de frecuencia. Irónicamente, estos deslastres automáticos –diseñados para subsanar caídas de generación– pudieron contribuir a empeorar la sobretensión al descargar aún más las líneas (menos consumo implica voltajes aún más altos en un escenario de sobregeneración).
Fase 3 – Colapso y separación de la red (12:33:18–12:33:30)
A las 12:33:19 la situación estaba fuera de control. El rápido incremento de la tensión en el sur de España se propagó a Portugal, provocando allí nuevas desconexiones y un descenso adicional de frecuencia. En ese instante (~12:33:19–12:33:21), los sistemas de España y Portugal empezaron a perder el sincronismo con el resto de Europa. Las protecciones de las interconexiones con Francia actuaron: ante las desviaciones de frecuencia y tensión, las líneas de enlace con el continente saltaron, aislando completamente al sistema ibérico. Sin apoyo externo y en plena reacción en cadena, el sistema peninsular entró en colapso total: a las 12:33:30 aprox. se produjo el “cero eléctrico” peninsular, es decir, caída de tensión generalizada en toda la red de transporte de España y Portugal. En segundos, la península ibérica quedó a oscuras. Hay que destacar que este colapso fue precipitado por sobretensión más que por una típica caída de frecuencia; cada desconexión de generación elevaba aún más la tensión, desencadenando más disparos, en un círculo vicioso que las protecciones automáticas convencionales no pudieron atajar. Los mecanismos de defensa (protecciones, deslastres, etc.) sí actuaron, pero la velocidad de la degradación y la pérdida de sincronismo hicieron insuficiente cualquier actuación automática. En otras palabras, el fenómeno avanzó más rápido de lo que el sistema de protecciones estaba diseñado para controlar.
Fase 4 – Restauración del suministro (tarde/noche del 28 y madrugada del 29)
Inmediatamente tras el cero eléctrico, REE activó su protocolo de reposición y se coordinó con el Gobierno y operadores vecinos para restablecer el servicio lo antes posible. La recuperación se hizo por etapas, formando “islas” energéticas que luego se sincronizaron entre sí y con el exterior. Un hito clave ocurrió a las 12:43, solo 10 minutos después del colapso: mediante la interconexión con Francia, se re-energizó la subestación de Hernani (400 kV) en el País Vasco –la primera de la península en recibir tensión tras el apagón–. Esto permitió iniciar el arranque en negro de partes de la red norte. A las 13:04 se restableció también la interconexión eléctrica con Marruecos, aportando tensión desde el enlace sur. A las 13:35 se sincronizó otra conexión clave con Francia (línea Baixàs–Vic, 400 kV, en Cataluña), fortaleciendo el apoyo externo. Durante la tarde se fueron encendiendo centrales hidráulicas (arranque autónomo), especialmente en la cuenca del Duero, que formaron pequeñas islas de generación dentro de España. Hacia las 15:07, todas las centrales nucleares españolas (que se habían apagado automáticamente durante el incidente) confirmaron disponer de suministro eléctrico externo para sus servicios auxiliares –un paso importante para su seguridad y posterior reconexión. Aproximadamente a las 15:30 ya operaban ocho “islas” eléctricas aisladas en distintas zonas de España. A las 18:36, Portugal logró recuperar tensión a frecuencia continental conectando la línea Aldeadávila–Pocinho (220 kV) entre España y Portugal, re-sincronizándose con el resto del sistema europeo. A las 19:32, la línea Almaraz–Ciudad Rodrigo (400 kV) unió eléctricamente el norte y el sur de España (que ya estaba enlazado con Marruecos), consolidando una sola zona sincronizada en la península. A partir de ahí, la restauración avanzó rápidamente: según REE, para las 04:00 de la madrugada del 29 de abril el 100% de las subestaciones de la red de transporte ya estaban energizadas de nuevo, y para las 07:00 del 29 de abril se había recuperado el 99,95% de la demanda eléctrica peninsular. En total, muchas zonas estuvieron sin luz entre 1 y 12 horas dependiendo de la dificultad para reponer cada área. El suministro quedó normalizado al día siguiente, aunque con secuelas en ciertas infraestructuras.
Cabe mencionar que los sistemas eléctricos extrapeninsulares no se vieron afectados (Islas Baleares, Canarias, Ceuta, Melilla no sufrieron cortes, al estar desacoplados o protegidos). En Francia, el impacto fue mínimo: apenas se perdieron ~7 MW de carga y una central nuclear francesa se detuvo preventivamente por perturbaciones de sobretensión asociadas al colapso ibérico. ENTSO-E clasificó el incidente con la máxima severidad (escala 3) para la Península Ibérica, y de nivel menor (OV1) en Francia.
Decisiones operativas de REE antes y durante la crisis
Un foco de análisis ha sido qué decisiones tomó (o no tomó) el operador del sistema, REE, antes y durante el evento, y si una gestión diferente hubiera mitigado el riesgo. A continuación, se detallan las maniobras operativas clave y su efecto, según la información disponible:
Programación del día y recursos de control de tensión. El día 27 de abril (víspera del evento), REE realizó su planificación diaria y, siguiendo los procedimientos vigentes, programó por restricciones técnicas la puesta en marcha de 10 centrales síncronas (generadores convencionales) capaces de regular la tensión para el día 28. Estas unidades (nucleares, hidroeléctricas o de ciclo combinado principalmente) se seleccionan fuera de mercado precisamente para aportar servicios de soporte, como control de voltaje e inercia, en casos de baja demanda o alta renovable. Sin embargo, el número final de centrales síncronas que arrancaron el 28A fue solo 9, ya que una de las 10 unidades inicialmente previstas declaró una indisponibilidad a última hora el día 27. Ese nivel de generación síncrona acoplada fue el más bajo en lo que iba de año 2025. Aun así, REE sostiene que evaluó la situación el propio día 27 tras la baja de esa central y tomó medidas complementarias (como las citadas reconfiguraciones de red), concluyendo que el control de tensión estaba asegurado con esas 9 plantas. En otras palabras, REE no vio necesario forzar más generación convencional en servicio pre-evento, pues consideró suficiente la reserva disponible para cubrir demanda, proveer inercia y recursos para control dinámico de tensión, asumiendo eso sí que todas las unidades cumplirían correctamente con sus obligaciones técnicas. Esta decisión de operar con un mínimo histórico de máquinas síncronas ha sido muy cuestionada posteriormente, dado que un mayor número de centrales convencionales en marcha podría haber proporcionado más amortiguamiento de tensión. REE se defiende señalando que actuó conforme a normativa y protocolos, optimizando economía y seguridad como de costumbre, y que en España existía parque de generación más que suficiente; el problema no fue la falta de capacidad instalada, sino segun el informe de REE la falta de recursos de control de tensión efectivamente aportados en el momento crítico, os lo traduzco: Que Según REE, se activaron los recursos de control de tensión necesarios, pero estos no respondieron adecuadamente, y al no producirse la respuesta esperada, habría que preguntar a los titulares de esos recursos por qué no actuaron conforme a lo contratado, (mas abajo os indico que respondieron).
Ausencia de recortes preventivos de renovables. Antes del apagón no se ordenaron curtailments (recortes preventivos) significativos de generación renovable ni redispatch adicional más allá del mencionado arranque de centrales por seguridad. La energía renovable (eólica/solar) se produjo según lo programado en el mercado el día anterior, sin intervenciones manuales de REE para limitarla. A posteriori, algunos se preguntan si REE debió recortar preventivamente parte de la fotovoltaica o eólica para reducir los flujos y sobretensiones. Sin embargo, segun REE y apesar de los incidentes de sobretensiones del jueves y viernes anteriores, nada en la planificación indicaba un riesgo extremo: el sistema había operado con penetraciones renovables similares o mayores en otras ocasiones sin problemas. Además, REE legalmente solo puede aplicar restricciones por seguridad cuando se cumplen criterios técnicos; hasta antes de las oscilaciones de mediodía no había alertas evidentes de inestabilidad y las que habian segun parece ya se habian solventado, por lo que intervenir el despacho renovable habría sido difícil de justificar.
En lugar de ello, al manifestarse las primeras oscilaciones a mediodía, REE siguió el protocolo típico: ajustó la configuración de la red y los intercambios internacionales en tiempo real (maniobras mencionadas de mallado de líneas y reducción de exportaciones a Francia) para tratar de estabilizar el sistema. Estas acciones mitigaron parcialmente las oscilaciones, pero elevaron la tensión base del sistema. En resumen, REE confió en las medidas convencionales y en el cumplimiento de los generadores, sin anticipar la cascada de eventos que se desató minutos después. Segun parece y solo tras la segunda oscilación (12:19) se intentó incorporar una central adicional de apoyo, pero ya fue demasiado tarde para evitar el colapso.
Actuación durante la secuencia de falla. Una vez que comenzó la rápida subida de tensión y las desconexiones (12:32 en adelante), la situación evolucionó en cuestión de segundos, prácticamente fuera del alcance de control manual. REE indica que todos los automatismos de defensa se activaron (esquemas de protección, disparos de generación y cargas, etc.), pero ninguna acción humana directa pudo realizarse con efectividad en esos segundos críticos. El Centro de Control Eléctrico (Cecoel) de REE perdió telemandos momentáneamente cuando la red cayó, por lo que los operadores tuvieron que concentrarse en coordinar el arranque autónomo tras el apagón, es decir, el restablecimiento progresivo del sistema desde cero.
Cabe destacar que REE indicó en su informe que mantuvo comunicación permanente con el Gobierno y otros operadores desde el primer instante después del blackout y que avisó públicamente por redes sociales de la evolución de la reposición (aunque no sé si sirvió de mucho, pues las conexiones a redes sociales dependen de servidores y routers que solo funcionan si hay luz): por ejemplo, a las 17:00 ya anunciaba reenergización en varias regiones, a las 18:00 en otras, etc., hasta dar por prácticamente restablecido el suministro la mañana siguiente. Durante la recuperación, REE realizó maniobras de sincronización escalonada: conexión de islas, gestión de generación y demanda para evitar nuevos colapsos, siguiendo planes de black-start, etc. Una maniobra crucial fue la mencionada energización desde Francia vía Hernani a las 12:43, que REE destaca como ejemplo de la importancia de las interconexiones para apoyo mutuo en emergencias.
En cuanto a si las decisiones operativas agravaron o mitigaron la situación, el consenso técnico es complejo. Por un lado, las acciones de REE durante las oscilaciones (mallar la red, reducir exportaciones) eran las correctas para amortiguar ese tipo de perturbaciones y de hecho funcionaron para frenar las oscilaciones de potencia. No obstante, esas mismas acciones incrementaron el voltaje, reduciendo el margen para absorber el excedente de generación. Se trató de un compromiso desafortunado: ante una oscilación de potencia la prioridad es ganar estabilidad síncrona, aunque a costa de tensiones más altas. Asimismo, los esquemas automáticos de deslastre de carga que actuaron tras las pérdidas de generación salvaron la frecuencia (evitaron una caída aún más pronunciada), pero al quitar consumo agravaron la sobretensión. En resumen, las maniobras de defensa convencionales resultaron insuficientes e incluso contraproducentes para una emergencia dominada por sobretensiones en lugar de por déficit de generación.
Causas técnicas identificadas y responsabilidad
Los informes técnicos posteriores coincidieron en que no hubo una única causa raíz, sino una concurrencia de factores técnicos y operativos que desembocaron en la crisis. El Comité oficial de análisis (creado por el Gobierno) concluyó que el cero eléctrico tuvo origen multifactorial, con una “cascada temporal de sucesos” que desequilibraron el sistema. Las conclusiones principales –validadas en gran medida por el análisis paralelo de ENTSO-E– se resumen así:
Insuficiente control de tensión en el sistema. Según esta versión, el sistema contaba en la práctica con recursos inadecuados para contener las sobretensiones.
En primer lugar, se señala que probablemente REE programó un número muy reducido de centrales reguladoras de tensión la mañana del 28A: solo 9 grupos síncronos en servicio. En segundo lugar, varias de esas centrales síncronas, que supuestamente estaban disponibles para el control de tensión, no respondieron correctamente a las consignas que REE les habría enviado para absorber potencia reactiva y reducir la tensión. Algunas incluso habrían hecho lo contrario: en lugar de consumir reactiva, inyectaron potencia reactiva a la red, empeorando el problema de sobretensión.
Es decir, se apunta a un fallo doble: por planificación (posible previsión insuficiente de unidades de apoyo) y por ejecución (incumplimiento o respuesta inadecuada de los generadores que sí estaban asignados a ese apoyo). Con todo, el comité insiste en que no faltaban medios en el país —había más centrales capaces de aportar control de tensión—, sino que faltaron en el momento crítico, bien porque no fueron programadas, o bien porque, estando programadas, no cumplieron su función.
El problema de fondo es, por tanto, dual. Varios expertos externos matizan que no está claro si el posible fallo se debió a falta de supervisión, a instrucciones ambiguas o a la lentitud de determinados sistemas convencionales más analógicos frente a rampas digitales más rápidas. En cualquier caso, dado que parte de esta información puede estar sujeta a confidencialidad, el comité ha solicitado a la CNMC que investigue estos aspectos.
Oscilaciones de potencia anómalas. El sistema experimentó oscilaciones poco habituales en los minutos previos al incidente. La primera de ellas tuvo su origen en la península ibérica (no fue importada desde otras zonas) y puso de manifiesto un comportamiento dinámico inesperado de algún elemento de la red o de la generación local.
Estas oscilaciones obligaron a reconfigurar la red y las interconexiones, lo que dificultó aún más el control fino de la tensión, tal como se ha descrito anteriormente. Las oscilaciones posteriores en Europa central también contribuyeron a incrementar el nivel de estrés operativo del sistema.
En definitiva, el sistema llegó a las 12:30 en una situación ya delicada: sobretensiones habituales asociadas a una elevada concentración de generación renovable y baja demanda, amplificadas por las maniobras anti-oscilación y por una configuración operativa poco flexible. Si a esto se suma lo que en septiembre se definió como rampas rápidas de tensión, el conjunto de factores terminó por desencadenar la caida de la primera ficha del domino.
Disparos masivos de generación, algunos según REE indebidos. La cascada de desconexiones de centrales de generación fue el detonante inmediato del apagón. El análisis encontró que varias plantas se desconectaron antes de excederse los umbrales de sobretensión establecidos por normativa (380–435 kV en 400 kV). Es decir, segun version de REE, algunas protecciones dispararon anticipadamente, cuando la tensión aún estaba en rango permitido, lo que sugiere ajustes demasiado conservadores o descoordinados en ciertas instalaciones. Otras desconexiones sí ocurrieron cuando la sobretensión sobrepasó los límites y fueron comprensibles para proteger equipos. Uno de los eventos iniciales críticos fue un disparo presuntamente en una subestación de Granada (segun fuentes no oficiales ya que REE no lo menciona por motivos de confidencialidad) que desconectó a varias plantas renovables agrupadas allí. Asimismo, se reportaron disparos indebidos en varias subestaciones de Extremadura (también en redes de distribución) que desenchufaron generación renovable tabien de forma prematura segun el relato inicial de REE, “estrangulando” la potencia evacuada y provocando saltos de tensión locales. Estos disparos "intempestivos" iniciales provocaron las primeras inestabilidades de tensión y desencadenaron la reacción en cadena.
Red Eléctrica insistió después en que las tensiones de la red de transporte estaban “dentro de rango” en esos instantes, lo que, según su versión, invalidaba la causa técnica de las desconexiones —que, según ellos, fueron “incorrectas”.
Vamos, que le pasaron el muerto a las distribuidoras.
Pero esa conclusión es, con bastante probabilidad —y según mi interpretación— errónea o, como mínimo, incompleta.
En mi opinión, en el informe inicial no se tuvieron en cuenta ni las rampas casi instantáneas de tensión provocadas por la generación renovable, que volvieron a reproducirse en septiembre, ni el retardo intencionado con el que se programan los reguladores de los transformadores para evitar un exceso de cambios de toma. Ese combo explicaría buena parte de los supuestos disparos indebidos.
Si no fuera así, ¿cómo se justifica entonces la medida urgente de REE de ampliar el tiempo de respuesta de las rampas de 2 a 15 minutos para dar más margen a actuar estabilizar la tensión?
En otras palabras, se juntaron tres factores fatales:
- + Aumentos de tensión por maniobras
- + Sobretensiones acompañadas con Rampas rápidas de tensión
- + Reguladores de tensión lentos en los transformadores
= 💥 Descontrol momentáneo y disparos en cascada
Lo ocurrido refleja un sistema operando al límite de sus parámetros de control de tensión, en el que bastó una perturbación local para iniciar una reacción en cadena.
Todo apunta a que faltó músculo de regulación de voltaje —por la escasa presencia de generación síncrona capaz de estabilizar la red— y, al mismo tiempo, sobraron disparos intempestivos de generación renovable, que provocaron una subida de tensión descontrolada.
Una vez iniciada la cascada, ninguna protección pudo contenerla.
El propio informe oficial reconoce que algunas protecciones actuaron “correctamente”, pero con efectos indeseados: los deslastres automáticos de carga agravaron la sobretensión en lugar de mitigarla.
Según el presidente del panel técnico de ENTSO-E, este evento se considera un fenómeno sin precedentes a escala mundial: un colapso por efecto cascada de sobretensión.
No fue el clásico apagón por déficit de generación o por sobrecarga de líneas, sino una inestabilidad de voltaje en un sistema dominado por electrónica de potencia y baja demanda, una situación nueva que pone a prueba los límites de la operación convencional de red.
Al final, el problema no era solo de tensión… era de tiempo.
Porque en un sistema eléctrico, cada milisegundo cuenta, y cuando las decisiones llegan tarde, la red ya ha hablado por sí sola.
En cuanto a las responsabilidades, prefiero no entrar en las conclusiones de los informes previos; no me corresponde a mí determinar quién las tiene.
Reacciones y opiniones en el sector eléctrico
Postura de Red Eléctrica de España (Operador del sistema). REE, respaldada por los informes oficiales, subrayó que el apagón se originó por actuaciones incorrectas de agentes del sistema ajenos a REE. Afirmó que ciertas instalaciones de las eléctricas se desconectaron de manera “no justificada” cuando las tensiones aún eran normales, desencadenando la subida de tensión, y que otras instalaciones encargadas de controlar la tensión incumplieron su obligación, agravando la situación. En su visión, fueron las eléctricas (generadores y distribuidoras) quienes no cumplieron con el encargo y con la normativa técnica (PO 7.4) al no absorber reactiva suficiente e incluso dispararse indebidamente. REE negó fallos en su gestión de las interconexiones y defendió que la reducción de exportaciones a Francia y otras maniobras fueron las correctas y coordinadas con RTE según protocolos conjuntos. También destacó la eficacia en la restauración del sistema (¿en menos de 20 horas?).
Postura de las compañías eléctricas (generadores tradicionales). Las grandes eléctricas –agrupadas en AELEC– rechazaron la versión de REE y le responsabilizaron por una gestión deficiente del sistema. Presentaron el apagón como consecuencia de “un fallo grave de control de tensión del sistema por no disponer de suficientes plantas capaces de controlar el nivel de tensión”, es decir, culpa de REE por no haber programado centrales suficientes en previsión. Algunas empresas calificaron la gestión de “temeraria y negligente”, alegando que sus centrales acopladas cumplieron lo ordenado y que el operador no garantizó la seguridad del suministro ni reaccionó ante variaciones anómalas de tensión previas.
Perspectiva del sector renovable (solar y eólico). Las asociaciones renovables defendieron la fiabilidad de sus tecnologías. Subrayaron que la generación inyectada estaba programada y se cumplió, que las plantas no se desconectaron “voluntariamente” sino por protecciones, y que existen sistemas con alta cuota renovable que operan de forma estable si se dotan de las herramientas adecuadas. Reclamaron acelerar el PO 7.4 para que las renovables participen activamente en el control de tensión con sus inversores.
Visión de expertos independientes. Muchos analistas interpretan el 28A como un síntoma de una transición energética inadecuada: mucha generación conectada vía electrónica de potencia y procedimientos aún pensados para un sistema síncrono clásico. Señalan la necesidad de modernizar reglamentación, digitalización, observabilidad en distribución y mecanismos de control rápido de tensión/rampas; y de mantener un equilibrio adecuado entre renovables y elementos de soporte mientras se actualizan los “servicios de red” que debe prestar cada tecnología.
Consecuencias y medidas tras el evento 28A
Informe oficial y paquete de medidas urgentes (junio 2025)
El Gobierno creó un Comité de Análisis que en 49 días presentó diagnóstico y recomendaciones. Ese mismo mes se anunció un paquete de medidas urgentes que cristalizó en el Real Decreto-ley 7/2025 (posteriormente derogado al no convalidarse). El paquete incluía exigencias de mayor aportación de reactivos, actualización de criterios de seguridad y aceleración de inversiones críticas.
Refuerzo operativo temporal por parte de REE
Ante la falta de un marco legal vigente, REE activó un “modo reforzado de operación”: mantener al menos un 8% de generación online síncrona (sobre todo ciclos combinados) en todo momento, también se ordenaron curtailments (recortes preventivos que hasta la fecha no se habían prácticamente hecho) significativos de generación renovable y/o redispatch adicional.
Mejoró la estabilidad, pero elevó de forma notable los costes de operación.
Investigaciones y posibles sanciones de CNMC
El regulador abrió la puerta a procedimientos sancionadores por posibles incumplimientos (p. ej., PO 7.4, ajustes de protecciones). Se esperan resoluciones una vez concluyan las investigaciones.
Implementación del Procedimiento de Operación (PO) 7.4
Claves: permitir que las instalaciones asíncronas —principalmente eólicas y fotovoltaicas— aporten control dinámico de tensión y servicios de potencia reactiva a través de sus sistemas electrónicos de potencia, así como definir su modelo de remuneración.
Aunque Red Eléctrica de España (REE) solicitó un despliegue urgente de estas funciones, la CNMC ha pospuesto su implantación y la ha establecido como prioridad para el primer trimestre de 2026.
El sector eléctrico, sin embargo, está dividido.
Las grandes compañías generadoras —Iberdrola, Endesa o Naturgy— critican que las medidas propuestas por REE podrían dañar sus equipos o no resolver los problemas de fondo.
Por su parte, las asociaciones de renovables advierten que los nuevos requisitos encarecen la operación y ralentizan el desarrollo de proyectos.
Ante esta presión, la CNMC ha optado por aplazar la entrada en vigor del PO 7.4 y revisar su alcance técnico y económico junto a todos los agentes implicados.
Cambios urgentes en reglas de operación (octubre 2025)
Se plantearon medidas temporales: flexibilizar la planificación diaria (PDBF), asegurar reservas de respuesta rápida, limitar rampas de variación (p. ej., pasar de 2 a 15 minutos en renovables), endurecer requisitos de control de tensión (p. ej., 90% de medidas dentro de rango) y mejorar la monitorización rápida (PMUs, muestreo granular). El objetivo: amortiguar en tiempo real variaciones de producción renovable y reducir riesgo de sobrevoltajes.
Planificación de red, almacenamiento e interconexiones
A medio-largo plazo: más demanda gestionable, impulso al almacenamiento e hibridación, revisión de mercados de servicios (pagar por control de tensión, rampas, etc.), y aumento de interconexiones (Francia, Portugal, Marruecos, potenciales nuevos enlaces) para resiliencia y gestión de excedentes.
Medidas tras el apagón del 28A en la red de distribución española
Ajustes en los esquemas de protección de MT/BT
Revisión de umbrales y temporizaciones de sobretensión para evitar disparos innecesarios ante transitorios, especialmente en redes de evacuación de renovables. Objetivo: selectividad y coordinación sin perder seguridad.
Mejora de la coordinación con REE y protocolos de control de tensión
Canales TSO-DSO reforzados, procedimientos de actuación conjunta en tiempo real (reactancias, cambiadores de tomas, consignas a generación distribuida), y participación de las distribuidoras en comités y protocolos de reposición y operación en contingencia.
Refuerzo del telecontrol y supervisión de la generación distribuida
Más observabilidad (telemedidas, SCADA, centros de control), capacidad de mando a distancia (DERMs, consignas de potencia/factor de potencia a inversores), y esquemas de desconexión/reconexión escalonada tras incidencias.
Revisión de configuraciones de subestaciones y regulación de reactiva
Ajustes de lógica de cambiadores de tomas (evitar sobrecorrecciones), control automático de factor de potencia en frontera T–D, calibración de bancos de condensadores/reactancias para operar en modo absorbente cuando sube la tensión, y estudio de topologías (anillo abierto) para confinar problemas.
Inversiones previstas o ejecutadas
Modernización y automatización de la red: STATCOMs/compensadores síncronos en puntos estratégicos, telemandos extendidos, PMUs en distribución, proyectos de Wide Area Monitoring, y despliegue de almacenamiento distribuido (baterías comunitarias). Se han señalado sobrecostes del “modo reforzado” y la preferencia por inversiones estructurales frente a operación excepcional permanente.
Cambios normativos y aportaciones a comités técnicos
Participación activa en el Comité 28A, propuestas de actualización de P.O., seguimiento reforzado por CNMC, contribuciones a la investigación de ENTSO-E y previsibles adaptaciones a códigos de red europeos. Se apunta a un servicio de control de tensión dinámico obligatorio para toda la generación y a mayor transparencia/monitoreo para asegurar cumplimiento.
Lecciones Aprendidas
El “28A” evidenció los desafíos técnicos de un sistema eléctrico en rápida transformación. La combinación de alta penetración renovable, baja demanda, esquemas de protección y reglas no adaptadas, y errores humanos/técnicos desencadenó el mayor apagón ibérico de la historia reciente. La secuencia fue excepcional: una sobretensión en cascada que desbordó los mecanismos tradicionales.
Lecciones claras: modernizar procedimientos y herramientas para gestionar potencia reactiva, oscilaciones y rampas; exigir cumplimiento estricto de códigos técnicos y reforzar la coordinación y transparencia; abrazar la flexibilidad (almacenamiento, respuesta de demanda, servicios desde inversores); y aumentar redundancia y apoyo externo (interconexiones, planes de contingencia).
En pocos meses se han dado pasos iniciales –normas de urgencia, nuevas exigencias operativas y más recursos de seguridad– que, aunque con coste, apuntan a un sistema más robusto. La transición no se detiene, pero tras 28A se encara con más prudencia técnica. Fue un “cisne negro” que aceleró cambios positivos: con PO 7.4, rampas más largas y mejor coordinación TSO-DSO-DER, España está actualizando las reglas para que la red del futuro, intensiva en renovables, sea tan segura o más que la del pasado. El riesgo cero no existe, pero se han dado pasos significativos para que no vuelva a repetirse un colapso generalizado.
Al final, no se trata de buscar culpables, sino de entender el comportamiento real de un sistema eléctrico que ya no responde como antes.
Una red con menos inercia, más electrónica y más renovables necesita otros reflejos.
Y, mientras sigamos interpretando los eventos del siglo XXI con las reglas del siglo XX, seguiremos tropezando con la misma piedra: creer que todo “estaba dentro de rango”, cuando la realidad ya iba varios milisegundos por delante.
Fuentes
- Red Eléctrica de España (REE) – Notas de prensa y comunicados oficiales.
- Ministerio para la Transición Ecológica (MITERD) – Informe del Comité de Análisis 28A (resumen público).
- ENTSO-E – Panel de Investigación de Incidentes, informe fáctico preliminar.
- Wikipedia – “Apagón en la península ibérica de 2025” (datos generales del evento).
- Energías Renovables – Cobertura y editoriales posteriores al evento.
- Suelo Solar – Declaraciones y posicionamientos del sector fotovoltaico.
- Onda Cero – Noticias y análisis sobre medidas operativas y regulatorias de octubre de 2025.
- RTVE / Europa Press / La Moncloa – Comunicaciones institucionales y cronología de la reposición.
- Aelēc (Asociación de Empresas de Energía Eléctrica) – Informes y posicionamientos del sector de redes y generación.
Deja una respuesta

También te puede interesar...