Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Supervisión y control involucra los subsistemas de: protección (ultrarrápidos, información local y operaciones completamente
automáticas), sistemas de control en lazo cerrado (respuesta en tiempo real, organizados jerárquicamente, operaciones
completamente automáticas (1er y 2do nivel, 3ro puede ser manual), sistema de manejo de energía (EMS) (tiempo real
extendido, información remota, decisiones tomadas por el operador asistidos por computadores).
Analizadores de redes: red configurable en miniatura, se usaban para analizar flujos de carga, cortocircuitos, transitorios,
control de frecuencia y despachos económicos. No operaban en tiempo real. Luego vienen las computadoras digitales: válvulas
→ transistores → circuitos integrados → ordenadores personales.
Antes de 1965 los centros de control tenían partes analógicas donde hacían despachos económicos y control de frecuencia; y
partes digitales donde estaba la lógica de los relés. Se pensaba que solo con la planificación era suficiente. Luego del apagón
de NY y sus consecuencias, se empieza a tomar en cuenta la seguridad y fiabilidad del sistema, se crea la NERC y se empiezan
a utilizar los estimadores de estado. Aparece el Energy Management System (EMS).
Los centros de control con EMS en una primera etapa se tenía un ordenador central (con uno de backup), luego en una segunda
etapa sistemas abiertos y distribuidos con redes LAN, ya en la tercera etapa se separan las actividades (más especializados),
conexiones de área amplia y se empieza a tomar en cuenta la integración de renovables, manejo de más información.
Aplicaciones de los EMS:
En la operación del sistema se pueden tener diferentes estados. Estado normal: demanda satisfecha y no hay problemas.
Estado seguro: además de lo anterior se cumplen los criterios de seguridad. Alerta: no se cumplen los criterios de seguridad.
Emergencia: existen variables fuera de los límites, necesario
acciones correctivas. Restauración: pérdida de carga, se
procede a la reposición del servicio.
El estimador de estado es un instrumento que le dice al operador de
red cual es el estado de la red. Se añade al SCADA y lo mejora. Algunas
de las nuevas funciones del EMS son análisis de congestiones, reparto
de sobrecostos entre agentes, gestión de desvíos y mercado de
servicios complementarios, colaborar en la operación y
mantenimiento, determinar y asignar costes de transporte,
información capacidad de transporte.
• Modelo del sistema: se manejan en régimen permanente, y se consideran equilibrados con el equivalente monofásico.
Se tiene la topología de red, modelo de nudos (uno o varios nudos físicos unidos por interruptores cerrados) y ramas
(líneas, transformadores, elementos shunt). Cada nudo tiene asociadas inyecciones de potencia (generación o
consumo).
• Medidas: pueden ser básicas (tensiones, flujos e inyecciones de potencia), de ampliación (tomas de transformadores,
intensidades, ángulos obtenidos de sincrofasores que dan los Phasor Measurements Units (PMU), otras (inyecciones
𝑚
virtuales-nulas en nudos de tránsito, pseudomedidas provenientes de históricos). En sistemas con 𝑛 > 4; 𝑛 = 2𝑁 −
1; donde m es el numero de medidas (V, P, Q) y n es el número de variables estados (tensiones y ángulos sin contar la
referencia), se tiene redundancia alta. Las medidas de inyección se formulan como suma de los flujos que inciden en
el nudo.
En la figura de la izquierda podemos ver el proceso que se lleva a cabo
en un estimador de estado convencional. Primero tenemos el
procesador topológico que es quien hace el paso del mundo físico al
mundo eléctrico, toma en cuenta el estado de los elementos de corte
(cerrados, abiertos, desconocidos) y la estructura fija de red para
determinar el modelo de nudos y ramas. Luego se encuentra el análisis
de observabilidad que determina si el estado se puede estimar o no a
partir de las medidas disponibles. A partir de estos dos pasos se procede
con el proceso iterativo de estimación de estado y estimación de estado
tomando en cuenta las telemedidas analógicas.
El estimador de estado es una generalización del flujo de carga, medidas de P y Q en flujo de carga
son datos, en estimador de estado son medidas.
Tema 3: Estimación de Estado: Métodos de resolución
Las ecuaciones normales tienen limitaciones y problemas numéricos, intrínsecamente están mal condicionadas. Al usar la
matriz de ganancia 𝐺 = 𝐻 𝑡 𝑊𝐻, el problema es mayor ya que dicha matriz tiende a ser singular (determinante 0). Este mal
condicionamiento se da por pesos muy grandes en medidas (por ejemplo, en medidas virtuales), incidencia de ramas cortas y
largas en un mismo nudo y alta presencia de medidas de inyección. Es necesario utilizar alternativas numéricas.
• Factorización ortogonal: se utiliza factorización QR del jacobiano para obtener la matriz U de la factorización LU.
• Método híbrido: evita el uso de la matriz Q. Igual usa factorización QR para obtener la matriz U.
• Equality-constrained: las medidas virtuales, que tiene pesos tan altos, se modelan como restricciones de igualdad y se
resuelve el problema con multiplicadores de Lagrange.
• Formulación de matriz aumentada de Hachtel’s: se aumentan las matrices.
En conclusión, las soluciones de las ecuaciones normales para el problema de WLS es simple, pero con dificultades numéricas,
por ello se utilizan métodos alternativos como el de la factorización QR que evitan el uso de la matriz H, son más estables, pero
más costosos computacionalmente y los métodos de Equality-constrained y solución de la matriz aumentada que evitan los
problemas que se tienen con pesos altos y utilizan la factorización LU.
Método Ventajas Desventajas
Mal condicionado (disparidad de pesos, incidencia de ramas
Ecuaciones Normales (Gauss-Newton) Proceso simple cortas/largas, muchas inyecciones)
G tiende a ser singular
Evito usar HtH – No se forma matriz G Q es densa
Factorización ortogonal QR
Más estable numéricamente Necesita más recursos computacionales
Evita usar Q
Método Híbrido -
Usado actualmente
Equality Constrained Evita el problema de pesos grandes Resolución compleja
Pierde simetría
Matriz aumentada de Hatchel’s Evita el problema de pesos grandes
Matrices primitivas muy dispersas
Tema 4a: Análisis de Observabilidad
El análisis de observabilidad a partir de analizar las medidas disponibles define las zonas de la red donde se puede asegurar el
cálculo estimado, determina si es observable o no. Si el sistema no es observable, se determina que zonas del sistema son
observables e incorpora pseudomedidas (con pesos pequeños) que conviertan al sistema observable. Casos posibles:
• Red observable sin redundancia: número de medidas linealmente independientes = número de variables de estado.
Flujo de carga, todas las medidas son críticas.
• Red observable con redundancia: número de medidas linealmente independientes > número de variables de estado.
• Red no observable: número de medidas linealmente independientes < número de variables de estado. Por más
medidas que tenga, si las que son linealmente independientes son menos que las variables de estado no tengo
observabilidad.
Isla observable: todos los flujos de potencia son calculables a partir de las
medidas disponibles. Si una isla física es observable se puede desarrollar
el proceso de estimación de estado.
• Métodos numéricos: analizan el rango de las matrices implicadas. Trabajan con la matriz de ganancia, tienen
problemas numéricos por errores de truncamiento (qué considerar un valor nulo). Se realiza factorización por Cholesky, si se
encuentra un pivote nulo se incluye la referencia de fase y la red es observable. Si se tienen varios pivotes nulos el sistema no
es observable. Cada pivote será una isla con referencia de fase distinta. Si
en un enlace el flujo es nulo sus extremos tienen entonces el mismo valor
de ángulo. Las inyecciones irrelevantes son inyecciones en nudos donde
inciden varias ramas no observables, no deben incluirse en el proceso de
estimación de estado.
El proceso para los métodos numéricos es el siguiente: se descartan ramas
irrelevantes, se forma la matriz de ganancia y se triangulariza, para cada
pivote cero se coloca un origen de fase, se eliminan las medidas
irrelevantes, las ramas no observables y las islas observables triviales.
La detección de errores es el último paso del proceso. Esta es la diferencia esencial con el flujo de carga que no puede hacer
esta labor y tiene que creerse todas las medidas (todas las medidas son críticas). Al haber redundancias, hay residuos (∆𝑧),
analizando los mismos estadísticamente somos capaces de detectar medidas erróneas. Los posibles errores están
principalmente en las medidas, no obstante, se pueden tener errores, pero en menor medida en los parámetros y en la
topología. Los errores se consideran gaussianos con distribución normal, media nula, desviación típica conocida y que son
independientes entre sí. Según su magnitud se clasifican de la siguiente manera:
• Ruido: errores normales < 3𝜎, no es necesario adoptar acciones correctoras. El estimador de estado los filtra
gracias a la redundancia, a mayor redundancia se tendrá mayor filtrado de errores y por ende una mejor estimación.
• Prefiltrado: errores extremos > 20𝜎, son tan evidentes que ni siquiera pasan al estimador. La etapa de
prefiltrado se hace en el procesamiento topológico. El prefiltrado es importante si no se realiza puede que el estimador
no converja
• Detección/Identificación: errores de 3 a 20𝜎, considerados bad data (outliers), provocan residuos mayores
que los normales.
En el prefiltrado los errores son identificados directamente a partir de la medida o de chequeos heurísticos. Algunos
estimadores utilizan técnicas más elaboradas para detectar este tipo de errores.
El proceso de detección de errores determina si existen medidas erróneas. Cada vez se usa menos, actualmente se suele pasar
directamente a la segunda etapa. Se usaba mucho antes cuando no había ordenadores potentes, pues la segunda etapa es
computacionalmente costosa. El proceso de identificación determina qué medida es errónea, a veces incluye a la primera.
Durante años muy costosa computacionalmente, con la tecnología actual se calcula eficientemente. Se puede realizar con los
residuos ponderados, sencillos de calcular, pero no se pueden comparar o con residuos normalizados, más complejo de
calcular, pero permite comparar residuos entre sí. Finalmente se procede a eliminar los errores.
Para detectar e identificar medidas erróneas es necesario redundancia, la redundancia global se calcula como m/n, local hace
referencia a zonas de red, formalmente no existe una definición. En medidas críticas los errores no son detectables. Los
residuos se estiman y con ellos se calcula una matriz de sensibilidad residual, el error no se puede obtener a través de los
residuos, solo nos acercamos a su valor.
Efectos que se dan con los errores:
• Efecto Smearing: Un error en una medida en teoría se refleja en toda la red, principalmente en las zonas cercanas. Se
atenúa conforme me alejo de la medida. Aunque solo tenga un error diferente de cero, todos los residuos serán
diferentes de cero. El residuo mayor es donde se encuentra mi error mayor.
• Efecto Masking: Pueden aparecer combinaciones de errores tales que dos errores se cancelen entre sí y creen un
efecto de esconderse entre ellos.
Para analizar los errores tenemos las medidas, el estado estimado, las medidas estimadas, los residuos y las desviaciones
típicas. Los residuos en términos absolutos no son un buen indicador para el análisis de las medidas erróneas.
𝑟̂ 2
La detección de las medidas erróneas se realiza con una función objetivo estimada. 𝐽(𝑥̂) = ∑𝑚 𝑖
𝑖=1 𝜎 2 . Fue demostrado por los
𝑖
matemáticos que esta función sigue una distribución Chi-cuadrado con m-n grados de libertad, el resultado obtenido se
2
compara con los valores de tabla correspondiente a una cierta probabilidad. Si 𝐽(𝑥̂) ≥ 𝜒𝑚−𝑛,𝑝 se determina que hay medidas
erróneas, con esto se sabe que existen errores no gaussianos, pero no se sabe en qué medidas.
Para la identificación de medidas erróneas se pueden usar dos indicadores: los residuos ponderados que se dividen por la
sigma del error (dato de entrada con la calidad de medidores) y los residuos normalizados que se dividen por la sigma del
residuo (difícil de calcular). Estos últimos son más complejos, pero mucho más útiles, permiten comparar errores entre sí.
• Residuos normalizados: se identifican mediante las propiedades estadísticas de los residuos. Esta matriz de covarianzas
mide la correlación entre los errores. Cuando se tienen medidas críticas, la fila/columna correspondiente de la matriz
de sensibilidad residual es nula, dado que estas medidas tienen residuos nulos no afectan los demás residuos, de allí
que se suela incorporar pseudomedidas criticas para garantizar la observabilidad. Solo en medidas no críticas se
pueden detectar los errores. Los residuos normalizados siguen una distribución normal estándar, el mayor valor se
corresponde con el de la medida errónea.
El proceso para identificar los errores es el siguiente: obtener estado estimado, calcular
residuos normalizados (antes por el costo computacional se usaban residuos ponderados),
buscar el de mayor valor, si es menor a un umbral (normalmente 3) detenerse, en caso
contrario eliminar la medida y realizar el procedimiento desde el inicio. Solo se puede eliminar
la medida más grande, una a la vez, porque pudiéramos estar ante un efecto smearing, solo
en los casos donde son medidas muy lejanas pueden eliminarse. Teóricamente este método ofrece garantía para una sola
medida errónea, en la práctica se utiliza para múltiples medidas considerando que no haya masking, puede funcionar para
medidas erróneas con interacción si los errores no son conformes (no masking), funciona mal para el caso contrario (masking).
El uso de residuos normalizados conlleva determinar la varianza de los residuos, el cálculo de la matriz de covarianza presenta
tiempos de computación significativos, es necesario aplicar técnicas que permitan reducir los tiempos de computación.
Errores no conformes: dos errores, pero contradictorios. Test de residuos normalizados funciona bien.
Errores conformes: dos errores en la misma dirección. Test de residuos normalizados puede fallar.
Al eliminar medidas debe modificarse el jacobiano y volver a correr el estimador, una medida crítica no puede ser detectada
como medida errónea. Otra solución en vez de eliminar la medida puede ser modificar su valor (retocarlo para hacerlo
estadísticamente neutro) a esto se le llama dormant pseudo-measurement, modifico el valor de la medida considerada errónea
para que reduzca el efecto sobre la estimación. Este proceso suele ser mejor que incluir pseudomedidas y posiblemente luego
de la modificación con una iteración se arregla el problema.
Tema 6b: Estimadores de Estado asistidos con sincrofasores
Los estimadores de estado tradicionales utilizan las medidas no sincronizadas de las RTU, esto conlleva a que se tengan
descuadres de tiempo que son menos relevante en sistemas grandes cuando se tienen cambios lentos de carga. No obstante,
pudieran tenerse “fotos movidas” del estado.
• Formulación secuencial de tres pasos: primero estimación preliminar usando solamente las medidas convencionales
(formulación polar), segundo transformaciones no lineales a coordenadas rectangulares, tercero refinamiento del
estado preliminarmente estimado incorporando las medidas de los PMU.
• Formulación secuencial de dos pasos: primero estimación preliminar usando solamente las medidas convencionales
(formulación rectangular, estimador no comercial actualmente), segundo refinamiento del estado preliminarmente
estimado incorporando las medidas de los PMU.
En conclusión, los sincrofasores tienen una mayor tasa de muestreo, la coexistencia de medidas convencionales y los PMU
permiten distintas formulaciones para la estimación de estado. Trabajar con medidas solo de PMU permiten una formulación
lineal en coordenadas rectangulares. Los PMU incrementan la precisión y la capacidad de sincronización en grandes sistemas,
pero su costo y ancho de banda necesario son aún una preocupación.
Tema 7: Estimadores de Estado estadísticamente robusto
La robustez de un estimador es la capacidad para tolerar un número elevado de medidas erróneas. El punto de ruptura
(Breakdown point) es un valor adimensional a partir del cual ya el estimador no funciona, hace referencia al número máximo
𝑚
de medidas erróneas que puede haber sin que el estimador deje de funcionar. 𝑚𝑏; 𝑚𝑏 hace referencia al número de medidas
arbitrariamente erróneas y 𝑚 es el número de medidas.
En una definición formal el punto de quiebre es el número máximo de medidas cuyo error puede tender a infinito sin que el
estado estimado tiende a infinito, es decir se aparte del estado verdadero. Este valor es influenciado por la redundancia (mayor
redundancia más tolerancia), la distribución de los outliers y el tipo de estimador. Ningún estimador es robusto frente a errores
mayores a la mitad de sus medidas redundantes.
El estimador de estado de mínimos cuadrados ponderados deja de ser el de máxima verosimilitud si el error de las medidas no
tiene una distribución normal, como suele ser en la práctica. No es robusto ante outliers.
M-estimadores: estimadores de máxima verosimilitud (M). En éstos se busca cuál es el mejor dependiendo de la función de
densidad de distribución de los errores. La función objetivo es no cuadrática (Estimadores cuando la función objetivo no es
cuadrática en todo momento). min ∑𝑖 𝜌(𝑟𝑖 ), 𝜌 se selecciona que sea menos creciente que la cuadrática para errores grandes.
Para residuos pequeños se quiere que sea cuadrática y para residuos grandes que sea menos creciente que cuadrática. No
siempre es derivable.
Función de influencia: mide la influencia de un residuo en el valor
estimado. La influencia de un dato erróneo en el valor estimado
aumenta linealmente con el tamaño del error.
Least absolute value (LAV) estimator: se trata como un problema lineal, donde
son introducidas solo las variables positivas. Todas las variables se convierten a
positivas y con esto se logra eliminar el valor absoluto. Para la estimación, en
aplicaciones de sistema de potencia, sabemos que sus ecuaciones son no
lineales, lo que se hace es linealizarlas en muchos problemas lineales. Tiene alto
costo computacional. Cuando converge solo le hace caso a las n medidas
mejores. Las demás medidas las desecha. Echa fuera los bad data. Es robusto
porque no le afectan las medidas malas. Sensible a leveraged point.
Mínima mediana de cuadrados (LMS): es un estimador muy bueno, pero muy costoso a nivel computacional. Su función
objetivo se calcula cada k veces sorteando cada vez n medidas diferentes.
Tema Adicional: Estimadores Dinámicos
Los estimadores de estado convencionales, son estimadores estáticos, que trabajan con distintas fotos del sistema cada 10
segundos, no consideran la evolución temporal y por tanto son incapaces de trabajar con los transitorios. Por otro lado, los
estimadores de estado dinámicos no hacen secuencias de fotos desacopladas, aprovechan las ecuaciones diferenciales que
gobiernan los parámetros eléctricos para lidiar con los transitorios. Utilizan matrices muy grandes, que pueden llegar a ser
inmanejables. Con los estimadores dinámicos de estado puedo estimar como pudieran estar las variables en el próximo
instante, aprovechando las informaciones que tengo y las ecuaciones diferenciales que lo gobiernan.
Uno de los algoritmos utilizados en estimadores dinámicos es el filtro de Kalman. Algoritmo que se compone de dos etapas,
predicción y corrección. Los parámetros pueden incluso estimarse.
Los estimadores de estado dinámicos permiten establecer una estimación de la evolución temporal del estado del sistema. Es
posible realizar una estimación conjunta tanto del estado como los parámetros utilizando los estimadores de estado dinámicos,
como es el filtro de Kalman. Para mejorar la precisión y estabilidad numérica se utilizan diferentes técnicas como son la
estimación en varias etapas y la reformulación de parámetros.
Tema 1: Control del sistema eléctrico en tiempo real
El control de potencia activa – frecuencia trata de mantener la velocidad de giro de los generadores constante satisfacer la
demanda y mantener los intercambios. El control de potencia reactiva – tensiones trata de mantener un perfil adecuado en la
red. La potencia activa es controlada mediante la entrada de caudal a la turbina por el gobernador, la potencia reactiva es
controlada por la excitación con el AVR, La interacción entre potencia activa y reactiva es realizada por los estabilizadores
(PSS).
Cualquier cambio en la potencia suministrada por la turbina (potencia mecánica) o en la potencia del generador (potencia
eléctrica) se realiza a costa de la energía cinética, esto se traduce en una variación de la velocidad de giro frecuencia.
Si se consideran los reguladores de velocidad de las máquinas síncronas con su estatismo (R en Hz/MW). Definición formal de
estatismo considera el cambio de frecuencia que experimenta una máquina al pasar de vacío a plena carga.
En el caso de generadores en paralelo, el estatismo equivalente se calcula igual como las resistencias equivalentes en paralelo.
En áreas interconectadas un cambio de potencia demandada en una de ellas repercute tanto en la frecuencia como en la
potencia intercambiada entre las áreas. Es necesario entonces corregir tanto el error en la frecuencia como el error en el
intercambio de áreas.
El AGC, es un control centralizado que busca mantener la frecuencia a 50 Hz, mantener los intercambios en los valores
especificados y repartir la generación entre las centrales más económicas. El error de control de área (ACE) es llevado a cabo
en proporción a las distintas máquinas. Este error es una señal que determina la necesidad de aumentar o disminuir la
generación del área, se define en función del error en la potencia, exportada y el error de frecuencia.
En España la regulación primaria es de carácter obligatorio y no retribuido, Con posibilidad de contratación a otro agente. La
regulación secundaria se hace a disposición del AGC con reservas horarias que se determinan en base a ofertas y es de carácter
automático. La regulación terciaria restituye las reservas de regulación secundaria y se hace en base a ofertas de manera
manual.
Los compensadores síncronos son máquinas síncronas cuyo eje no recibe ningún par procedente de una turbina, consumen
ligeramente de la red. Es una máquina que genera o consume potencia reactiva. Regula la tensión de forma continua, no
introduce armónicos, no causa problemas por resonancia y proporciona corriente de cortocircuito, facilitando la actuación de
las protecciones.
Para el control secundario de tensiones, el sistema se divide en áreas con un nudo piloto cuya tensión es representativa del
mismo y su mantenimiento garantiza el perfil de tensiones de toda el área. A cada nudo piloto se le asigna un número de
generadores cuya misión es mantener la tensión del nudo. Es de carácter automático, cada área es independiente del resto y
su actuación es de segundos. El control terciario es a nivel de todo el sistema. Resuelve un problema de optimización de varios
grados de libertad, los ejecuta el operador del sistema y tiene tiempo de actuación de varios minutos. En España el control de
tensiones es obligatorio.
Tema 1: Introducción operación de la red eléctrica
El objetivo de un sistema de potencia es proveer la suficiente generación y otros equipamientos controlables al sistema
interconectado. Lleva a cabo cinco tareas:
Al llevar a cabo estas tareas, tenemos como resultado la continuidad de un servicio de calidad al usuario final, sin importar las
variaciones de demanda o cambios en el estado de los equipos. Del 1 al 3 son servicios integrales provistos por todas las
unidades generadoras. El 4 es llevado a cabo por el AGC. El precio de la electricidad visto por el usuario refleja el costo promedio
de diseñar el sistema y llevar a cabo las 5 tareas, el objetivo al final es realizarlas al mínimo costo.
Control primario es local (Gobernador, AVR). Control secundario es a nivel de área (AGC). Control terciario a nivel de
programación de la operación óptima.
Durante la operación de los sistemas eléctricos se pueden tener distintos estados. En estado normal la demanda es satisfecha
y no hay problema. Si además satisfacemos los criterios de seguridad entonces estamos en estado seguro y se pueden realizar
optimizaciones. Si no se cumplen los criterios de seguridad estamos en estado de alerta y debe realizarse control preventivo.
En caso de que existan variables fuera de los límites de explotación se pasa al estado de emergencia y es necesario realizar
acciones correctivas, prima el tiempo en que se logren las acciones correctivas sobre lo económico. En caso de que haya habido
perdida de carga entonces se pasa al estado de restauración donde se procede a reponer el servicio en el menor tiempo posible
y evitando problemas mayores.
Para satisfacer la demanda de manera eficiente y confiable, teniendo en cuenta la incertidumbre, es necesario tomar
decisiones jerárquicas temporales. Conforme se tenga mayor temporalidad (meses, años), habrá mayor incertidumbre y el
modelo es menos detallado, conforme se tenga una temporalidad más próxima (semanas, días, horas, minutos) el modelo
debe ser más detallado.
Tema 2: Explotación óptima del Transporte
Un sistema eléctrico es estable cuando retorna a un estado normal tras ser sometido a una perturbación. El estado normal es
aquel en el cual las magnitudes eléctricas se encuentran dentro de los límites y no existen cambios de envergadura en la
topología de red debido a la actuación de las protecciones. Los fenómenos de inestabilidad se pueden clasificar según la
naturaleza del fenómeno físico (ángulo, frecuencia, tensión), magnitud de la perturbación (pequeña o gran perturbación). O
según la dinámica involucrada (corto o largo plazo).
La estabilidad de frecuencia es la capacidad del sistema de volver a la frecuencia nominal, tras una perturbación que da lugar
a un desequilibrio de generación y consumo. Debe tenerse en cuenta que frecuencias extremas pueden causar resonancia
mecánica y posible ruptura del eje de las máquinas.
La estabilidad de frecuencia se ve cada vez más comprometida por
la sustitución de generación síncrona por generación basada en
convertidores electrónicos.
Pueden deberse a fallos coincidentes en el tiempo, avalanchas de informaciones, entre otros. El tiempo de reposición depende
de la secuencia de los incidentes previos al apagón. El apagón es un estado incontrolable que conduce al colapso del sistema
eléctrico. Es una secuencia rápida de incidentes en cascada. Existen cuatro tipos de colapsos que pueden presentarse aislados
o en combinación: disparo de líneas en cascada, colapso de frecuencia, colapso de tensión, pérdida de sincronismo.
Los incidentes pueden darse a causa de decisiones erróneas de los operadores, que no están familiarizados con el fenómeno
que se presenta o no se atreven a realizar desastres significativos, por problemas de comunicación de centrales, redes de
transporte o distribución, infraestructura de transporte insuficientes o mal mantenidas, incorrecta actuación de las
protecciones, falta de planes en situaciones de emergencia, e incumplimiento de los criterios de seguridad.
Tema 3: Operación de la red eléctrica
A continuación, se da un pequeño resumen de los procedimientos de operación. Primer procedimiento de operación (1.1)
define los estados de operación, las magnitudes a controlar (frecuencia, tensiones, potencias-cargas). Los límites de
explotación:
Criterios de seguridad N-1 (por ley) y en algunos casos N-2 cuando haya mucha probabilidad o que cause un fallo muy crítico.
Implican sobrecostes. 8.2 Acciones conforme el estado del sistema.
• Flujo de cargas: se obtiene el estado de la red a partir de los valores de distintas variables independientes.
• Reparto de cargas óptimo (OPF): optimiza una función objetivo satisfaciendo determinadas restricciones (ecuaciones
de red y límites de variables). Resuelve las ecuaciones de red con ciertos grados de libertad buscando una optimización
de algún objetivo.
Para redes con tensiones mayores a 66 kV, se suele utilizar una aproximación lineal que funciona bastante bien, el llamado
flujo de cargas óptima en continua (DCOPF – DC Optimal Power Flow).
Los factores de distribución de la potencia activa (PTDF – Power Transfer Distribution Factors) representan una relación lineal
entre las inyecciones de potencia activa y los flujos de potencia por las líneas y transformadores. La apertura de una línea es
equivalente a mantenerla conectada junto a dos inyecciones iguales y de signo contrario en ambos extremos.
En el estado seguro de la red todas las magnitudes se encuentran dentro de los límites y se cumplen los criterios de seguridad,
por lo que podemos optimizar la red. En este estado se debe procurar mantener el cumplimiento de los criterios de
funcionamiento y seguridad. Se realizan despachos de generación con mecanismos de mercado o despacho económico y luego
es modificado para cumplir las restricciones de explotación y los criterios de seguridad. Se planean los controles de tensión, se
tratan de minimizar las pérdidas. Se adoptan medidas preventivas a raíz de los análisis de contingencia en caso de que se
incumpla algún criterio de seguridad. El primer objetivo es minimizar costes y luego minimizar pérdidas (la función de
minimización de pérdidas es equivalente a minimizar la potencia del slack). En los casos donde minimizó pérdidas los
multiplicadores de Lagrange especifican cómo aumenta la pérdida en cada nudo ante el aumento de 1 MW.
En el estado de emergencia no interesa tanto la exactitud sino hacer frente a las emergencias de manera rápida. Se debe
atender prioritariamente al restablecimiento urgente de la seguridad hasta devolver el sistema a su estado normal. Se toman
las medidas que se estimen necesarias. En el caso de producirse alguna interrupción, se coordinará la reposición del servicio
de forma segura y en el menor tiempo que sea posible. ENTSO-E -E define dos niveles de carga:
Rangos de tensión:
• Rangos de tensión normal: especificados entre acuerdos con los distribuidores, los códigos de red y los estándares de
calidad de potencia.
• Rangos de tensión excepcionales: valores de tensión fuera de los límites por un tiempo limitado, pueden ser
condiciones de alta tensión, baja tensión e incluso colapsos de tensión.
Corrección de sobrecargas en estado de emergencia: Aquí dejamos de lado la exactitud y priorizamos la velocidad, se utilizan
modelos lineales que pueden ser completos (consideran las fases) o compactos (eliminan las fases del problema y utilizando
factores de distribución). Cada medida de bajar o subir potencia
de un generador trae consigo un sobrecoste, el objetivo es
minimizar este sobrecoste. Para corregir sobrecarga podemos
utilizar un DCOPF, pero para corregir tensiones es necesario
trabajar con las ecuaciones en AC. En el caso compacto, parto
de los factores de distribución y puedo ver que generador
afecta más la carga, habilidad de una línea así,
automáticamente puedo tener una medida correctiva. Pueden
darse casos donde el problema no tenga solución y es
necesario añadir mayores grados de libertad, por ejemplo,
permitir deslastre de carga con un alto costo.
Finalmente teniendo en cuenta las distintas aportaciones de los distintos elementos se llega a una solución de aproximación
lineal. Con este modelo experto se busca minimizar actuaciones, voy de una en una viendo los efectos de cada una.
En el estado de alerta las acciones tomadas van encaminadas a devolver el sistema a su estado normal. Se deben determinar
las acciones más adecuadas sobre la topología de la red y el estado de generación. En primer lugar, se evalúan los riesgos
potenciales, luego se determina y analiza las posibles acciones correctoras y preventivas, y finalmente son aplicadas. ENTSOE-
E -E establece dos tipos de acciones llevadas a cabo para garantizar el principio de seguridad N-1:
Seguridad estática del sistema: capacidad de este para permanecer en un estado admisible ante la evolución de la demanda y
la generación y ante una serie de eventos. imprevisibles.
Análisis de seguridad o análisis de contingencia pueden ser de criterio N-1, donde se considera el fallo simple de cualquier
elemento, o N-2 cuando consideramos disparos de líneas de doble circuito o fallos mayores.
Para evitar tener un número elevado de estados a evaluar se seleccionan las contingencias críticas. Estas contingencias pueden
ser elegidas de acuerdo con los siguientes métodos:
• Métodos de clasificación (ranking): las contingencias se ordenan en función del grado de peligrosidad (índice de
severidad). Métodos aproximados con factores de distribución (DCLF).
• Método de selección (screening): se seleccionan contingencias en base a un estudio aproximado. Se realizan con
métodos basados en el uso de flujos de carga aproximados (FDLF).
Método ranking de contingencias: basados en índices aproximados ordenados de
mayor a menor (índice de severidad), su fiabilidad es cuestionable (problema de
enmascaramiento).
Screening de contingencias: más lento que el método anterior pero más fiable, permite detectar problemas de tensiones.
En el estado de reposición se detecta la pérdida de suministro y el operador del sistema atiende prioritariamente a la
reposición urgente del suministro eléctrico a la vez de que evita problemas mayores. Pueden utilizarse planes de reposición
del servicio, en caso de que no exista, el operador dirige la reposición. Existen dos estrategias básicas:
• Restauración bottom-up: se arrancan centrales en distintas zonas que van dando suministro localmente. (Común en
sistemas aislados – Australia).
• Restauración top-down: el sistema se restaura gracias a las interconexiones con los vecinos. (Común en sistemas
interconectados – Italia).
Normalmente las hidroeléctricas son las que tienen posibilidad de arranque en frío y algunas de gas. Para el caso español, en
el estado de reposición se apoyan de las interconexiones con Francia, se anulan los programas de intercambio con otros países,
se toman las medidas necesarias para conseguir lo antes posible el equilibrio carga generación, de manera prioritaria se
asegura la alimentación a los servicios auxiliares de otras centrales, como las nucleares.
La planificación de la operación de la red a corto plazo se lleva a cabo con los siguientes pasos:
Tema 4: Planificación del Sistema Eléctrico
Criterios de idoneidad del sistema determinan que el sistema debe soportar en régimen permanente contingencias de nivel 1
que se prueban sistemáticamente (N-1), contingencias definidas de forma específica (N-2), se toman en cuenta las tasas de
fallo de los elementos, la probabilidad de ocurrencia de los fallos y duración de estos. Se hacen valoración del costo/riesgo de
las distintas alternativas.
Fiabilidad o adecuación: capacidad del sistema para satisfacer la demanda con unos niveles adecuados de calidad de
suministro. Cuantifica a través del número y duración de las interrupciones de suministro a los consumidores. Índice de
fiabilidad de la planificación de la red:
En un estado concreto 𝑥, con probabilidad 𝑝(𝑥), los índices de fiabilidad son los valores esperados 𝐸(𝑓), de distintas funciones.
𝐸(𝑓) = ∑∀𝑥 𝑓(𝑥) ∙ 𝑝(𝑥)
• Índices zonales o del sistema conjunto: LOLP, ENS, TIM, TIEPI, NIEPI
• Índices locales o de nudo: LOLP, ENS, NH, TI
• Enumeración de estados: se estudian todos los estados, luego se van incorporando las contingencias en orden
creciente (caso base, N-1, N-2, etc.).
• Simulación de Monte Carlo: selección de estados del sistema a través de un sorteo aleatorio.
Con el método de enumeración de estados pueden llegarse a tener una cantidad elevada de escenarios, por lo que en algunos
casos se suele elegir escenarios mediante sorteos aleatorios, donde cada número aleatorio hace referencia al estado de cada
elemento, no obstante, esta técnica de Monte Carlo tiene de desventaja que para lograr un buen pronóstico con baja
desviación es necesario incorporar demasiados escenarios.
La planificación puede ser a largo plazo (20 años) donde se analiza solo en la red de 400 kV, a medio plazo (10 años) donde se
analizan las redes de 400 y 220 kV y a corto plazo (5 años) donde se hace una revisión del plan de desarrollo.
• Criterios de fiabilidad técnicos: idoneidad (cumplimiento de los criterios N-1 y N-2), compensación reactiva (tensiones
dentro de los límites), comportamiento dinámico (ángulo, oscilaciones), corrientes de cortocircuito.
• Criterios de fiabilidad de refuerzos de red existente
• Criterios de fiabilidad de mallado de la red existente
• Criterios de implantación, diseño de subestaciones (interruptor y medio en 400 kV con más de 4 entradas o 220 kV
con más de 5 – anillo para 4 o menos entradas – doble barra con acoplamiento en 220 kV con 5 o menos entradas).
• Criterio de implantación, diseño de líneas (línea 400 kV doble circuito para corriente mayor o igual a 2500 A – línea
220 kV doble circuito para corriente mayor o igual a 2000 A).
• Criterios económicos: minimizar costos de inversión y operación.
• Criterios medioambientales: impacto ambiental.
• Criterios de implantación física: espacio.