Está en la página 1de 38

Tema 1: Origen y Funcionalidad

Supervisión y control involucra los subsistemas de: protección (ultrarrápidos, información local y operaciones completamente
automáticas), sistemas de control en lazo cerrado (respuesta en tiempo real, organizados jerárquicamente, operaciones
completamente automáticas (1er y 2do nivel, 3ro puede ser manual), sistema de manejo de energía (EMS) (tiempo real
extendido, información remota, decisiones tomadas por el operador asistidos por computadores).

Analizadores de redes: red configurable en miniatura, se usaban para analizar flujos de carga, cortocircuitos, transitorios,
control de frecuencia y despachos económicos. No operaban en tiempo real. Luego vienen las computadoras digitales: válvulas
→ transistores → circuitos integrados → ordenadores personales.

Antes de 1965 los centros de control tenían partes analógicas donde hacían despachos económicos y control de frecuencia; y
partes digitales donde estaba la lógica de los relés. Se pensaba que solo con la planificación era suficiente. Luego del apagón
de NY y sus consecuencias, se empieza a tomar en cuenta la seguridad y fiabilidad del sistema, se crea la NERC y se empiezan
a utilizar los estimadores de estado. Aparece el Energy Management System (EMS).

Los centros de control con EMS en una primera etapa se tenía un ordenador central (con uno de backup), luego en una segunda
etapa sistemas abiertos y distribuidos con redes LAN, ya en la tercera etapa se separan las actividades (más especializados),
conexiones de área amplia y se empieza a tomar en cuenta la integración de renovables, manejo de más información.
Aplicaciones de los EMS:

• Comunes: SCADA, estimación de estado, seguridad,


regulación de tensión, curva de demanda, mantenimiento.
• Transporte: regulación de frecuencia, generación
óptima, intercambios.
• Distribución: DMS, reposición de servicio, gestión de
clientes.

El operador del sistema (TSO) debe garantizar la continuidad y


seguridad de suministro para ello realiza predicciones de demanda y
generación renovable, análisis de seguridad, control de frecuencia y
tensión. Debe solucionar incidentes, gestionar conexiones
internacionales y mantenimientos.

En la operación del sistema se pueden tener diferentes estados. Estado normal: demanda satisfecha y no hay problemas.
Estado seguro: además de lo anterior se cumplen los criterios de seguridad. Alerta: no se cumplen los criterios de seguridad.
Emergencia: existen variables fuera de los límites, necesario
acciones correctivas. Restauración: pérdida de carga, se
procede a la reposición del servicio.
El estimador de estado es un instrumento que le dice al operador de
red cual es el estado de la red. Se añade al SCADA y lo mejora. Algunas
de las nuevas funciones del EMS son análisis de congestiones, reparto
de sobrecostos entre agentes, gestión de desvíos y mercado de
servicios complementarios, colaborar en la operación y
mantenimiento, determinar y asignar costes de transporte,
información capacidad de transporte.

Por otro lado, en el caso de los operadores de distribución (DSO), su


DMS les permite predecir demanda y renovable distribuida, asegurar
niveles de calidad, explotación óptima de la red, gestión de la
demanda, atención a clientes, programación de mantenimiento.
Tema 2: Estimación de Estado

Anteriormente se tomaban las informaciones disponibles de las RTU


que eran incompletas, redundantes e inconsistentes, y con estas se
realizaban flujos de carga y se calculaba el estado del sistema (este
proceso tenía mucha incertidumbre en sus resultados). Luego el
profesor Fred Schweppe del MIT introduce el concepto de
estimador de estado para estadísticamente determinar el estado
más probable, con estimador de estado conseguimos valores más
consistentes. Esto hace que el SCADA se perfeccione y se convierta
en un EMS.

Las medidas que toma el estimador de estado pueden ser de varios


tipos: telemedidas (las que provienen del SCADA), pseudomedidas (se estiman de acuerdo con históricos), virtuales (no
necesitan ser medidas, ya las conozco previamente y no tiene error, por ejemplo, la inyección en un nudo de tránsito es 0). A
la izquierda se pueden ver las entradas (modelo de red y medidas) y las salidas (estado, medidas calculadas y errores) de un
estimador de estado.

• Modelo del sistema: se manejan en régimen permanente, y se consideran equilibrados con el equivalente monofásico.
Se tiene la topología de red, modelo de nudos (uno o varios nudos físicos unidos por interruptores cerrados) y ramas
(líneas, transformadores, elementos shunt). Cada nudo tiene asociadas inyecciones de potencia (generación o
consumo).
• Medidas: pueden ser básicas (tensiones, flujos e inyecciones de potencia), de ampliación (tomas de transformadores,
intensidades, ángulos obtenidos de sincrofasores que dan los Phasor Measurements Units (PMU), otras (inyecciones
𝑚
virtuales-nulas en nudos de tránsito, pseudomedidas provenientes de históricos). En sistemas con 𝑛 > 4; 𝑛 = 2𝑁 −
1; donde m es el numero de medidas (V, P, Q) y n es el número de variables estados (tensiones y ángulos sin contar la
referencia), se tiene redundancia alta. Las medidas de inyección se formulan como suma de los flujos que inciden en
el nudo.
En la figura de la izquierda podemos ver el proceso que se lleva a cabo
en un estimador de estado convencional. Primero tenemos el
procesador topológico que es quien hace el paso del mundo físico al
mundo eléctrico, toma en cuenta el estado de los elementos de corte
(cerrados, abiertos, desconocidos) y la estructura fija de red para
determinar el modelo de nudos y ramas. Luego se encuentra el análisis
de observabilidad que determina si el estado se puede estimar o no a
partir de las medidas disponibles. A partir de estos dos pasos se procede
con el proceso iterativo de estimación de estado y estimación de estado
tomando en cuenta las telemedidas analógicas.

El estimador de estado relaciona las medidas con las variables de estado,


se considera que los errores tienen una distribución gaussiana con media
cero, desviación estándar típica y que cada medida tiene errores
independientes. Si el problema numérico es mal condicionado, esto trae
lentitud en la convergencia. Ese mal condicionamiento puede darse por
elevado número de medidas de inyección, disparidad en factores de
peso, conexión de líneas largas y cortas.

El estimador de máxima verosimilitud es el


de mínimos cuadrados ponderados (WLS)
que busca minimizar una función de error
𝐽(𝑥). La optimalidad se consigue al lograr un
gradiente nulo, dado que es un problema iterativo puede resolverse utilizando algoritmo de Gauss-
Newton (Ecuaciones normales). En esta formulación la matriz H tiene más filas que columnas (más
medidas que estados), si fueran iguales se tendría un flujo de carga. La matriz H tiene las variables
de estado de tensión y ángulo, es necesario adoptar técnica de matrices dispersas. La matriz G es
la matriz de ganancia, se utilizan métodos de factorización LU, QR.

El estimador de estado es una generalización del flujo de carga, medidas de P y Q en flujo de carga
son datos, en estimador de estado son medidas.
Tema 3: Estimación de Estado: Métodos de resolución
Las ecuaciones normales tienen limitaciones y problemas numéricos, intrínsecamente están mal condicionadas. Al usar la
matriz de ganancia 𝐺 = 𝐻 𝑡 𝑊𝐻, el problema es mayor ya que dicha matriz tiende a ser singular (determinante 0). Este mal
condicionamiento se da por pesos muy grandes en medidas (por ejemplo, en medidas virtuales), incidencia de ramas cortas y
largas en un mismo nudo y alta presencia de medidas de inyección. Es necesario utilizar alternativas numéricas.

• Factorización ortogonal: se utiliza factorización QR del jacobiano para obtener la matriz U de la factorización LU.
• Método híbrido: evita el uso de la matriz Q. Igual usa factorización QR para obtener la matriz U.
• Equality-constrained: las medidas virtuales, que tiene pesos tan altos, se modelan como restricciones de igualdad y se
resuelve el problema con multiplicadores de Lagrange.
• Formulación de matriz aumentada de Hachtel’s: se aumentan las matrices.

En conclusión, las soluciones de las ecuaciones normales para el problema de WLS es simple, pero con dificultades numéricas,
por ello se utilizan métodos alternativos como el de la factorización QR que evitan el uso de la matriz H, son más estables, pero
más costosos computacionalmente y los métodos de Equality-constrained y solución de la matriz aumentada que evitan los
problemas que se tienen con pesos altos y utilizan la factorización LU.
Método Ventajas Desventajas
Mal condicionado (disparidad de pesos, incidencia de ramas
Ecuaciones Normales (Gauss-Newton) Proceso simple cortas/largas, muchas inyecciones)
G tiende a ser singular
Evito usar HtH – No se forma matriz G Q es densa
Factorización ortogonal QR
Más estable numéricamente Necesita más recursos computacionales
Evita usar Q
Método Híbrido -
Usado actualmente
Equality Constrained Evita el problema de pesos grandes Resolución compleja
Pierde simetría
Matriz aumentada de Hatchel’s Evita el problema de pesos grandes
Matrices primitivas muy dispersas
Tema 4a: Análisis de Observabilidad

El análisis de observabilidad a partir de analizar las medidas disponibles define las zonas de la red donde se puede asegurar el
cálculo estimado, determina si es observable o no. Si el sistema no es observable, se determina que zonas del sistema son
observables e incorpora pseudomedidas (con pesos pequeños) que conviertan al sistema observable. Casos posibles:

• Red observable sin redundancia: número de medidas linealmente independientes = número de variables de estado.
Flujo de carga, todas las medidas son críticas.
• Red observable con redundancia: número de medidas linealmente independientes > número de variables de estado.
• Red no observable: número de medidas linealmente independientes < número de variables de estado. Por más
medidas que tenga, si las que son linealmente independientes son menos que las variables de estado no tengo
observabilidad.

Isla física: parte eléctricamente conectada de la red que se encuentra


energizada. Cada isla física requiera un análisis de observabilidad
independiente y con diferente referencia de fase.

Medidas no utilizables: no sirven para ampliar la red observable.

Isla observable: todos los flujos de potencia son calculables a partir de las
medidas disponibles. Si una isla física es observable se puede desarrollar
el proceso de estimación de estado.

Isla críticamente observable: una red sin redundancia, iguales ecuaciones


que incógnitas, es un flujo de carga.

Ramas irrelevantes: no se toman en cuenta para el estimador de estado.

Si no tenemos observabilidad en los enlaces que unen dos zonas entonces


tendremos dos islas observables y sus respectivos ángulos de referencia no
tienen relación.

Las pseudomedidas son utilizadas en redes no observables, al introducir


estas medidas artificialmente a partir de datos históricos podemos hacer la
red observable. El módulo de observabilidad indica las pseudomedidas
estrictamente necesarias.

Para que un sistema sea observable no es suficiente que se tengan medidas


disponibles mayores o iguales a las variables de estado, es necesario que
estén distribuidas en la red y que sean linealmente independientes.

Existen riesgos al estimar ángulos mediante potencias reactivas o


magnitudes de tensión con potencia activa. Puedo tener multiplicidad de
soluciones. Para evitar lo anterior se asume que las medidas vienen en
parejas P/Q, se utilizan modelo desacoplados, la observabilidad de
ángulos se realiza mediante potencia activa mediante un modelo lineal
DC. Si los ángulos son observables las tensiones serán también si existe
al menos una medida de tensión.
Para la observabilidad existen dos metodologías:

• Métodos numéricos: analizan el rango de las matrices implicadas. Trabajan con la matriz de ganancia, tienen
problemas numéricos por errores de truncamiento (qué considerar un valor nulo). Se realiza factorización por Cholesky, si se
encuentra un pivote nulo se incluye la referencia de fase y la red es observable. Si se tienen varios pivotes nulos el sistema no
es observable. Cada pivote será una isla con referencia de fase distinta. Si
en un enlace el flujo es nulo sus extremos tienen entonces el mismo valor
de ángulo. Las inyecciones irrelevantes son inyecciones en nudos donde
inciden varias ramas no observables, no deben incluirse en el proceso de
estimación de estado.
El proceso para los métodos numéricos es el siguiente: se descartan ramas
irrelevantes, se forma la matriz de ganancia y se triangulariza, para cada
pivote cero se coloca un origen de fase, se eliminan las medidas
irrelevantes, las ramas no observables y las islas observables triviales.

• Métodos topológicos: emplean teoría de grafos, evita los


problemas numéricos es de carácter combinatorio. No se realizan
cálculos, solo operaciones lógicas empleando la conectividad de la
red, el tipo y localización de las medidas. El problema puede ser
combinatorio por las inyecciones (a que rama incidente le asigno
dicha inyección). Forman un árbol maximal (árbol que conecta
todos los nudos posibles) asociando las ramas a las medidas
disponibles (medidas de flujo en la propia rama, medida de
inyección en alguna rama incidente, cada rama tiene una única
medida). Es un procedimiento directo, si al final del proceso resulta
en un único árbol conexo (Flow island única) la red es observable.
Un Flow island es un trozo de árbol en cuyas ramas se conocen los
flujos. En redes radiales no se tiene el problema combinatorio
porque la inyección solo puede asignarse directamente a la línea. El procedimiento del análisis topológico es el
siguiente: se eliminan las ramas irrelevantes, se formula un árbol con las medidas de flujo, si es maximal se finaliza en
caso contrario se continua con el proceso, se asignan las inyecciones disponibles, si se consigue árbol maximal se
finaliza, sino se identifican las islas observables, luego se desasignan las inyecciones y se actualizan las islas repitiendo
el análisis hasta que no se elimine ninguna inyección.
Tema 4b: Detección de errores

La detección de errores es el último paso del proceso. Esta es la diferencia esencial con el flujo de carga que no puede hacer
esta labor y tiene que creerse todas las medidas (todas las medidas son críticas). Al haber redundancias, hay residuos (∆𝑧),
analizando los mismos estadísticamente somos capaces de detectar medidas erróneas. Los posibles errores están
principalmente en las medidas, no obstante, se pueden tener errores, pero en menor medida en los parámetros y en la
topología. Los errores se consideran gaussianos con distribución normal, media nula, desviación típica conocida y que son
independientes entre sí. Según su magnitud se clasifican de la siguiente manera:

• Ruido: errores normales < 3𝜎, no es necesario adoptar acciones correctoras. El estimador de estado los filtra
gracias a la redundancia, a mayor redundancia se tendrá mayor filtrado de errores y por ende una mejor estimación.
• Prefiltrado: errores extremos > 20𝜎, son tan evidentes que ni siquiera pasan al estimador. La etapa de
prefiltrado se hace en el procesamiento topológico. El prefiltrado es importante si no se realiza puede que el estimador
no converja
• Detección/Identificación: errores de 3 a 20𝜎, considerados bad data (outliers), provocan residuos mayores
que los normales.

En el prefiltrado los errores son identificados directamente a partir de la medida o de chequeos heurísticos. Algunos
estimadores utilizan técnicas más elaboradas para detectar este tipo de errores.

El proceso de detección de errores determina si existen medidas erróneas. Cada vez se usa menos, actualmente se suele pasar
directamente a la segunda etapa. Se usaba mucho antes cuando no había ordenadores potentes, pues la segunda etapa es
computacionalmente costosa. El proceso de identificación determina qué medida es errónea, a veces incluye a la primera.
Durante años muy costosa computacionalmente, con la tecnología actual se calcula eficientemente. Se puede realizar con los
residuos ponderados, sencillos de calcular, pero no se pueden comparar o con residuos normalizados, más complejo de
calcular, pero permite comparar residuos entre sí. Finalmente se procede a eliminar los errores.

Para detectar e identificar medidas erróneas es necesario redundancia, la redundancia global se calcula como m/n, local hace
referencia a zonas de red, formalmente no existe una definición. En medidas críticas los errores no son detectables. Los
residuos se estiman y con ellos se calcula una matriz de sensibilidad residual, el error no se puede obtener a través de los
residuos, solo nos acercamos a su valor.
Efectos que se dan con los errores:

• Efecto Smearing: Un error en una medida en teoría se refleja en toda la red, principalmente en las zonas cercanas. Se
atenúa conforme me alejo de la medida. Aunque solo tenga un error diferente de cero, todos los residuos serán
diferentes de cero. El residuo mayor es donde se encuentra mi error mayor.
• Efecto Masking: Pueden aparecer combinaciones de errores tales que dos errores se cancelen entre sí y creen un
efecto de esconderse entre ellos.

Errores según su posible correlación:

• Simples: un solo error.


• Múltiples sin interacción: varios errores, pero muy lejos casi no interaccionan.
• Múltiples con interacción (conformes o no): problema, puede haber masking. Errores conformes tienen sus
desviaciones en la misma dirección. Por ejemplo, la tensión está bien, pero dos medidores dicen que está baja, son
errores en la misma dirección.

Para analizar los errores tenemos las medidas, el estado estimado, las medidas estimadas, los residuos y las desviaciones
típicas. Los residuos en términos absolutos no son un buen indicador para el análisis de las medidas erróneas.
𝑟̂ 2
La detección de las medidas erróneas se realiza con una función objetivo estimada. 𝐽(𝑥̂) = ∑𝑚 𝑖
𝑖=1 𝜎 2 . Fue demostrado por los
𝑖
matemáticos que esta función sigue una distribución Chi-cuadrado con m-n grados de libertad, el resultado obtenido se
2
compara con los valores de tabla correspondiente a una cierta probabilidad. Si 𝐽(𝑥̂) ≥ 𝜒𝑚−𝑛,𝑝 se determina que hay medidas
erróneas, con esto se sabe que existen errores no gaussianos, pero no se sabe en qué medidas.

Para la identificación de medidas erróneas se pueden usar dos indicadores: los residuos ponderados que se dividen por la
sigma del error (dato de entrada con la calidad de medidores) y los residuos normalizados que se dividen por la sigma del
residuo (difícil de calcular). Estos últimos son más complejos, pero mucho más útiles, permiten comparar errores entre sí.

• Residuos Ponderados: Normalizan el residuo con la calidad de la medida. No son


comparables estadísticamente ya que no tienen la misma distribución normal de error.
Tiene la ventaja de que no conlleva elevados tiempos de computación, es empleado en
el estimador de Huber.

• Residuos normalizados: se identifican mediante las propiedades estadísticas de los residuos. Esta matriz de covarianzas
mide la correlación entre los errores. Cuando se tienen medidas críticas, la fila/columna correspondiente de la matriz
de sensibilidad residual es nula, dado que estas medidas tienen residuos nulos no afectan los demás residuos, de allí
que se suela incorporar pseudomedidas criticas para garantizar la observabilidad. Solo en medidas no críticas se
pueden detectar los errores. Los residuos normalizados siguen una distribución normal estándar, el mayor valor se
corresponde con el de la medida errónea.

El proceso para identificar los errores es el siguiente: obtener estado estimado, calcular
residuos normalizados (antes por el costo computacional se usaban residuos ponderados),
buscar el de mayor valor, si es menor a un umbral (normalmente 3) detenerse, en caso
contrario eliminar la medida y realizar el procedimiento desde el inicio. Solo se puede eliminar
la medida más grande, una a la vez, porque pudiéramos estar ante un efecto smearing, solo
en los casos donde son medidas muy lejanas pueden eliminarse. Teóricamente este método ofrece garantía para una sola
medida errónea, en la práctica se utiliza para múltiples medidas considerando que no haya masking, puede funcionar para
medidas erróneas con interacción si los errores no son conformes (no masking), funciona mal para el caso contrario (masking).
El uso de residuos normalizados conlleva determinar la varianza de los residuos, el cálculo de la matriz de covarianza presenta
tiempos de computación significativos, es necesario aplicar técnicas que permitan reducir los tiempos de computación.

Errores no conformes: dos errores, pero contradictorios. Test de residuos normalizados funciona bien.
Errores conformes: dos errores en la misma dirección. Test de residuos normalizados puede fallar.

Al eliminar medidas debe modificarse el jacobiano y volver a correr el estimador, una medida crítica no puede ser detectada
como medida errónea. Otra solución en vez de eliminar la medida puede ser modificar su valor (retocarlo para hacerlo
estadísticamente neutro) a esto se le llama dormant pseudo-measurement, modifico el valor de la medida considerada errónea
para que reduzca el efecto sobre la estimación. Este proceso suele ser mejor que incluir pseudomedidas y posiblemente luego
de la modificación con una iteración se arregla el problema.
Tema 6b: Estimadores de Estado asistidos con sincrofasores

Los estimadores de estado tradicionales utilizan las medidas no sincronizadas de las RTU, esto conlleva a que se tengan
descuadres de tiempo que son menos relevante en sistemas grandes cuando se tienen cambios lentos de carga. No obstante,
pudieran tenerse “fotos movidas” del estado.

El crecimiento de transacciones de energía en grandes áreas (mercados


regionales con operadores de transmisión regionales RTO) requieren
medidas bien precisas y sincronizadas, de allí que se requiera la
sincronización de los ángulos de fases a partir de un tiempo común entre
las distintas subestaciones, esto lo realizan los Phasor Measurement Unit
(PMU). Todos los medidores tienen instantes de tiempo común para poder
comparar las diferencias de ángulos entre ellos, esto es posible gracias a
los GPS.

Los PMU tienen la capacidad de medir fasorialmente (magnitud y ángulo)


las corrientes y tensiones, las secuencias: positiva, negativa y cero de las
magnitudes trifásicas y la frecuencia y su derivada. Los PMU envían mucha
información (20-60 muestras por segundo) comparativamente con las RTU, dicha información es organizada y filtrada por el
concentrador de datos para enviar la información necesaria al SCADA.

Como se ha visto anteriormente el problema de mínimos cuadrados


ponderados en estimación de estado es un problema no lineal, los
sincrofasores pueden hacer que el problema se convierta en uno lineal.
Los sincrofasores a parte de módulos, miden ángulos pudiendo así
trabajar con las medidas en coordenadas polares o rectangulares
(rectangulares se prefieren para evitar problemas numéricos). Ya que
mis medidas contienen el módulo y el ángulo es conveniente que el
vector de estado también sea igual.

Si trabajamos con el vector de estado en coordenadas polares, es


conveniente utilizar las tensiones en polar. No obstante, las corrientes
siempre se mantienen en rectangular.

Si trabajamos con el vector de estado en coordenadas rectangulares, es


conveniente utilizar las tensiones en rectangular y las corrientes siempre
se mantienen en rectangular. El problema se convierte en un problema
lineal.

Existen formulaciones simultáneas donde conviven el uso de las RTU y


los PMU en un estimador no lineal. Esto permite una redundancia mayor
que ayuda a la observabilidad y mejora el procesamiento del bad data.
Si se tienen más sincrofasores es conveniente traer el problema a
coordenadas rectangulares para hacer el problema lineal (medidas P y Q
pueden ser transformadas en su equivalente fasorial de corrientes reales
e imaginarias si se tienen las medidas de tensión y ángulo disponibles).
El uso de PMU es un tanto reciente, por ello se plantean dos formulaciones de incorporarlos a los estimadores de estado ya
disponibles basados en RTU:

• Formulación secuencial de tres pasos: primero estimación preliminar usando solamente las medidas convencionales
(formulación polar), segundo transformaciones no lineales a coordenadas rectangulares, tercero refinamiento del
estado preliminarmente estimado incorporando las medidas de los PMU.
• Formulación secuencial de dos pasos: primero estimación preliminar usando solamente las medidas convencionales
(formulación rectangular, estimador no comercial actualmente), segundo refinamiento del estado preliminarmente
estimado incorporando las medidas de los PMU.

Un ejemplo de una estimación de estado multi área se muestra en la figura, redes


de sistemas diferentes que se solapan. Cada red hace sus estimaciones por su
parte y las estimaciones tendrán ligeras diferencias. En los puntos frontera los
valores estimados entre las áreas tendrán ligeras discrepancias.

En ausencia de PMU en primera instancia se eligen referencias locales arbitrarias


y luego en una segunda etapa se refieren a una referencia global.

Con PMU la selección arbitraria local ya no es posible, los sincrofasores ya


incorporan los ángulos, en una segunda etapa ya se tienen las áreas
implícitamente sincronizadas con los PMU. Incorporar PMU mejoran las
estimaciones hasta un punto donde se tiene saturación, también incorporan mayor redundancia.

En conclusión, los sincrofasores tienen una mayor tasa de muestreo, la coexistencia de medidas convencionales y los PMU
permiten distintas formulaciones para la estimación de estado. Trabajar con medidas solo de PMU permiten una formulación
lineal en coordenadas rectangulares. Los PMU incrementan la precisión y la capacidad de sincronización en grandes sistemas,
pero su costo y ancho de banda necesario son aún una preocupación.
Tema 7: Estimadores de Estado estadísticamente robusto

La robustez de un estimador es la capacidad para tolerar un número elevado de medidas erróneas. El punto de ruptura
(Breakdown point) es un valor adimensional a partir del cual ya el estimador no funciona, hace referencia al número máximo
𝑚
de medidas erróneas que puede haber sin que el estimador deje de funcionar. 𝑚𝑏; 𝑚𝑏 hace referencia al número de medidas
arbitrariamente erróneas y 𝑚 es el número de medidas.

En una definición formal el punto de quiebre es el número máximo de medidas cuyo error puede tender a infinito sin que el
estado estimado tiende a infinito, es decir se aparte del estado verdadero. Este valor es influenciado por la redundancia (mayor
redundancia más tolerancia), la distribución de los outliers y el tipo de estimador. Ningún estimador es robusto frente a errores
mayores a la mitad de sus medidas redundantes.

El estimador de la mediana es el más robusto de todos, pero es


complicado de calcular. El de mínimos cuadrados ponderados es el
menos robusto de todos.

Leverage point: son puntos muy alejados de las demás medidas.


Pueden ser buenos o malos. Tienen una alta influencia en el valor
estimado y, por tanto, en los residuos. El método de mínimos
cuadrados ponderados no tolera este tipo de medidas.

Estos puntos distantes pueden ser causados por medidas de flujo


en líneas cortas, inyecciones de medidas en nudos con líneas cortas
incidentes, inyecciones de medida en nudos con muchas líneas
incidentes. Estos hacen que la matriz de ganancia sea mal
condicionada. Líneas muy cortas causan problemas por alta
admitancia y desescalan el jacobiano. Hay que recordar que en la
diagonal de la matriz de admitancia se suman todas las admitancias
incidentes y una muy grande hace que el efecto de las otras casi ni
se note.

El estimador de estado de mínimos cuadrados ponderados deja de ser el de máxima verosimilitud si el error de las medidas no
tiene una distribución normal, como suele ser en la práctica. No es robusto ante outliers.

M-estimadores: estimadores de máxima verosimilitud (M). En éstos se busca cuál es el mejor dependiendo de la función de
densidad de distribución de los errores. La función objetivo es no cuadrática (Estimadores cuando la función objetivo no es
cuadrática en todo momento). min ∑𝑖 𝜌(𝑟𝑖 ), 𝜌 se selecciona que sea menos creciente que la cuadrática para errores grandes.
Para residuos pequeños se quiere que sea cuadrática y para residuos grandes que sea menos creciente que cuadrática. No
siempre es derivable.
Función de influencia: mide la influencia de un residuo en el valor
estimado. La influencia de un dato erróneo en el valor estimado
aumenta linealmente con el tamaño del error.

Función de ponderación: En funciones no cuadráticas, a


diferencia del estimador WLS, los pesos cambian, son función del
residuo. Estimador robusto es una generalización de WLS.

M-Estimadores son complicados de calcular, por ello en la


realidad lo que se hace es suponer que para unos residuos dados
que los pesos son constantes y realizo un estimador
convencional de mínimos cuadrados, luego actualizo los pesos
bajando los de las medidas con residuos muy grandes. Así voy
cambiando los pesos iterativamente. Iteratively Reweighted
Least Squares (IRLS-Huber), resuelve iterativamente el mínimo
cuadrado cambiando los pesos en cada iteración.

Least absolute value (LAV) estimator: se trata como un problema lineal, donde
son introducidas solo las variables positivas. Todas las variables se convierten a
positivas y con esto se logra eliminar el valor absoluto. Para la estimación, en
aplicaciones de sistema de potencia, sabemos que sus ecuaciones son no
lineales, lo que se hace es linealizarlas en muchos problemas lineales. Tiene alto
costo computacional. Cuando converge solo le hace caso a las n medidas
mejores. Las demás medidas las desecha. Echa fuera los bad data. Es robusto
porque no le afectan las medidas malas. Sensible a leveraged point.

Huber estimator: es un estimador de mínimos cuadrados ponderados, en el cual


se van calculando iterativamente los pesos. Si tenemos los pesos iguales a 1,
entonces pasamos a un WLS. Huber lo que suele hacer es bajarles el peso a las
medidas malas. Aprovecha las bondades de los métodos LS y LAV. El problema
de este estimador es donde esta lambda, donde paso de una función cuadrática
a una función lineal.

Mínima mediana de cuadrados (LMS): es un estimador muy bueno, pero muy costoso a nivel computacional. Su función
objetivo se calcula cada k veces sorteando cada vez n medidas diferentes.
Tema Adicional: Estimadores Dinámicos

Los estimadores de estado convencionales, son estimadores estáticos, que trabajan con distintas fotos del sistema cada 10
segundos, no consideran la evolución temporal y por tanto son incapaces de trabajar con los transitorios. Por otro lado, los
estimadores de estado dinámicos no hacen secuencias de fotos desacopladas, aprovechan las ecuaciones diferenciales que
gobiernan los parámetros eléctricos para lidiar con los transitorios. Utilizan matrices muy grandes, que pueden llegar a ser
inmanejables. Con los estimadores dinámicos de estado puedo estimar como pudieran estar las variables en el próximo
instante, aprovechando las informaciones que tengo y las ecuaciones diferenciales que lo gobiernan.

Uno de los algoritmos utilizados en estimadores dinámicos es el filtro de Kalman. Algoritmo que se compone de dos etapas,
predicción y corrección. Los parámetros pueden incluso estimarse.

Los estimadores de estado dinámicos permiten establecer una estimación de la evolución temporal del estado del sistema. Es
posible realizar una estimación conjunta tanto del estado como los parámetros utilizando los estimadores de estado dinámicos,
como es el filtro de Kalman. Para mejorar la precisión y estabilidad numérica se utilizan diferentes técnicas como son la
estimación en varias etapas y la reformulación de parámetros.
Tema 1: Control del sistema eléctrico en tiempo real

En los sistemas eléctricos de potencia es necesario mantener los parámetros


dentro de los límites seguros. Estos parámetros son: la amplitud de tensión, que
es diferente dependiendo de la zona, la frecuencia, que es la misma en toda la red,
la pureza de la onda y los flujos de potencia por líneas y transformadores.

En todo momento es necesario mantener un equilibrio constante entre generación


y demanda. Ambas varían, pero principalmente lo hace la demanda y la generación
renovable no controlable. Esta variación continua conlleva a que se tenga un
control en tiempo real. El control en tiempo real sigue una jerarquía. El primer nivel
(local), se lleva a cabo en segundos, el segundo nivel (regional) se lleva a cabo en
varios segundos o minutos y el tercer nivel (nacional) se lleva a cabo en minutos o
en horas.

El control de potencia activa – frecuencia trata de mantener la velocidad de giro de los generadores constante satisfacer la
demanda y mantener los intercambios. El control de potencia reactiva – tensiones trata de mantener un perfil adecuado en la
red. La potencia activa es controlada mediante la entrada de caudal a la turbina por el gobernador, la potencia reactiva es
controlada por la excitación con el AVR, La interacción entre potencia activa y reactiva es realizada por los estabilizadores
(PSS).
Cualquier cambio en la potencia suministrada por la turbina (potencia mecánica) o en la potencia del generador (potencia
eléctrica) se realiza a costa de la energía cinética, esto se traduce en una variación de la velocidad de giro frecuencia.

Si consideramos la respuesta de la red, donde D simboliza el cambio de carga debido


a la variación de frecuencia.

Si se consideran los reguladores de velocidad de las máquinas síncronas con su estatismo (R en Hz/MW). Definición formal de
estatismo considera el cambio de frecuencia que experimenta una máquina al pasar de vacío a plena carga.
En el caso de generadores en paralelo, el estatismo equivalente se calcula igual como las resistencias equivalentes en paralelo.

Si se tienen estatismos diferentes entre máquinas unas


dan mayor potencia relativas a su potencia nominal
que otras.

El regulador de velocidad de las máquinas


considerando el estatismo (R) constituye lo que se
denomina regulación primaria de frecuencia del
generador. Si se tienen varios generadores en paralelo,
se tendrá un estatismo equivalente que junto con el
amortiguamiento/respuesta de la carga forman el
llamado BIAS del sistema, que marca la relación entre
una variación de carga y la respuesta en frecuencia área
en análisis. El control primario es de carácter
proporcional.

Para corregir los errores de frecuencia es necesario


incorporar un control secundario de frecuencia, que
integra el área bajo la curva y a partir del valor obtenido
comanda distintas consignas a las máquinas que estén
incorporadas en el mismo. El control secundario es de tipo integral y en base a criterios de área. Busca garantizar el reparto de
la generación según criterios económicos, controlar los intercambios entre áreas y mantener la frecuencia en el valor nominal.
Este control generalizado se le conoce como Control Automático de la Generación (AGC).

En áreas interconectadas un cambio de potencia demandada en una de ellas repercute tanto en la frecuencia como en la
potencia intercambiada entre las áreas. Es necesario entonces corregir tanto el error en la frecuencia como el error en el
intercambio de áreas.
El AGC, es un control centralizado que busca mantener la frecuencia a 50 Hz, mantener los intercambios en los valores
especificados y repartir la generación entre las centrales más económicas. El error de control de área (ACE) es llevado a cabo
en proporción a las distintas máquinas. Este error es una señal que determina la necesidad de aumentar o disminuir la
generación del área, se define en función del error en la potencia, exportada y el error de frecuencia.

𝐸𝐶𝐴 < 0: Implica aumentar generación del área.

𝐸𝐶𝐴 > 0: Implica aumentar generación del área.

𝐸𝐶𝐴 = 0: Implica errores nulos.

Cualquier desbalance entre generación o demanda afecta la


frecuencia. El control primario, asegura el balance generación
demanda mediante los reguladores de velocidad de los
generadores (segundos). El control secundario, asegura el
balance de generación demanda en cada área y la
recuperación de la frecuencia a su valor nominal (minutos).
Control terciario utiliza reservas de generación para recuperar
el margen de actuación del control secundario cuando éste se
agota (15 minutos – manual). El control de tiempo corrige las
desviaciones de frecuencia a largo plazo, modificando la
consigna de frecuencia del área bajo control.

En España la regulación primaria es de carácter obligatorio y no retribuido, Con posibilidad de contratación a otro agente. La
regulación secundaria se hace a disposición del AGC con reservas horarias que se determinan en base a ofertas y es de carácter
automático. La regulación terciaria restituye las reservas de regulación secundaria y se hace en base a ofertas de manera
manual.

Entre los planes de seguridad para recuperar la


frecuencia se tienen:

• Tele disparo de generación a zonas excedentarias de


potencia, cuando se puedan provocar sobrecargas que
afecten la estabilidad.
• Deslastre de carga por mínima frecuencia.
• Desconexión de generación por máxima frecuencia.
Tema 2: Control de tensiones en tiempo real

En un sistema eléctrico tenemos cuatro estados


operativos en cada uno de ellos se harán
acciones diferentes.

En el control de tensiones es muy común hablar de la curva de nariz, La cual


indica los distintos puntos de operación que se pueden tener hasta llegar a
un punto de quiebre donde ya el sistema no es estable. La reactancia de la
línea determina hasta dónde llega la nariz, disminuirla me permite
transportar mayor potencia. Las cargas capacitivas favorecen al punto
crítico, en los casos donde no tengo suficiente capacidad de suministro
reactivo el punto de quiebre se reduce. Debajo del punto de quiebre el
sistema es inestable, matemáticamente tiene solución, pero en la realidad
no es posible. Al igual que en la regulación de frecuencia, la regulación de
tensión tiene una estructura jerárquica de operación.

El nivel secundario de nodos pilotos es usado en pocos países, en estos se


toma un nudo piloto representativo que tiene influencia en los nodos
cercanos. El problema de control de tensión es complejo y es necesario
ayudar al operador para ello se utilizan distintas herramientas: algoritmos de
optimización o sistemas expertos.

El objetivo del control de tensión es mantener un perfil de tensiones


próximas a las nominales, asegurando una adecuada reserva de los
recursos de reactiva. Entre los distintos elementos de control tenemos
los AVR, compensadores síncronos, compensadores estáticos,
condensadores y bobinas en paralelo, transformadores con cambiadores
de tomas automática.

El control primario de tensión es un control rápido, con tiempos de


actuación de uno a algunos segundos. El recurso principal utilizado es el
AVR de los generadores.
En este bucle de control para un valor de K pequeño, un
cambio pequeño en la tensión de referencia tendrá cambios
pequeños en la excitación y, por ende, muchos errores en
régimen permanente. Para un valor de K grande, un cambio
pequeño en la referencia de tensión tendrá efectos
significativos en la excitación, esto pudiera hacer que el
sistema se haga inestable, ya que aparecen polos en el lado
positivo. Por tanto, es necesario escoger un valor de K
adecuado.

En el caso de utilizar condensadores y reactancias en paralelo,


es una solución sencilla y económica. Las reactancias se
conectan en horas valle y los condensadores en horas punta.
Los condensadores en paralelo son muy frecuentes tanto en
transporte como en distribución. En transporte se encuentran
para minimizar las pérdidas y las diferencias de tensión, en distribución se usan para compensar el factor de potencia de las
cargas y para controlar el perfil de tensiones.

Los compensadores síncronos son máquinas síncronas cuyo eje no recibe ningún par procedente de una turbina, consumen
ligeramente de la red. Es una máquina que genera o consume potencia reactiva. Regula la tensión de forma continua, no
introduce armónicos, no causa problemas por resonancia y proporciona corriente de cortocircuito, facilitando la actuación de
las protecciones.

Los compensadores estáticos SVC son conectados en paralelo a


través de semiconductores controlados que generan o absorben
potencia reactiva, se denomina estáticos ya que no poseen
ninguna parte móvil. Pueden tener varios escalones de
condensadores.

Los STATCOM permiten aportar Q a tensiones muy bajas a


diferencia de los SVC.

Los transformadores con cambio de tomas contienen un


devanado que permite una regulación discreta de la relación de
transformación. Es una solución sencilla y económica tanto en
transporte como en distribución.

Para el control secundario de tensiones, el sistema se divide en áreas con un nudo piloto cuya tensión es representativa del
mismo y su mantenimiento garantiza el perfil de tensiones de toda el área. A cada nudo piloto se le asigna un número de
generadores cuya misión es mantener la tensión del nudo. Es de carácter automático, cada área es independiente del resto y
su actuación es de segundos. El control terciario es a nivel de todo el sistema. Resuelve un problema de optimización de varios
grados de libertad, los ejecuta el operador del sistema y tiene tiempo de actuación de varios minutos. En España el control de
tensiones es obligatorio.
Tema 1: Introducción operación de la red eléctrica

El objetivo de un sistema de potencia es proveer la suficiente generación y otros equipamientos controlables al sistema
interconectado. Lleva a cabo cinco tareas:

• Satisfacer la demanda prevista variable en el tiempo a mínimo costo. Consumo es estocástico.


• Compensar las pérdidas activas y reactivas de la red.
• Satisfacer ciertas restricciones operativas (térmicas, estabilidad, tensión).
• Proveer generación flexible en tiempo real para responder ante desviaciones de demanda.
• Proveer recursos para hacer frente a la salida de algún elemento (N-1).

Al llevar a cabo estas tareas, tenemos como resultado la continuidad de un servicio de calidad al usuario final, sin importar las
variaciones de demanda o cambios en el estado de los equipos. Del 1 al 3 son servicios integrales provistos por todas las
unidades generadoras. El 4 es llevado a cabo por el AGC. El precio de la electricidad visto por el usuario refleja el costo promedio
de diseñar el sistema y llevar a cabo las 5 tareas, el objetivo al final es realizarlas al mínimo costo.

• Estabilidad de frecuencia: balance generación/consumo


• Estabilidad de ángulo: despeje de faltas y manteniendo el sincronismo
• Estabilidad de tensiones: capacidad de transporte a un punto de consumo.

Control primario es local (Gobernador, AVR). Control secundario es a nivel de área (AGC). Control terciario a nivel de
programación de la operación óptima.

Durante la operación de los sistemas eléctricos se pueden tener distintos estados. En estado normal la demanda es satisfecha
y no hay problema. Si además satisfacemos los criterios de seguridad entonces estamos en estado seguro y se pueden realizar
optimizaciones. Si no se cumplen los criterios de seguridad estamos en estado de alerta y debe realizarse control preventivo.
En caso de que existan variables fuera de los límites de explotación se pasa al estado de emergencia y es necesario realizar
acciones correctivas, prima el tiempo en que se logren las acciones correctivas sobre lo económico. En caso de que haya habido
perdida de carga entonces se pasa al estado de restauración donde se procede a reponer el servicio en el menor tiempo posible
y evitando problemas mayores.

Para satisfacer la demanda de manera eficiente y confiable, teniendo en cuenta la incertidumbre, es necesario tomar
decisiones jerárquicas temporales. Conforme se tenga mayor temporalidad (meses, años), habrá mayor incertidumbre y el
modelo es menos detallado, conforme se tenga una temporalidad más próxima (semanas, días, horas, minutos) el modelo
debe ser más detallado.
Tema 2: Explotación óptima del Transporte

Como ya se ha visto anteriormente existen distintos estados de


operación en tiempo real. En el estado normal la demanda es
satisfecha y no hay problemas es necesario vigilar la frecuencia y
la tensión, así como los flujos de potencia y cargabilidades de las
líneas. En estados seguro se cumple además los criterios de
seguridad. En estado de alerta no se cumplen los criterios de
seguridad, por ejemplo, condiciones N-1. En estado de emergencia
algunas variables están fuera de los límites de explotación y es necesario llevar a cabo acciones correctivas. En el estado de
restauración existe pérdida de carga y debe procederse a la reposición del servicio con la menor demora posible.

Gestión del sistema eléctrico se complican con las competencias


realizadas en la venta y compra de energía eléctrica a través de la
contratación de diversos comercializadores.

Los procedimientos de operación del sistema de la red española


especifican los criterios de funcionamiento y seguridad para la operación
del sistema eléctrico, tanto a niveles admisibles de carga, tensiones
admisibles y las reservas para regulación de potencia frecuencia; los
planes de seguridad; las restricciones técnicas; la operación del sistema y
el desarrollo de la red de transporte.

Un sistema eléctrico es estable cuando retorna a un estado normal tras ser sometido a una perturbación. El estado normal es
aquel en el cual las magnitudes eléctricas se encuentran dentro de los límites y no existen cambios de envergadura en la
topología de red debido a la actuación de las protecciones. Los fenómenos de inestabilidad se pueden clasificar según la
naturaleza del fenómeno físico (ángulo, frecuencia, tensión), magnitud de la perturbación (pequeña o gran perturbación). O
según la dinámica involucrada (corto o largo plazo).

La estabilidad de frecuencia es la capacidad del sistema de volver a la frecuencia nominal, tras una perturbación que da lugar
a un desequilibrio de generación y consumo. Debe tenerse en cuenta que frecuencias extremas pueden causar resonancia
mecánica y posible ruptura del eje de las máquinas.
La estabilidad de frecuencia se ve cada vez más comprometida por
la sustitución de generación síncrona por generación basada en
convertidores electrónicos.

La estabilidad de ángulo es la capacidad de los generadores de


seguir funcionando en sincronismo (iguales velocidades angulares
eléctricas) tras la ocurrencia de una perturbación. PSS es el
encargado de estabilizar estas oscilaciones.

La imagen muestra las oscilaciones de dos máquinas a nivel angular, indican


que los generadores mantienen potencia acelerándose y frenándose. Ante
un cortocircuito la potencia eléctrica se va a 0 y máquina se acelera (más
crítico conforme mayor cercanía), el ángulo empieza a aumentar y si llega a
90 grados se produce inestabilidad, una vez despejada la falla unos
generadores se embalan y disparan por pérdida de sincronismo otros se
mantienen. La figura debajo muestra un caso donde la inestabilidad angular
se va empeorando.

La estabilidad de tensiones es la capacidad del sistema de mantener la tensión


de los nudos eléctricos dentro de los límites aceptables. En una inestabilidad de
tensiones las mismas caen de forma progresiva e incontrolada, luego de una
perturbación.
Debido a la creciente presencia de convertidores electrónicos
ha sido necesario replantear el concepto de estabilidad. La IEEE
ha definido la estabilidad como la capacidad de un sistema de
potencia de retornar a un estado de operación en equilibrio
luego de ser sometido a una perturbación con la mayoría de sus
variables dentro de los límites de operación. Los inversores han
introducido dinámicas mucho más rápidas que las habituales en
generación síncrona, de allí que sea necesario considerar ahora
fenómenos transitorios con escalas de tiempo bien bajas. Se
han incluido dos nuevos fenómenos de inestabilidad
producidos por la dinámica del control de convertidores y los
fenómenos de resonancia.

Los apagones o blackouts son caracterizados por una sucesión de


incidentes que se van sucediendo con distinta rapidez, se produce un
colapso rápido del sistema sin que los operadores puedan hacer nada
para evitarlo.

Pueden deberse a fallos coincidentes en el tiempo, avalanchas de informaciones, entre otros. El tiempo de reposición depende
de la secuencia de los incidentes previos al apagón. El apagón es un estado incontrolable que conduce al colapso del sistema
eléctrico. Es una secuencia rápida de incidentes en cascada. Existen cuatro tipos de colapsos que pueden presentarse aislados
o en combinación: disparo de líneas en cascada, colapso de frecuencia, colapso de tensión, pérdida de sincronismo.

Los incidentes pueden darse a causa de decisiones erróneas de los operadores, que no están familiarizados con el fenómeno
que se presenta o no se atreven a realizar desastres significativos, por problemas de comunicación de centrales, redes de
transporte o distribución, infraestructura de transporte insuficientes o mal mantenidas, incorrecta actuación de las
protecciones, falta de planes en situaciones de emergencia, e incumplimiento de los criterios de seguridad.
Tema 3: Operación de la red eléctrica

A continuación, se da un pequeño resumen de los procedimientos de operación. Primer procedimiento de operación (1.1)
define los estados de operación, las magnitudes a controlar (frecuencia, tensiones, potencias-cargas). Los límites de
explotación:

• Carga (1.2): sobrecargas de 15% durante 20 min


• Tensiones (1.3): tensiones entre +-10%
• Frecuencia, escalones (1.6): deslastre inicia en +-0.5 Hz

Criterios de seguridad N-1 (por ley) y en algunos casos N-2 cuando haya mucha probabilidad o que cause un fallo muy crítico.
Implican sobrecostes. 8.2 Acciones conforme el estado del sistema.

• Flujo de cargas: se obtiene el estado de la red a partir de los valores de distintas variables independientes.
• Reparto de cargas óptimo (OPF): optimiza una función objetivo satisfaciendo determinadas restricciones (ecuaciones
de red y límites de variables). Resuelve las ecuaciones de red con ciertos grados de libertad buscando una optimización
de algún objetivo.
Para redes con tensiones mayores a 66 kV, se suele utilizar una aproximación lineal que funciona bastante bien, el llamado
flujo de cargas óptima en continua (DCOPF – DC Optimal Power Flow).

Los factores de distribución de la potencia activa (PTDF – Power Transfer Distribution Factors) representan una relación lineal
entre las inyecciones de potencia activa y los flujos de potencia por las líneas y transformadores. La apertura de una línea es
equivalente a mantenerla conectada junto a dos inyecciones iguales y de signo contrario en ambos extremos.

En el estado seguro de la red todas las magnitudes se encuentran dentro de los límites y se cumplen los criterios de seguridad,
por lo que podemos optimizar la red. En este estado se debe procurar mantener el cumplimiento de los criterios de
funcionamiento y seguridad. Se realizan despachos de generación con mecanismos de mercado o despacho económico y luego
es modificado para cumplir las restricciones de explotación y los criterios de seguridad. Se planean los controles de tensión, se
tratan de minimizar las pérdidas. Se adoptan medidas preventivas a raíz de los análisis de contingencia en caso de que se
incumpla algún criterio de seguridad. El primer objetivo es minimizar costes y luego minimizar pérdidas (la función de
minimización de pérdidas es equivalente a minimizar la potencia del slack). En los casos donde minimizó pérdidas los
multiplicadores de Lagrange especifican cómo aumenta la pérdida en cada nudo ante el aumento de 1 MW.

En el estado de emergencia no interesa tanto la exactitud sino hacer frente a las emergencias de manera rápida. Se debe
atender prioritariamente al restablecimiento urgente de la seguridad hasta devolver el sistema a su estado normal. Se toman
las medidas que se estimen necesarias. En el caso de producirse alguna interrupción, se coordinará la reposición del servicio
de forma segura y en el menor tiempo que sea posible. ENTSO-E -E define dos niveles de carga:

• Carga permanente admisible de transmisión (Permanent Admissible Transmission Loading - PATL)


• Carga temporal admisible de transmisión (Temporary Admissable Transmission Loading - TATL). Por ejemplo, 115%
durante 15 minutos.

Rangos de tensión:

• Rangos de tensión normal: especificados entre acuerdos con los distribuidores, los códigos de red y los estándares de
calidad de potencia.
• Rangos de tensión excepcionales: valores de tensión fuera de los límites por un tiempo limitado, pueden ser
condiciones de alta tensión, baja tensión e incluso colapsos de tensión.

Corrección de sobrecargas en estado de emergencia: Aquí dejamos de lado la exactitud y priorizamos la velocidad, se utilizan
modelos lineales que pueden ser completos (consideran las fases) o compactos (eliminan las fases del problema y utilizando
factores de distribución). Cada medida de bajar o subir potencia
de un generador trae consigo un sobrecoste, el objetivo es
minimizar este sobrecoste. Para corregir sobrecarga podemos
utilizar un DCOPF, pero para corregir tensiones es necesario
trabajar con las ecuaciones en AC. En el caso compacto, parto
de los factores de distribución y puedo ver que generador
afecta más la carga, habilidad de una línea así,
automáticamente puedo tener una medida correctiva. Pueden
darse casos donde el problema no tenga solución y es
necesario añadir mayores grados de libertad, por ejemplo,
permitir deslastre de carga con un alto costo.

Corrección de tensiones en estado de emergencia: en este


caso tratamos con un problema local que debe resolverse con
recursos locales. Para ello nos auxiliamos de diversidad de
elementos de control, de tensiones ya sea de tu acción continua o
discreta.
Para corrección de tensiones el OPF No es la mejor solución, ya que la función objetivo conlleva una combinación de
actuaciones de muy diversa índole, pudiendo ser una fuente de errores. Por ello, que se utilicen aproximaciones lineales
heurísticas que relacionan las intensidades reactivas inyectadas en los nudos y las tensiones. Se evalúan:

• Tensiones de consumo y corrientes reactivas de los generadores al incorporar condensadores


• Tensiones de generación y consumo ante cambios de generación reactiva
• Inyecciones reactivas en el primario y secundario al cambiar las tomas de transformadores

Finalmente teniendo en cuenta las distintas aportaciones de los distintos elementos se llega a una solución de aproximación
lineal. Con este modelo experto se busca minimizar actuaciones, voy de una en una viendo los efectos de cada una.

En el estado de alerta las acciones tomadas van encaminadas a devolver el sistema a su estado normal. Se deben determinar
las acciones más adecuadas sobre la topología de la red y el estado de generación. En primer lugar, se evalúan los riesgos
potenciales, luego se determina y analiza las posibles acciones correctoras y preventivas, y finalmente son aplicadas. ENTSOE-
E -E establece dos tipos de acciones llevadas a cabo para garantizar el principio de seguridad N-1:

• Acciones preventivas, actuamos antes de que ocurra la contingencia, tienen sobrecoste.


• Acciones correctoras esperamos que ocurra el incidente para tomar la decisión.

Seguridad estática del sistema: capacidad de este para permanecer en un estado admisible ante la evolución de la demanda y
la generación y ante una serie de eventos. imprevisibles.

Análisis de seguridad o análisis de contingencia pueden ser de criterio N-1, donde se considera el fallo simple de cualquier
elemento, o N-2 cuando consideramos disparos de líneas de doble circuito o fallos mayores.

Para evitar tener un número elevado de estados a evaluar se seleccionan las contingencias críticas. Estas contingencias pueden
ser elegidas de acuerdo con los siguientes métodos:

• Métodos de clasificación (ranking): las contingencias se ordenan en función del grado de peligrosidad (índice de
severidad). Métodos aproximados con factores de distribución (DCLF).
• Método de selección (screening): se seleccionan contingencias en base a un estudio aproximado. Se realizan con
métodos basados en el uso de flujos de carga aproximados (FDLF).
Método ranking de contingencias: basados en índices aproximados ordenados de
mayor a menor (índice de severidad), su fiabilidad es cuestionable (problema de
enmascaramiento).

Screening de contingencias: más lento que el método anterior pero más fiable, permite detectar problemas de tensiones.

El flujo de cargas óptimo con restricciones de seguridad (Security Constrained


OPF – SCOPF): estado de alerta, es el problema de optimización más complejo,
ya que aquí minimizo funciones objetivas antes y después de la contingencia.
Previo a la contingencia, solo consideró redistribución de flujos al cambiar
generación. Post contingencia consideró además de cambiar generación,
también el posible desastre de carga. Las actuaciones correctivas a posteriores
evitan redespachos preventivos que causan sobrecostos.

En el estado de reposición se detecta la pérdida de suministro y el operador del sistema atiende prioritariamente a la
reposición urgente del suministro eléctrico a la vez de que evita problemas mayores. Pueden utilizarse planes de reposición
del servicio, en caso de que no exista, el operador dirige la reposición. Existen dos estrategias básicas:

• Restauración bottom-up: se arrancan centrales en distintas zonas que van dando suministro localmente. (Común en
sistemas aislados – Australia).
• Restauración top-down: el sistema se restaura gracias a las interconexiones con los vecinos. (Común en sistemas
interconectados – Italia).

Normalmente las hidroeléctricas son las que tienen posibilidad de arranque en frío y algunas de gas. Para el caso español, en
el estado de reposición se apoyan de las interconexiones con Francia, se anulan los programas de intercambio con otros países,
se toman las medidas necesarias para conseguir lo antes posible el equilibrio carga generación, de manera prioritaria se
asegura la alimentación a los servicios auxiliares de otras centrales, como las nucleares.

La planificación de la operación de la red a corto plazo se lleva a cabo con los siguientes pasos:
Tema 4: Planificación del Sistema Eléctrico

Criterios de idoneidad del sistema determinan que el sistema debe soportar en régimen permanente contingencias de nivel 1
que se prueban sistemáticamente (N-1), contingencias definidas de forma específica (N-2), se toman en cuenta las tasas de
fallo de los elementos, la probabilidad de ocurrencia de los fallos y duración de estos. Se hacen valoración del costo/riesgo de
las distintas alternativas.

Fiabilidad o adecuación: capacidad del sistema para satisfacer la demanda con unos niveles adecuados de calidad de
suministro. Cuantifica a través del número y duración de las interrupciones de suministro a los consumidores. Índice de
fiabilidad de la planificación de la red:

En un estado concreto 𝑥, con probabilidad 𝑝(𝑥), los índices de fiabilidad son los valores esperados 𝐸(𝑓), de distintas funciones.
𝐸(𝑓) = ∑∀𝑥 𝑓(𝑥) ∙ 𝑝(𝑥)

• Índices zonales o del sistema conjunto: LOLP, ENS, TIM, TIEPI, NIEPI
• Índices locales o de nudo: LOLP, ENS, NH, TI

Para estimar cada índice de fiabilidad:

• Seleccionar un estado 𝑥 del sistema


• Evaluar 𝑓(𝑥)
• Actualizar la estimación de 𝐸(𝑓)
• Continuar con el siguiente estado

Para elegir los escenarios se pueden hacer de dos métodos:

• Enumeración de estados: se estudian todos los estados, luego se van incorporando las contingencias en orden
creciente (caso base, N-1, N-2, etc.).
• Simulación de Monte Carlo: selección de estados del sistema a través de un sorteo aleatorio.

Los elementos de la red se suelen modelar con


dos estados (disponible e indisponible) aunque
existe la posibilidad de mayor número de estados.
Las tasas de fallo y de reparación se obtienen de
históricos.
Los estudios de fiabilidad se hacen de acuerdo con una estructura
jerárquica que considera tres niveles, generación (nivel 1), transporte
(nivel 2), distribución (nivel 3).

En planificación no interesa la secuencia de las demandas, sino las


probabilidades de los distintos niveles de demanda que representan
todo el año. Se trabaja con la monótona de demanda

Con el método de enumeración de estados pueden llegarse a tener una cantidad elevada de escenarios, por lo que en algunos
casos se suele elegir escenarios mediante sorteos aleatorios, donde cada número aleatorio hace referencia al estado de cada
elemento, no obstante, esta técnica de Monte Carlo tiene de desventaja que para lograr un buen pronóstico con baja
desviación es necesario incorporar demasiados escenarios.
La planificación puede ser a largo plazo (20 años) donde se analiza solo en la red de 400 kV, a medio plazo (10 años) donde se
analizan las redes de 400 y 220 kV y a corto plazo (5 años) donde se hace una revisión del plan de desarrollo.

• Criterios de fiabilidad técnicos: idoneidad (cumplimiento de los criterios N-1 y N-2), compensación reactiva (tensiones
dentro de los límites), comportamiento dinámico (ángulo, oscilaciones), corrientes de cortocircuito.
• Criterios de fiabilidad de refuerzos de red existente
• Criterios de fiabilidad de mallado de la red existente
• Criterios de implantación, diseño de subestaciones (interruptor y medio en 400 kV con más de 4 entradas o 220 kV
con más de 5 – anillo para 4 o menos entradas – doble barra con acoplamiento en 220 kV con 5 o menos entradas).
• Criterio de implantación, diseño de líneas (línea 400 kV doble circuito para corriente mayor o igual a 2500 A – línea
220 kV doble circuito para corriente mayor o igual a 2000 A).
• Criterios económicos: minimizar costos de inversión y operación.
• Criterios medioambientales: impacto ambiental.
• Criterios de implantación física: espacio.

También podría gustarte