Está en la página 1de 76

Identificación de Sistemas

Dr. Angel Ernesto Rubio Rodríguez


DIEE-UBB
aerubio@ubiobio.cl
Identificación de Sistemas
• Conf. #1. Introducción
– Descripción de la asignatura
– El problema que resuelve la IDS
– Elementos de estadística
– Elementos de procesos estocásticos
• Bibliografía:
– Estadística y probabilidades (María Becker)
– Probabilidades y estadísticas para ingenieros
(Ronald E. Walpole)
Identificación de Sistemas
• Objetivos
– Describir los aspectos que se abordarán en la
asignatura y la metodología a emplear.
– Describir el problema que resuelve la
Identificación.
– Recordar algunos elementos de estadística y
procesos estocásticos.
Identificación de Sistemas
• Conf. #1. Introducción
– Descripción de la asignatura
– El problema que resuelve la IDS
– Elementos de estadística
– Elementos de procesos estocásticos
Descripción de la asignatura
• Objetivo general:
– Adquirir los conocimientos y habilidades
necesarios para resolver el problema de identificar
experimentalmente el modelo de un sistema
dinámico y validarlo cualitativa y
cuantitativamente.
Descripción de la asignatura
• Metodología:
– Conferencias expositivas.
– Realización de ejercicios utilizando el Toolbox de
identificación de Matlab.
– Demostraciones experimentales con maquetas de
laboratorio.

– OjO: Para los segundos turnos de cada semana


está reservado el Laboratorio de Señales (3erP)
Descripción de la asignatura
• Tema 1: Conceptos básicos de Identificación
de Sistemas.
– Definición del Problema de identificación de
parámetros en el contexto de la modelación de
sistemas para análisis y control.
– Conceptos básicos de estadísticas y procesos
estocásticos utilizados en la IDS.
Descripción de la asignatura
• Tema 2: Métodos clásicos de identificación.
– Clasificación de los métodos de identificación.
– Identificación por respuesta al paso de sistemas
de 1ro y 2do orden.
– Identificación no paramétrica. Obtención de
respuesta temporal y en frecuencia por
correlación.
Descripción de la asignatura
• Tema 3: Identificación paramétrica y
validación de modelos.
– Estructura de los modelos paramétricos.
– El proceso de la identificación experimental.
– Validación por coherencia, reducción, desviación
estándar y análisis de los residuos.
– La identificación indirecta.
Descripción de la asignatura
• Tema 4: El método de los mínimos cuadrados
y sus modificaciones.
– La estructura ARX y el método de estimación por
mínimos cuadrados.
– Técnica del olvido exponencial.
– Mínimos cuadrados recursivo.
– Modificaciones del MMC.
Descripción de la asignatura
• Tema 5: Metodología para la identificación
experimental.
– Recapitulación y desarrollo de la metodología para
la identificación experimental.
– Diseño de experimentos. Selección de período de
muestreo, diseño de señal de excitación y
procesamiento de los datos.
Descripción de la asignatura
• Bibliografía:
– Estadística y probabilidades (María Becker)
– Identificación y control adaptativo (Alberto Aguado)
– System identification (Lennart Ljung)
– Materiales digitales.
– Notas de clases.
Descripción de la asignatura
• Evaluación:
– Esta asignatura se evaluará fundamentalmente por
la calidad de un informe científico técnico que
deberá presentarse como resultado de un trabajo
integrador que se orientará el Tema 5. (80%)
– También se evaluará el desempeño de los
estudiantes en los laboratorios. (20%)
– Si algún alumno no lo aprobara, deberá rendir y
aprobar un examen práctico (en PC) contentivo de
toda la materia.
Descripción de la asignatura
• Asistencia mínima exigida: 60%
• Normas de puntualidad y respeto:
– Se puede entrar al aula mientras no se haya
terminado de chequear la asistencia.
– Poner celulares en modo reunión.
– Abstenerse de usar los celulares en clase.
– No usar gorras ni cascos durante la clase.
Identificación de Sistemas
• Conf. #1. Introducción
– Descripción de la asignatura
– El problema que resuelve la IDS
– Elementos de estadística
– Elementos de procesos estocásticos
Problema que resuelve la IDS
• Muchos métodos de síntesis de controladores
se basan en el conocimiento previo del
modelo matemático que describe la dinámica
del sistema a controlar.
Problema que resuelve la IDS
• A la obtención experimental del modelo que
reproduzca con suficiente exactitud, para los
fines deseados, las características dinámicas
del proceso objeto de estudio, se le conoce
como Identificación de Sistemas.
Problema que resuelve la IDS
• El modelo se puede obtener por:
– Modelado analítico: A partir de la descripción
matemática de las leyes físicas, químicas y otras,
que determina la dinámica del proceso.
Balance de masa:
d (  A h)
 Fi   F 
dt
Balance de energía:
d ( A h T )
 Fi Cp Ti  Q   F Cp T  Cp
dt
Problema que resuelve la IDS
• El modelo se puede obtener por:
– Identificación experimental: Considerando el
sistema como una caja negra y sometiéndolo a
una serie de experimentos que permiten obtener
el modelo a partir de la correlación de las señales
de entrada y salida.

u(t) G(s) y(t)


???
Problema que resuelve la IDS
• Modelado analítico:
– Tiene un campo de aplicación restringido a
procesos muy sencillos de modelar, o a
aplicaciones en que no se requiera gran exactitud
en el modelo obtenido.
– En muchos casos, la estructura del modelo
obtenido a partir del conocimiento físico de la
planta posee un conjunto de parámetros
desconocidos o muy difíciles de determinar.
Problema que resuelve la IDS
• Identificación experimental:
– Su rango de validez suele ser limitado a un
determinado punto de operación.
– En muchos casos es difícil dar significado físico a
los parámetros del modelo obtenido, puesto que
no tienen relación directa con ninguna magnitud
física.
Problema que resuelve la IDS
• El modelado analítico puede ser complicado y
dar como resultado un modelo muy complejo.

• La identificación experimental, sin adoptar


hipótesis sobre las características del sistema,
puede resultar difícil de aplicar.

• En la práctica se combinan!!!
Problema que resuelve la IDS
• Combinación:
– Etapa de análisis: Teniendo en cuenta las leyes, se
establecen hipótesis sobre la posible estructura
del modelo.
– Etapa experimental: Teniendo en cuenta las
hipótesis, se correlacionan las medidas y se estima
el modelo.
Problema que resuelve la IDS
• En el análisis hay que tener en cuenta que,
aunque el sistema sea no lineal, puede
resultar interesante adoptar un modelo lineal
con el objetivo de estudiar las variaciones del
sistema alrededor de un punto de operación.
• A demás, en sistemas lineales con múltiples
entradas, puede utilizarse el principio de
superposición.
Problema que resuelve la IDS

• También suelen utilizarse hipótesis


simplificadoras para describir el
comportamiento del sistema con modelos de
orden reducido: más fáciles de identificar y,
luego, de utilizar.
Problema que resuelve la IDS

• El análisis de las características estadísticas del


ruido y la hipótesis que se establezca de cómo
afecta al sistema, determinará la estructura
adecuada del modelo respecto al ruido.
Problema que resuelve la IDS

• El tiempo de experimentación debe ser


seleccionado cuidadosamente ya que pueden
existir parámetros que varían en función de
perturbaciones lentas o pueden aparecer no
linealidades que no están presentes en los
transitorios.
Problema que resuelve la IDS

• … y aún teniendo en cuenta todo lo anterior,


dependiendo de los resultados que se
obtengan, puede ser necesario volver a
considerar la etapa de análisis y modifica las
hipótesis de partida.
Problema que resuelve la IDS
Conocimiento Previo
Planificar
experimento

• La identificación
Recolección
de datos

es un proceso Selección
del
estructura
iterativo: Selección
método de
ajuste

Estimación del Modelo

Modelo no OK:
Validar
Revisarlo
Modelo

Modelo OK: Usarlo


Problema que resuelve la IDS
Modelado analítico
(hipótesis)
+
Identificación experimental
(correlación y validación)
=
Modelo dinámico de una planta
(simulación, síntesis de controladores,…)
Identificación de Sistemas
• Conf. #1. Introducción
– Descripción de la asignatura
– El problema que resuelve la IDS
– Elementos de estadística
– Elementos de procesos estocásticos
Elementos de estadística
• Teoría de las probabilidades:
– Ciencia matemática que estudia los fenómenos
aleatorios.
• Estadística:
– Rama de las probabilidades que estudia los
métodos de recolección, presentación e
interpretación de datos experimentales.
Elementos de estadística
• Población estadística:
– También llamada universo o colectivo, es el
conjunto de elementos sobre el que estamos
interesados en obtener conclusiones (hacer
inferencias).
– Normalmente es demasiado grande para poder
abarcarlo completamente.
Elementos de estadística
• Muestra estadística:
– Subconjunto de una población estadística que
permitirá obtener conclusiones.
– Con ellas, puede obtenerse una información
similar a la de un estudio exhaustivo de la
población, pero con mayor rapidez y menor coste.
Elementos de estadística
• Muestra estadística:
– Las muestras se obtienen con la intención de
inferir propiedades de la totalidad de la población,
para lo cual deben ser representativas de la
misma.
– Para que una muestra sea representativa de la
población, ambas deben tener la misma
distribución de probabilidad.
Elementos de estadística
• Distribución de probabilidad:
– Es la función que asigna a cada suceso definido
sobre una variable aleatoria, la probabilidad de
que dicho suceso ocurra.
– Ejemplo:

Distribución Normal "campana de Gauss"


Elementos de estadística
• Media o esperanza:
– Se puede calcular según:
𝑛
1
𝜇=𝐸 𝑋 = 𝑥𝑖
𝑛
𝑖=1

– En Matlab: Ex=mean(x)
Elementos de estadística
• Sesgo:
– Una estimación es sesgada si su esperanza es
diferente a su valor real:

E 𝜃 ≠ 𝜃∗
Elementos de estadística
• Consistencia:
– Una estimación es consistente si tiende al valor
verdadero cuando el número de muestras
aumenta:

𝜃 → 𝜃 ∗ cuando 𝑁 → ∞
Elementos de estadística
• Varianza:
– Medida de la dispersión de una muestra.
– Se define como la esperanza del cuadrado de su
desviación respecto a su media.
– Suele representarse como σ2:

𝜎 2 = Var 𝑋 = E 𝑋 − 𝜇 2
Elementos de estadística
• Varianza:
– La varianza de una muestra de una población se
puede calcular de dos formas:
– La primera traslada directamente la varianza de la
muestra a la de la población:
𝑛
1
𝑠𝑛2 = 𝑥𝑖 − 𝜇 2
𝑛
𝑖=1
Elementos de estadística
• Varianza:
– La varianza de una muestra de una población se
puede calcular de dos formas:
– La segunda es un estimador insesgado de la
varianza de la población:
𝑛
1
𝑠2 = 𝑥𝑖 − 𝜇 2
𝑛−1
𝑖=1
Elementos de estadística
• Varianza:
– Se puede demostrar que:

𝑛−1 2
𝐸 𝑠𝑛2 = 𝜎
𝑛
𝐸 𝑠2 = 𝜎 2

– En Matlab: Sx=var(x) % Varianza insesgada


Elementos de estadística
• Varianza:
OjO:
– La unidad de medida de la varianza de una variable
es diferente al de la variable.
– Por ejemplo, si la variable mide una distancia en
metros, la varianza se expresa en metros al
cuadrado.
– La varianza tiene como valor mínimo 0.
Elementos de estadística
• Desviación estándar:
– Es la raíz cuadrada de la varianza.
– Medida de centralización o de dispersión
expresada en las mismas unidades de la variable
objeto de estudio.

– En Matlab: Dx=std(x)
Elementos de estadística
• Desviación estándar:
– Desviaciones estándar en una distribución normal:
Elementos de estadística
• Desviación estándar:
– Desviaciones estándar en una distribución normal:
Elementos de estadística
• Covarianza:
– Medida de dispersión conjunta de dos variables
estadísticas
– Se define como:

𝑠𝑥𝑦 = cov 𝑋, 𝑌 = E 𝑋 − E 𝑋 𝑌−E 𝑌


Elementos de estadística
• Covarianza:
– Para distribuciones discretas se calcula según:

𝑛
1
𝑠𝑥𝑦 = 𝑥𝑖 − 𝜇𝑥 𝑦𝑖 − 𝜇𝑦
𝑛−1
𝑖=1
Elementos de estadística
• Covarianza:
– Interpretación:

sxy>0 : Hay dependencia directa (positiva) entre las


dos variables, es decir, a grandes valores de
x corresponden grandes valores de y.
Elementos de estadística
• Covarianza:
– Interpretación:

sxy<0 : Hay dependencia inversa (negativa) entre


las dos variables, es decir, a grandes valores
de x corresponden pequeños valores de y.
Elementos de estadística
• Covarianza:
– Interpretación:

sxy=0 : Una covarianza 0 se interpreta como la no


existencia de una relación lineal entre las
dos variables estudiadas.
Elementos de estadística
• Covarianza:
– En Matlab:

Dx=cov([x y])
% Devuelve una matriz cuadrada:
% var(x) cov(x,y)
% cov(y,x) var(y)
% (x,y: vectores columnas)
Elementos de estadística
• Población y Muestra
• Distribución de probabilidad
• Media, Sesgo, Consistencia
• Varianza y Desviación estándar
• Covarianza y su interpretación
Identificación de Sistemas
• Conf. #1. Introducción
– Descripción de la asignatura
– El problema que resuelve la IDS
– Elementos de estadística
– Elementos de procesos estocásticos
Procesos estocásticos
• Proceso estocástico:
– Secuencia de variables aleatorias dependientes
del tiempo {v(t)}
• Proceso estocástico estacionario:
– Proceso estocástico cuyas propiedades son
invariantes respecto a un desplazamiento en el
tiempo.
Procesos estocásticos
• Proceso ergódico:
– Proceso estocástico estacionario en el que la
media y la varianza se pueden estimar con un
número finito de datos y tienden al valor esperado
con probabilidad uno cuando dicho número
tiende a infinito.

𝑃 𝑥=E𝑋 =1
Procesos estocásticos
• Correlación cruzada:
– Medida de la similitud entre dos señales.
– Es función del tiempo relativo entre las señales y
se define, para un desfasaje de k muestras, como:

𝑁
1
𝑅𝑥𝑦 𝑘 = 𝑥 𝑖 𝑦 𝑖−𝑘
2𝑁
𝑖=−𝑁
Procesos estocásticos
• Correlación cruzada:
– Medida de la similitud entre dos señales.
– Es función del tiempo relativo entre las señales y
se define, para un desfasaje de k muestras, como:

𝑁
1
𝑅𝑥𝑦 𝑘 = 𝑥 𝑖+𝑘 𝑦 𝑖
2𝑁
𝑖=−𝑁

Nótese que da igual si se desplaza x o y


Procesos estocásticos
• Correlación cruzada:
– El gráfico que se obtiene en función de k, suele
normalizarse dividiéndose por la raíz cuadrada de
la multiplicación de las varianzas de x y y:

𝑅𝑥𝑦 𝑘

𝜎𝑥2 𝜎𝑦2
Procesos estocásticos
• Correlación cruzada:
– En Matlab:

Rxy=xcorr(x,y,K,'coeff')
% k=-K:K, por defecto K=N
% 'coeff': normaliza
Procesos estocásticos
• Autocorrelación:
– Correlación cruzada de una señal consigo misma.
– Permite:
• Encontrar patrones repetitivos dentro de una señal,
como por ejemplo, la periodicidad de una señal
enmascarada bajo el ruido.
• Identificar la frecuencia fundamental de una señal que
no contiene dicha componente, pero aparecen
numerosas frecuencias armónicas de esta.
Procesos estocásticos
• Autocorrelación:
– Se calcula según:
𝑁
1
𝑅𝑥𝑥 𝑘 = 𝑥 𝑖 𝑥 𝑖−𝑘
2𝑁
𝑖=−𝑁

Para k=0 coincide con la varianza si la media de x


fuera cero. Por tanto una forma de normalizarla y
dar su valor en el rango [-1,1] es dividiendo por σ2
Procesos estocásticos
• Autocorrelación:
– Se calcula según:
𝑁
1
𝑅𝑥𝑥 𝑘 = 𝑥 𝑖 𝑥 𝑖−𝑘
2𝑁
𝑖=−𝑁

Nótese también que se divide por 2N y no por 2N+1


como correspondería al rango de la sumatoria [-N,N],
para garantizar que no de un valor sesgado.
Procesos estocásticos
• Autocorrelación:
– En Matlab:

Rxy=xcorr(x,x,K,'coeff')
% k=-K:K, por defecto K=N
% 'coeff': normaliza
Procesos estocásticos
• Ejemplo 1:
– Mostrar la autocorrelación de una señal seno de
período 20 segundos:
lag = 50;
rx = (-lag:lag)';
s = sin(2*pi/20*(1:200))';
rs = xcorr(s,s,lag,'coeff');
stem(rx,rs)
axis([-lag lag -0.5 1.1])
Procesos estocásticos
• Ejemplo 1:
– Mostrar la autocorrelación de una señal seno de
período 20 segundos:
1

Puede notarse
0.5 que la
correlación
0 positiva tiene
desfasaje igual al
-0.5
-50 -40 -30 -20 -10 0 10 20 30 40 50
período
Procesos estocásticos
• Ejemplo 1:
– Mostrar la autocorrelación de una señal seno de
período 20 segundos:
1

y la correlación
0.5 negativa tiene un
desfasaje igual al
0 período/2

-0.5
-50 -40 -30 -20 -10 0 10 20 30 40 50
Procesos estocásticos
• Ruido blanco:
– Secuencia aleatoria v(t) con densidad espectral
constante (por tanto su ancho de banda será
infinito) y no autocorralada.
– Su función de autocorrelación es la Delta de
Dirac, o sea, solo tiene valor para k=0 y es
precisamente la varianza de v(t)

𝑅𝑣 𝑘 = 0 Para 𝑘 ≠ 0
𝑅𝑣 0 = 𝜎𝑣2 𝜎𝑣2 : Varianza de 𝑣
Procesos estocásticos
• Ruido blanco:
– Secuencia aleatoria v(t) con densidad espectral
constante (por tanto su ancho de banda será
infinito) y no autocorralada.
– Su función de autocorrelación es la Delta de
Dirac, o sea, solo tiene valor para k=0 y es
precisamente la varianza de v(t)

⟹ 𝑅𝑣 𝑡 = 𝜎𝑣2 𝛿 𝑡 𝛿 𝑡 : función impulso


Procesos estocásticos
• Ejemplo 2:
– Mostrar la autocorrelación de una señal aleatoria
con una distribución uniforme:
e = rand(200,1);
re = xcorr(e,e,lag,'coeff');
stem(rx,re)
axis([-lag lag -0.5 1.1])
Procesos estocásticos
• Ejemplo 2:
– Mostrar la autocorrelación de una señal aleatoria
con una distribución uniforme:
1

Nótese que solo


0.5 tiene relación
con ella misma
0
para desfasaje
cero.
-0.5
-50 -40 -30 -20 -10 0 10 20 30 40 50
Procesos estocásticos
• Proceso estocástico estacionario y ergódico
• Correlación cruzada
• Autocorrelación y su utilidad
• Ruido blanco y sus propiedades
Resumen
• Están dadas las “reglas del juego”, en lo
adelante se velaran por ellas.
• Ya saben el problema que resuelve la IDS.
• Se recordaron algunos elementos de
estadística y procesos estocásticos, que serán
utilizados a lo largo de la asignatura.
• Por lo cual, quedan cumplidos los objetivos de
esta conferencia.
Conclusiones
• La identificación de sistemas es un método
iterativo de prueba y error.
• Un buen diseño de experimentos reduce
enormemente el esfuerzo de procesamiento
de datos.
• Comprender las herramientas estadísticas
permitirá comprender los métodos de
estimación.
Avance…
• La próxima actividad será en el laboratorio y
programaremos algunas de las funciones
estadísticas vistas hoy.

También podría gustarte