Está en la página 1de 12

ITCJ Métodos de

identificación de
sistemas
Control de Procesos

Unidad 1

Profesor

Alumno

Miguel Alejandro Ponce de Leon Meza


Edwin Trevizo González

Instituto Tecnológico de Ciudad Juárez


12 DE SEPTIEMBRE DE 2019
Introducción
El funcionamiento de los procesos industriales ha cambiado drásticamente en las últimas décadas.
Este cambio es debido principalmente a la evolución de la tecnología del ordenador. La
automatización de los procesos ha comportado un aumento de la productividad de algunos sectores
industriales, obligando a la industria a adaptarse a las demandas de mercado y aumentar su
competitividad. Para aumentar la competitividad ha sido necesario desarrollar nuevas técnicas:
métodos y herramientas que permitan maximizar la eficiencia de los procesos, desarrollando
controladores de gran calidad, y maximizar la flexibilidad de los procesos con el menor ajuste de la
máquina. Para ello es imprescindible conocer el comportamiento dinámico del proceso,
principalmente de las partes críticas. En la actualidad, cada vez más, el trabajo de un ingeniero
consiste en la realización de modelos matemáticos de los procesos estudiados. Los modelos son
utilizados en áreas tan distintas como: bioingeniería, construcción, economía, meteorología,
procesos químicos, etc. El campo de utilización de dichos modelos es muy amplio, destacar
aplicaciones como: control, supervisión, predicción, simulación, optimización, etc. Las técnicas de
identificación y el diseño de controladores han seguido un camino paralelo y porque la supervisión
está enlazada directamente con el diagnóstico y detección de fallos. Las estrategias actuales de
diseño de controladores pueden clasificarse en dos grupos: control convencional y control
avanzado. El control convencional consistente en el control: manual, PID, de relación, en cascada,
en avance o retardo de fase. El 90% de los controladores de procesos industriales son actualmente
controladores convencionales. Las estrategias de control avanzado se subdividen en tres grupos:
técnicas de control convencionales (control desacoplado, control selectivo, control con
compensación de retardo puro), técnicas de control basadas en modelos numéricos (control
predictivo, control adaptativo, control robusto, control con modelo interno) y técnicas de control
basadas en conocimiento (sistemas expertos, control neuronal, control fuzzy). Tanto para la
utilización de técnicas de diseño convencionales como técnicas avanzadas y especialmente las
basadas en modelos, es necesario un modelo numérico preciso del proceso estudiado. Los procesos
industriales están sujetos a severos requerimientos de eficacia, disponibilidad y seguridad. La
complejidad de los mismos crece constantemente y esto hace necesario el desarrollo de
herramientas automáticas de ayuda al operador humano: los sistemas de supervisión. Entre las
tareas de este tipo es necesario destacar las tareas destinadas a la detección y diagnóstico de fallos.
Con una rápida detección de los fallos se puede evitar desde una pérdida de prestaciones hasta un
deterioro del sistema con consecuencias que pueden ser catastróficas para el propio sistema e
incluso para el personal de la planta. Los sistemas de detección de fallos se basan en la obtención de
síntomas, de señales indicadoras de fallos, y su análisis para indicar la posible existencia y
localización de dicho fallo. Uno de los métodos utilizados para ello es la comparación del proceso
con un modelo de simulación, son los métodos denominados diagnostico basado en modelos.
Principalmente, por las dos razones expuestas anteriormente, diseño de controladores y métodos de
detección de fallos, es necesario disponer de un modelo matemático que se ajuste al
comportamiento del sistema estudiado. Para ello hay que conocer una metodologías de
modelización denominada identificación; dicha metodología parte de la información disponible de
dichos sistemas o, con otras palabras, el análisis de las entradas, señal de excitación, y las salidas,
respuesta del sistema, etc. Ademas hay que estudiar distintas herramientas para la identificación de:

 Modelos lineales, utilizando herramientas de análisis temporal y frecuencia.


 Modelos no lineales, utilizando redes neuronales.
El desarrollo de las técnicas de diseño de controladores utilizando métodos numéricos y las técnicas
de identificación, se originaron simultáneamente. El inició de las técnicas de identificación,
aplicadas a procesos con una entrada y una salida, tienen su origen a principios de los años 70. No
será hasta finales de la década de los 90 que empiezan aplicarse a procesos industriales, algunas de
ellas útiles para el estudio de sistemas múltiple entrada múltiple (MIMO).
Se denomina identificación a la técnica de construir un modelo a partir de las variables medidas del
proceso: entradas o variables de control, salidas o variables controladas y, posiblemente,
perturbaciones. En principio y con el objetivo de modelizar se pueden proponer tres formas distintas
de utilizar los métodos de identificación:

 Hacer distintas aproximaciones para estructurar el problema: seleccionar las señales de


interés, observar la dependencia entre ellas, estudiar el grado de linealidad del proceso, etc.
 Construir un modelo que describa el comportamiento entre las entradas y las salidas,
prescindiendo del comportamiento físico. Hay distintas formas de abordar el problema,
según se consideren modelos no paramétricos o modelos paramétricos.
 Utilizar los datos para determinar los parámetros no conocidos del modelo físico obtenido a
base del estudio de propiedades y leyes físicas del proceso estudiado. En este caso se habla
de modelos “tailor-made” de los cuales se debe estimar solamente los valores de los
parámetros no conocidos. Para ello se recurre a ensayos de comportamiento o pruebas
físicas y/o a la utilización de técnicas de optimización.
Otro aspecto a tener en cuenta será el tipo de modelo matemático que se pretende identificar. Hay
varias formas de catalogar los modelos matemáticos: deterministas o estocásticos, dinámicos o
estáticos, de parámetros distribuidos o concentrados, lineales o no lineales, y de tiempo continuo o
tiempo discreto.
Los tipos de modelos que se puedan presentar serán:

 Deterministas, ya que se quiere estudiar la relación entre la entrada y la salida con una parte
no modelizable o no conocida (estocástica);
 Dinámicos, porqué el objetivo es conocer el comportamiento dinámico de un proceso;
 De parámetros concentrados, no se considera la variación en función del espacio;
 Lineales o no lineales, se hará mayor énfasis a las técnicas de identificación de modelos
lineales, comentado algunas técnicas para ser utilizadas en el caso de sistemas no lineales.
 Tiempo continuo o tiempo discreto, se propone describir técnicas para la identificación de
modelos en tiempo discreto y continuo.
Debemos dejar claros varios aspectos en cuanto a la construcción de un modelo:

 Un modelo se desarrolla siempre a partir de una serie de aproximaciones e hipótesis y, por


lo tanto, es una representación parcial de la realidad;
 Un modelo se construye para una finalidad específica y debe ser formulado para que sea
útil a dicho fin;
 Un modelo tiene que ser por necesidad un compromiso entre la simplicidad y la necesidad
de recoger los aspectos esenciales del sistema en estudio.
Método grafico de identificación
Los métodos de identificación pueden clasificarse también en función de los modelos
obtenidos, de esta forma podríamos diferenciar entre: técnicas de identificación no
paramétricas, obteniéndose modelos no paramétricos, y técnicas de identificación paramétricas,
que conducen modelos paramétricos.
Dentro de las denominadas técnicas de identificación no paramétricas podemos citar como mas
importantes:

 Análisis de la respuesta transitoria se basa en la obtención de la respuesta del


sistema a un impulso o a un escalón. Las señales de test a utilizar en este caso
son un impulso o un escalón, respectivamente, y la salida registrada da el modelo
correspondiente.
 Análisis de correlación es un método del dominio temporal, útil para sistemas
lineales y con señales continuas o discretas. Como resultado del mismo se obtiene la
función de correlación entre las variables de interés y, como caso especial, una función de
pesos.

 Técnicas frecuenciales que son utilizadas directamente para estimar la respuesta


frecuencial del sistema. Dentro de las técnicas frecuenciales podemos diferenciar
entre el análisis de Fourier y el análisis Espectral.

Todas ellas son


aplicables en el caso de considerar procesos lineales o linealizables. Para su utilización no
se debe suponer ningún tipo de estructura para el modelo y los resultados obtenidos son de
tipos gráfico los cuales pueden ser más o menos fáciles de interpretar.
Método del modelo de referencia
En ocasiones la estrategia de control requiere de un modelo de referencia, el modelo es usado para
especificar la respuesta ideal del sistema y es usualmente lineal. La elección del modelo de
referencia debe satisfacer dos requisitos. Por un lado, debe reflejar las características deseadas del
sistema, tales como: tiempo de elevación, tiempo de asentamiento, sobrepaso máximo, etc. Por otra
parte, el comportamiento ideal del modelo debe ser alcanzable por el sistema de control, es decir, no
se puede escoger un modelo de referencia sin pensar si el controlador o la planta es capaz de lograr
dicho comportamiento. Esto impone algunas limitaciones en la estructura del modelo de referencia,
por ejemplo, su orden y grado.
La selección del modelo de referencia debe tener el mismo orden y grado que el polinomio de la
planta a controlar, ser estable y de fase mínima.
El componente clave en el control adaptativo es el modelo de referencia. Cada modelo de referencia
debe reflejar cómo el sistema debe responder a los cambios que se produzcan. El programa de
adaptación suele ser un algoritmo que optimiza los parámetros de una determinada función objetivo
para el control.

Método de mínimos cuadrados


El método de mínimos cuadrados es una técnica básica para estimación de parámetros. Consiste en
buscar los parámetros desconocidos de tal forma que la suma de los cuadrados delas diferencias
entre los valores observados y calculados, sea un mínimo. El método puede ser aplicado a una gran
variedad de casos de estudio en muy diversas áreas del conocimiento. Es particularmente simple si
el modelo tiene la propiedad de ser lineal en los parámetros. Consideremos el siguiente modelo de
regresión,
Donde y(k) representa la variable de salida calculada, (k) un vector p×1 del sistema el cual está
formado por elementos plenamente determinados, y θ es el vector p×1 de parámetros desconocidos.
El modelo es indexado por la variable k, que toma valores en N y denota el tiempo de muestreo. El
problema consiste en determinar los parámetros de tal manera que la salida del modelo en la
ecuación sea lo más cercana posible a la variable medida y(k) de acuerdo al criterio de mínimos
cuadrados. Así pues, los parámetros desconocidos θ son estimados de tal forma que se minimice
una la siguiente función:

El cálculo fuera de línea de los parámetros del modelo dinámicos de un sistema por el método de
mínimos cuadrados, es utilizado en aquellas aplicaciones en que no se requiere un ajuste continuo
del modelo.
De rodos los métodos anteriormente citados, el de los mínimos cuadrados es el que ofrece una
mayor simplicidad conceptual y aplicabilidad en un amplio rango de situaciones, en las cuales la
inclusión de otros métodos es mucho más complicada. Adicionalmente, los algoritmos de mínimos
cuadrados pueden ser fácilmente interpretados desde el punto de vista de otros métodos, haciendo
posible un tratamiento unificado del problema de identificación.
Asimismo, la rapidez de convergencia (en los algoritmos de mínimos cuadrados) de los parámetros
del modelo a los del sistema es apropiada, así como la robustez frente a distintos puntos de error
como ruido, dinámica no modelada, precisión numérica, etc.

Método de Máxima Verosimilitud

La evaluación por el método de máxima verosimilitud procura encontrar los valores más probables
de los parámetros de la distribución para un conjunto de datos. Maximizando el valor de lo que se
conoce como la “función de verosimilitud” La función de verosimilitud se basa en la función de la
densidad de la probabilidad fdp para una distribución dada. Como ejemplo considere una fdp
genérica:

Donde x representa los datos (tiempo a la falla), y θ1, θ2, ...,θk son los parámetros que se estimarán
y k el número de parámetros a evaluar. Por ejemplo para una distribución de Weibull de dos
parámetros, β beta y θ theta son los parámetros que se deben estimar. Para un conjunto de datos de
observación completa, la función de verosimilitud es un producto de la función de la densidad de la
probabilidad, con un elemento por cada punto en el conjunto de datos:
R es el número de observaciones independientes que corresponden al tiempo a la falla en un análisis
de ciclo de vida, xi es la iésimo tiempo a la falla. Matemáticamente es más fácil manipular esta
función tomando su logaritmo. Luego la función logarítmica de la verosimilitud se expresa de la
siguiente forma:

Por lo tanto para encontrar los valores de los parámetros θ1, θ2, ...,θk se debe maximizar L ó Λ.
Esto comúnmente se hace tomando la derivada parcial de la ecuación de Λ para cada uno de los
parámetros e igualándolos a cero:

Esto resulta en un número de ecuaciones con un igual número de variables, las cuales pueden
resolverse simultáneamente. Si existen las soluciones de forma cerrada para las derivadas parciales
la solución puede ser relativamente simple. En las situaciones donde no se da el caso, se necesitan
emplear algunos métodos numéricos.

El método de estimación de máxima verosimilitud tiene varias propiedades que hacen atractiva su
aplicación. Por ejemplo:

Es consistentemente asintótico, que significa que mientras que el tamaño de muestra aumenta, las
estimaciones convergen a los valores correctos. Es asintótico eficiente, que significa que para
conjuntos de datos grandes produce las estimaciones más exactas. Es asintótico imparcial, que
significa que para conjuntos de datos grandes uno espera conseguir el valor correcto en promedio.
La distribución de las estimaciones mismas es normal, si el conjunto de datos es bastante grande.
Todas éstas son características excelentes para conjuntos de muestras grandes. Desgraciadamente,
el tamaño necesario de la muestra para alcanzar estas características puede ser bastante grande:
treinta a cincuenta hasta cientos de muestras de tiempos exactos de falla, dependiendo de la
aplicación. Con pocas muestras, los métodos pueden ser desgraciadamente polarizados o
tendenciosos. Se han conocido resultados, por ejemplo, que la estimación por máxima verosimilitud
del parámetro de forma para la distribución Weibull ha sido polarización para tamaños de muestras
pequeños, y el efecto puede aumentar dependiendo de la cantidad de datos censurados. Esta
polarización puede causar discrepancias importantes en el análisis.

En general, la recomendación de la literatura es utilizar técnicas de regresión (gráficas de riesgo y


probabilidad) cuando la muestra de datos es pequeña y sin censura. Cuando hay muchos datos
censurados y/o cuando el tamaño de muestra es suficiente, Máxima verosimilitud (MLE) debe ser
preferido.

Superficie de la función de verosimilitud

La representación tridimensional de la función logarítmica de la verosimilitud para dos parámetros,


los parámetros están en los ejes Y y X, y los valores logarítmicos de la verosimilitud en el eje Z. En
la siguiente gráfica es un ejemplo de la superficie de la función de verosimilitud para una
distribución Weibull de dos parámetros. Los valores del logaritmo de la verosimilitud están
normalizados a un valor de  100 %.

En esta gráfica “la cima” de la superficie de la función verosimilitud corresponde a los valores de
los parámetros que maximizan la función de verosimilitud.

Ejemplo de MLE para la Distribución exponencial

Este ejemplo es para una distribución de un solo parámetro y por lo tanto hay una sola ecuación
diferencial a resolver. Además esta ecuación diferencial está en forma cerrada, debido a la
naturaleza misma de la función de la densidad de la probabilidad. La función de verosimilitud para
la distribución exponencial se representa a continuación:
Donde lambda λ es el parámetro a estimar. Tomamos el logaritmo natural de la función de
verosimilitud debido a que matemáticamente es más fácil de manipular tenemos la siguiente
expresión.

Si se deriva la ecuación con respecto a λ e iguala a cero se obtiene como resultado

Reordenando los términos o resolviendo por λ la expresión queda:

Esta es la solución de forma cerrada para la estimación de la máxima verosimilitud para la


distribución exponencial de un solo parámetro. Obviamente, este es el ejemplo más sencillo, pero
sirve para ilustrar el proceso. La metodología es más compleja para distribuciones con múltiples
parámetros o que no tengan una solución cerrada.
Método de la variable instrumental
El método de variables instrumentales permite una estimación consistente cuando las variables
explicativas (covariables) se correlacionan con los términos de error de la regresión. Dicha
correlación puede ocurrir cuando la variable dependiente causa por lo menos una de las covariables
(relación causal "inversa"), cuando hay variables explicativas relevantes que se han omitido en el
modelo, o cuando las covariables están sujetas a errores de medición. En esta situación, la regresión
lineal generalmente produce estimaciones sesgadas e inconsistentes. Sin embargo, si un instrumento
está disponible, aún puede obtenerse estimaciones consistentes. Un instrumento es una variable que
no pertenece en sí en la ecuación explicativa y se correlaciona con las variables explicativas
endógenas, condicionada a las otras variables. En los modelos lineales, hay dos requisitos
principales para el uso de un instrumento virtual:

 El instrumento debe estar correlacionado con las variables explicativas endógenas,


condicionada a las otras variables.
 El instrumento no puede estar correlacionado con el término de error en la ecuación
explicativa, es decir, el instrumento no puede sufrir el mismo problema que la variable
original que pretende predecir.
La exposición anterior supone que el efecto causal de interés no varía a través de observaciones. En
general, los distintos temas responden de manera diferente a los cambios en el "tratamiento" x.
Cuando se reconoce esta posibilidad, el efecto medio en la población de un cambio en x de y puede
ser diferente del efecto en una subpoblación determinada. Por ejemplo, el efecto medio de un
programa de capacitación para el trabajo puede diferir sustancialmente entre el grupo de personas
que realmente reciben la formación y el grupo que opte por no recibir capacitación. Por estas
razones, los métodos IV invocan suposiciones implícitas en la respuesta de comportamiento, o más
generalmente suposiciones sobre la correlación entre la respuesta al tratamiento y la propensión a
recibir el tratamiento.8
El estimador estándar IV puede recuperar los efectos locales de tratamiento promedio (LATE) en
lugar de los efectos de tratamiento promedio (ATE). Imbens y Angrist (1994) demuestran que la
estimación lineal IV puede interpretarse en condiciones débiles como la media ponderada de la
media local, los efectos del tratamiento, donde los pesos dependen de la elasticidad de la regresor
endógeno a los cambios en las variables instrumentales. Aproximadamente, eso significa que el
efecto de una variable sólo se revela para las subpoblaciones afectadas por los cambios observados
en los instrumentos, y que las subpoblaciones que responden más a los cambios en los instrumentos
tendrán los efectos más grandes en la magnitud de la estimación IV.

También podría gustarte