Está en la página 1de 18

Necesidades: 

- En las computadoras la tendencia es que su arquitectura mejore cada


vez más para ser más rápidas (es decir procesen más informacion y más
rapido que antes), más compactas (Deben ser más ligeras y deben ocupar
menos espacio) y más economicas (Dado que cada vez hay más variedad
de marcas en el mercado). 
- Tambien deben presentar mejoras en tu tecnología afinirse con el
usuario: Por ejemplo, debe llegar un momento que todas las
computadoras tengan pantalla tactil, que pueda encenderse o apagarse
con la voz, temas así. 
- El software debe ser cada vez más versatil en cuanto a arquitectura y
marca. Es decir debe poder correr sin problemas en cualquier marca de
computadora, en cualquier sistema operativo, etc. 

Problemas: 
- Los problemas más frecuentes y que seguramente no tendrán solucion
inmediata dada las politicas de una libre competencia de mercado es que los
software son diseñados para que funcionen muy bien con un determinado
computador de una determinado marca. Esto sucede con los programas
profesionales de Window. Un caso claro son las Mac. 
- Otro caso que he observado es que hoy en día la ingenieria de sistemas es
tan amplio que ahora requiere dividirse en carreras mas especializadas. Como
manera de analogía pongamos en caso de las Matematicas: estas se dividen
en Geometria, Aritmetica, Algebra, Logica, etc. La ingenieria de sistemas
deberia dividirse en Ingenieria de Software, Ingenieria de Redes de
comunicaciones, Ingenieria de Auditoriia y Seguridad de la Informacion.
Ingenieria en Tecnología de la Información, Ingenieria de VideoJuegos en 3D,
etc. Hoy en día queda muy chico los 5años de carrera de ingenieria de
sistemas para ver todos estos subtemas. 
El desarrollo científico-tecnológico ha llevado tanto a un incremento en la
complejidad de los Sistemas de Ingeniería como a la definición de nuevos
problemas asociados a esta área. Lo anterior ha conducido a enfrentar
problemas científicos ligados a la toma de decisiones, muy difíciles de
resolver, motivando la generación de metodologías sofisticadas y
efectivas para abordar estos problemas.

Algunas áreas de problemas tradicionales en Sistemas de Ingeniería son


Logística y Transporte, Generación y Distribución de Energía Eléctrica y
Localización de Servicios (Salud, Educación, Logística, etc.). Nuevas
problemáticas han aparecido en estas áreas como también en áreas
nuevas como Bioinformática y Redes de Comunicación. Tanto las áreas
nuevas como las tradicionales comparten la propiedad de enfrentar
modelos de toma de decisiones cada vez más complejos dado el
desarrollo y crecimiento económico, el avance científico-tecnológico y la
inestabilidad económica y política mundial.

Problemas difíciles aparecen en varios de los componentes de Sistemas


de Ingeniería. Un componente tradicional asociado a la dificultad de estos
problemas es su complejidad computacional. Por ejemplo, en un
problema de localización de plantas, que es una fuente inagotable de
problemas complicados, muchas veces resulta que no se conocen
algoritmos de tiempo polinomial para resolver el problema (y no se espera
que tales algoritmos existan). Por lo tanto, el diseño de algoritmos
aproximados o heurísticos que puedan entregar buenas soluciones en
tiempos razonables es crucial cuando el problema a resolver es
complicado.

Otra fuente de dificultad aparece por el lado de la incertidumbre asociada


a un sistema. Aun cuando existen sistemas simples que no tienen
incertidumbre en sus diferentes componentes, sistemas del mundo real
son siempre afectados por la incertidumbre y ella está presente en la
mayoría o todos sus elementos. En algunos casos la incertidumbre se
puede modelar mediante probabilidades; Programación Estocástica es el
área que provee de teoría y técnicas para abordar problemas de este tipo.
Otra alternativa es la llamada Optimización Difusa en donde la
incertidumbre se modela usando los conceptos de conjuntos difusos y
una alternativa más reciente es la Optimización Robusta donde el objetivo
es normalmente optimizar una función objetivo del peor caso. Cualquiera
sea la modelación matemática usada, el modelo resultante conteniendo
incertidumbre es más complejo que el modelo clásico correspondiente.

Comentamos una última fuente de dificultad. Se trata de problemas de


optimización que naturalmente consideran dos o más funciones objetivos
a optimizar. Por ejemplo, queremos minimizar los costos de construir un
cierto número de plantas de una industria en expansión y también
queremos minimizar el impacto ambiental producido por la construcción
y operación de estas plantas. Los modelos matemáticos de Optimización
Multicriterio y Optimización Multiobjetivo se han desarrollado para
intentar resolver estos desafiantes problemas.

Respecto a las metodologías de resolución de problemas asociados a


Sistemas de Ingeniería, existe un importante grupo de técnicas,
algoritmos y programas disponibles. En particular, el modelo
de Programación Lineal y el algoritmo simplex y algoritmos de punto
interior, el modelo de Programación Lineal Entera y los
algoritmos Branch and Bound y Branch and Cut; estos modelos y
algoritmos han resuelto, por más de 50 años, importantes problemas de
optimización del mundo real. Sin embargo, la complejidad creciente de
problemas provenientes de Sistemas de Ingeniería junto a la complejidad
intrínseca de los problemas ha llevado a desarrollar una nueva clase de
algoritmos llamados Metaheurísticas.

Las Metaheurísticas son algoritmos que se comportan como heurísticas,


esto es, ellas no garantizan la obtención de una solución óptima para un
problema dado, solamente implica resolver un problema en forma
aproximada y en un tiempo razonable para la gran mayoría de las
aplicaciones reales. La gran distinción de las metaheurísticas respecto de
las conocidas heurísticas es que las primeras son algoritmos generales
de modo que se puedan adaptar a la gran mayoría de problemas de
optimización discreta y combinatorial. A partir de los años 80 ha habido
un desarrollo impresionante de investigación en torno a las
metaheurísticas. Nuevas ideas conducen a variantes de ellas o
definitivamente a nuevas metaheurísticas. Algunas de ellas son
Algoritmos Genéticos, Colonia de Hormigas, GRASP, Simulated
Annealing y Búsqueda Tabú. Existe una gran experiencia en el uso de
estos algoritmos para la resolución de problemas complejos en variadas
áreas de la Ingeniería y el desarrollo de nuevos esquemas de solución
más eficientes requiere de gran atención.

PROCESOS ESTOCASTICO

Es una colección de variables infinitas aleatorias

{xt=t ∈T } parametrizada por un conjunto t llamado espacio parametral en


donde las variables infinitas aleatorias toman valores de un conjuntos llamado
espacio de estados

Las ecuaciones diferenciales estocasticas se utilizan entre otras cosas para


modelar y estudiar dinamicas gobernadas por fenomenos aleatorios. Su rol en
la modernizacion de procesos de evolucion con componentes aleatorias, es
similar al de las ecuaciones diferenciales ordinarias para los procesos
deterministicos.

Supondremos que las variables aleatorias se pueden indexar mediante la


variable “t” que interpretamos como la variable tiempo y “xt” se interpretara
como el estado de un sistema al tiempo “t”.

DEFINICION DE LAS ECUACIONES DIREFERENCIALES

Una ecuación diferencial no es más que una regla que especifica un cambio,

en específico de la variable dependiente en función de una variable


independiente, en términos de la función y sus derivadas. Una ecuación

diferencial ordinaria del tipo:

dx
1). x= =a(t , x )
dt

Puede entenderse como la forma degenerada de una ecuación diferencial

estocástica en ausencia de aleatoriedad. Podemos reescribir como:

2). dx=a(t , x )dt

Aplicabilidad de las ecuaciones diferenciales estocásticas

La aplicabilidad de las ecuaciones diferenciales deterministas es reducida, si

queremos describir el comportamiento de sistemas sometidos a entornos o

parámetro que fluctúan. En ese caso debemos reemplazar la ecuación (1) por

la ecuación diferencial estocástico (ede)

3). X =A (t , X ,Y )

Donde y(t) representa explícitamente un proceso estocástico. Por supuesto, la

ecuación (3) es una ecuación más complicada que (1) desde dos puntos de

vista: dado que y(t) es un proceso estocástico, x(t) lo es también y por tanto, la

solución de (3) vendrá dada por el conocimiento de la distribución de

probabilidad de x(t) para cada tiempo (t), es decir, la solución de (3) es una

familia de las funciones, mientras que la de (1) es solo una función

Aplicaciones como Matlab


Los modernos lenguajes de programación hacen uso de la teoría de Lehmer

para implementar funciones que generan números seudo aleatorios, como

sucede con la función rand en Matlab.

Considere la situación de lanzar una moneda, si cae cara vale 1, en otro caso

-1, este proceso es conocido como random walk(caminata al azar), tiene

E ( Xn )=0 y Var ( Xn )=1

En la figura 1, se presenta una simulación haciendo uso de los números

aleatorios

En la figura 2, el codigo de matlab respectivo


Se puede apreciar el codigo en este algoritmo el cual genera la aleatoriedad

necesaria para analizar las variables, este se modela a partir de la ecuacion

diferencial estocastica, de la misma manera diferentes programas de analisis

financiero, basan sus algoritmos en modelos de ecuaciones diferenciales

estocasticas para hacer predicciones , proyecciones de riegos, compra de

ciertos productos y asegurar a las empresas.

Este es uno de los metodos mas acertados ya que en los que respecta el

futuro, solo existen variables aleatorias que nunca podran ser definidas antes

de tiempo.
Una ecuación diferencial (ED) es una ecuación que relaciona de manera no
trivial a una función desconocida y una o más derivadas de esta función
desconocida con respecto a una o más variables independientes. Si la función
desconocida depende de una sola variable la ecuación diferencial se
llama ordinaria , por el contrario, si depende de más de una variable, se
llama parcial .

Una ecuación diferencia es una ecuación que relaciona de manera no trivial a


una función desconocida y una o más derivadas de esta función desconocida
con respecto a una o más variables independientes. Si la función desconocida
depende de una sola variable la ecuación diferencial se llama ordinaria, por el
contrario, si depende de más de una variable se llama parcial

Se quiere mantener la temperatura de un cuarto con el propósito de que este

dispositivo sea utilizado en automóviles, aviones, laboratorios, hoteles y

muchos otros lugares en los cuales la temperatura del medio ambiente es hostil

o inadecuada. Necesita que este dispositivo sea automático, de tal forma que si

la temperatura exterior sufre un cambio nadie tenga que estar recalibrándolo.


Fig 1.

Primer diseño de automatización: En los primeros trabajos teóricos en

automatización se trabajó sobre dispositivos determinísticos. Muchos científicos

de principios del siglo XVIII creían que se podía construir un dispositivo que a

través de correctas mediciones iniciales podría mantener las condiciones

deseadas por mucho tiempo. El diseño aún sigue en pie, pero es muy poco

práctico, porque funciona solo para sistemas en los cuales un dispositivo tenga

que controlar un pequeño número de variables y en condiciones ideales.

Además, la mayoría de veces lleva más esfuerzo idealizar el sistema que lo

que cuesta el dispositivo controlador. José Alberto Morán Tobar carne 07054

Ecuaciones Diferenciales Segundo diseño de automatización: Digamos que la

temperatura que se desea son 10 C. Si la temperatura ambiente es de 20 C

entonces el dispositivo tendría que extraer calor a una tasa constante hasta

que la temperatura llegue a 10 C. Esto lo sabría mediante un sensor de

temperatura. Este diseño de automatización se muestra en la Fig 2 y sus

construcciones en serie corresponden a principios del siglo XVIII. Tuvo sus

orígenes en el trabajo de James Clerk Maxwell en 1868 con la construcción de

un controlador de centrífuga. (Kilian, 2005)

Fig 2
Rápidamente usted se dará cuenta que es un diseño ineficiente, puesto que si

la diferencia de temperatura entre el ambiente y la deseada es grande el

dispositivo tardaría mucho tiempo en lograrla como se muestra entre las

unidades de tiempo 2 y 3 de la Fig 2. Podría pasar que, en el transcurso, el

ambiente cambie y la trayectoria del dispositivo sea incorrecta,

desestabilizando todo el sistema. Los primeros estudios de estabilidad fueron

hechos por Edward John Routh siendo discípulo de Maxwell y por Adolf

Hurwitz. Esto tendría grandes implicaciones en el camino de la automatización.

(Kilian, 2005) Tercer diseño de automatización: Se podría pensar en un diseño

en el cual la taza de extracción de calor sea proporcional a la diferencia de

temperatura entre el ambiente y la temperatura deseada. Este diseño es

denominado PI, y su implementación corresponde a mediados del siglo XIX.

Uno de los principales problemas que se observó es que los dispositivos PI son

extremadamente difíciles de calibrar. Porque un pequeño cambio en su


calibración los vuelve muy sensibles a los cambios de temperatura, esto

ocasiona una persecución del ideal, como se puede observar en la Fig 3.

(Sellers, 2005)

Es decir el dispositivo constantemente esta cambiando su taza de extracción

de calor lo que ocasiona una gráfica oscilante. Este constante cambio aplica

mucho estrés a los mecanismos que terminan fallando o en necesidad de

recalibración cada pequeño período de tiempo. José Alberto Morán Tobar

carne 07054 Ecuaciones Diferenciales

Cuarto Diseño de automatización: Aquí entra el concepto de ecuaciones

integro-diferenciales y el criterio de estabilidad. Por sistema estable

entendemos aquel que tiene una respuesta natural que decae de manera

exponencial hacia cero conforme el tiempo tiende al infinito. (Barbastahis,

2007) Para introducir este diseño comencemos analizando su forma general:

Kp : ganancia proporcional del dispositivo Ki : ganancia integral del dispositivo

Kd : ganancia diferencial del dispositivo α : desviación proporcional al nivel


deseado En términos simples es un sistema en el cual la salida es controlada

por tres términos. Uno proporcional uno integral y uno diferencial. Es

denominado PID. El término que contiene la integral revisa a la desviación

acumulada sobre el tiempo y ajusta la salida del dispositivo para tratar de

eliminarla como se observa en la Fig 4 (comparada con un sistema con solo el

primer término).

En nuestro caso si la temperatura se aleja el sistema este trata de acercarse lo

más rápido posible hacia la temperatura objetivo. (Sellers, 2005) El término que

contiene la derivada revisa la taza a la que la desviación cambia con el tiempo

y ajusta la salida del dispositivo para minimizarla. En nuestro caso minimizaría

cambios abruptos en la extracción de calor si el ambiente cambia drástica y

repentinamente, dándole un suave aterrizaje hacia la temperatura deseada.

Esto se observa en la figura 5 (comparada con un sistema sólo con el primer

término).(Sellers, 2005)
Las ecuaciones de redes neuronales diferenciales que describen la dinámica

lenta y rápida de un sistema perturbado singularmente o en escalas de dos

tiempos, en forma de ecuación de estado son:

donde: x ∈ Rn, z ∈ Rn son las variables de estado, A ∈ Rn×n, B ∈ Rn×n son las

matrices de estabilidad (Hurwitz). W1 ∈ Rn×2n, W2 ∈ Rn×2n, σ1 (x, z) ∈ R2n,

σk (x, z) = [σk (x1)··· σk (xn), σk (z1)··· σk (zn)]T ∈ R2n , φ(·) es R2n×2n matriz

diagonal, φk (x, z) = diag [φk (x1)··· φk (xn), φk (z1)··· φk (zn)] , k = 1, 2. En la

figura (3.1), se muestra la estructura de red neuronal diferencial recurrente, que

modela la ecuación de red neuronal con perturbación singular (3.1). Y también

se muestra en la figura (3.2) la misma estructura de red neuronal diferncial

recurrente, pero sin entrada u y puede tener o no, capas de neuronas ocultas.

Comentario 3.1 La red neuronal dinámica (3.1) ya ha sido dicutida por mucho

autores, por ejemplo, [12],[8],[10] y [17]. Se puede observar que el modelo de

Hopfield es una caso especial de esta red neuronal con A = diag {ai} , ai := − 1

RiCi , Ri > 0 y Ci > 0. Ri y Ci son la resistencia y capacitancia en el i − esimo ´

nodo de la red, respectivamente. Comentario 3.2 Un caso general, de redes

neuronales diferenciales con entrada de control con y sin capas de neuronas

ocultas son:
donde u(k)=[u1, u2 ··· um, 0, ··· 0]T ∈ R2n, W1 ∈ Rn×2n, W2 ∈ Rn×2n, W3 ∈

Rn×2n y W4 ∈ Rn×2n son las matrices de pesos, σk (x, z)=[σk (x1)··· σk (xn),

σk (z1)··· σk (zn)]T ∈ 3.1 Estuctura de redes neuronales con diferentes escalas

de tiempo

R2n , φ(·) es R2n×2n matriz diagonal, φk (x, z) = diag [φk (x1)··· φk (xn), φk

(z1)··· φk (zn)] , k = 1, 2. El análisis de estabilidad de estas redes neuronales


diferenciales pueden fácilmente ser extendidas de los resultados de

investigaciones realizadas en esta tesis. Pero también es posible considerar

una muy semejante red neuronal dinámica de Hopfield con capas de neuronas

ocultas:

donde: x, z son las variables de estado de la red neuronal, A, B son las

matrices de estabilidad Hurwitz, W1, W3 son las matrices de salida de los

pesos de las capas externas, W2, W4 son las matrices de salida de los pesos

de las capas externas, V1, V2, V3, V4 son las matrices de los pesos de las

capas ocultas, σ1, σ2, φ1, φ2 son las funciones de activación generalmente no

lineales y u es la entrada de la red. Pero también es posible modelarla,

agregando las variables de estado involucradas en un sistema sometido a

perturbaciones singulares:
1. Real Academia Española. Diccionario. XXII Edición. España. 2001.

[consultado Nov 2008] http://buscon.rae.es/draeI/SrvltConsulta?

TIPO_BUS=3&LEMA=autom%E1tica

2. Agarwal Anat, Foundations of Analog and Digital Electronic Circuits (The

Morgan Kaufmann Series in Computer Architecture and Design). II Edición.

MIT. 2005.

3. Lewin Walter PhD. Electricity and Magnetism. OpenCourseWare. Code 6.02.

Massachusetts Institute of Technology. Estados Unidos. 1999.

4. Mattuck, Arthut Prf. Miller, Haynes Prf. Differential Equations.

OpenCourseWare. Code 18.03. Massachusetts Institute of Technology.

Estados Unidos. 2006.

5. Barbastahis, George, et al. Systems, Modeling, and Control II.

OpenCourseWare. 2.004. Massachusetts Institute of Technology. Estados

Unidos. 2007.

6. Sellers David Eng. An Overview of Proportional plus Integral plus Derivative

Control and Suggestions for Its Successful Application and Implementation.

Portland Energy Conservation Inc, Portland, Oregon. Estados Unidos. 2005

7. Stauffer Yves. Analog PID module . Semester Project. Autonomous System

Lab, ETH Zurich. 2004

8. Raymond, Serway. Fisica para ingenieros. VI Edición. Thomson Learning.

México. 2005
9. Kilian Christopher. 2005. Modern Control Technology. Thompson Delmar

Learning. 10.Imagenes tomadas bajo licencia FairUse, o CreativeCommons

según el caso. 11.HowStuffWorks. Discovery Communications. 2008.

[consultado Nov 08] http://computer.howstuffworks.com/inkjet-printer.htm

12.Wikipedia. Control Theory. Nov 2008.

http://en.wikipedia.org/wiki/Control_Theory

También podría gustarte