Está en la página 1de 26

INFORME INGENIERÍA DE SISTEMAS I PRÁCTICA II: SISTEMA SUSPENSIÓN VAGONETA

Elena Íñiguez Biurrun 902099

1

0.- RESUMEN
En este documento se recoge toda la información relativa al estudio del sistema de suspensión de una vagoneta para transporte de mercancías que se ha llevado cabo en las clases prácticas de la asignatura. Como introducción se presentará brevemente el problema, y se comentarán tanto los métodos utilizados en la resolución del mismo como los objetivos. Seguidamente se llevará a cabo la resolución matemática y posteriormente se discutirán tanto los resultados intermedios como finales, así como la eficacia de los métodos numéricos utilizados. realizado. Finalmente se comentarán las conclusiones generales del estudio

2

Conclusiones…………………………………………. Introducción………………………………………………. Resultados y Discusión……………………………….1. Estimación parámetros MATLAB 7. Criterios de terminación 4. Estimación parámetros Microsoft Office Excel 6.ÍNDICE 2.….3.14 6.5 3..26 3 ..4 3.2..1. Algoritmos de Gradiente 3.. Resolución matemática del sistema……………12 6. Materiales y Métodos………………………………. Algoritmos de Búsqueda 3.1. Objetivos del estudio…………………………………..11 5..2.

Los datos recogidos se recogerán en una tabla para su posterior uso. 4 .. se ha tomado como variable de salida la elongación del sistema L(t). puesto que los valores de la constante de rigidez “K” y la constante de amortiguamiento “C” son desconocidos. ha sido posible determinar la respuesta del sistema. Respecto al modelado matemático. Antes de ponerla en marcha. A partir de este modelo y conocidos los parámetros C y K. La suspensión puede ser modelada de forma simplificada según el esquema siguiente: Un sensor de posición registra los datos de L(t) con una frecuencia de 10 Hz durante los 5 primeros segundos desde el momento de colocar carga.2. La problemática se plantea al resolver la estimación de los parámetros del sistema.INTRODUCCIÓN Se ha estudiado el funcionamiento de un sistema de suspensión de una vagoneta cuya finalidad es el transporte de mercancías. se quieren conocer los parámetros que definen el sistema para poder simular su comportamiento en el circuito y así optimizar su uso.

de manera que el algoritmo es equivalente a ir desplazándose a lo largo de la dirección en la que la función de coste decrece más rápidamente.1 Algoritmos de Gradiente: Los Algoritmos de Gradiente constituyen una familia de algoritmos basadas en la propiedad de que. Estos algoritmos permiten ir acercándose a un mínimo de la función de coste en sucesivas iteraciones. Emplea R i = I . Las técnicas y algoritmos empleados pertenecen a dos grandes familias: los Algoritmos de Gradiente y los Algoritmos de Búsqueda.MATERIALES Y MÉTODOS La resolución del problema de ajuste de la función se ha llevado a cabo basándose en el conocimiento teórico de los métodos de optimización de funciones por minimización del error residual entre los datos experimentales y las predicciones del modelo. La ventaja de es que se garantiza que la dirección de desplazamiento es siempre una dirección en la que la función de coste disminuye.. según los valores de C y K. A continuación se presentan los diferentes algoritmos empleados en la estimación de los parámetros desconocidos del sistema estudiado. el vector gradiente en un punto marca la dirección según la cual la derivada direccional es máxima. se ha apreciado las diferencias existentes entre el modelo y los datos experimentales. Ley de recurrencia: θˆ i +1 = θˆi − pi ⋅ [Ri ] ⋅ qi Algoritmo de máxima pendiente Es el más sencillo de todos. Como soporte informático para la implementación de estos algoritmos se ha utilizado el programa MATLAB. Un inconveniente es que el comportamiento 5 .3. Por tanto. Previamente se ha relizado un estudio del ajuste de la función predicha por el modelo respecto de los datos experimentales disponibles en Microsoft Office Excel. 3. un movimiento en la dirección del menos gradiente supondrá un desplazamiento en la dirección en la que la función decrece con mayor rapidez. que gracias a su gran capacidad para representar gráficamente los datos.

ˆ H jk (θ ) = ∂ 2φ ˆ ˆ ∂θ ∂θ j k La idea detrás de este algoritmo es situar cada nuevo punto en el mínimo de la parábola que mejor aproxima la función de coste en la iteración anterior. denominado Algoritmo de Marquardt. la convergencia del algoritmo es tanto más rápida cuanto más cerca se encuentra la estimación inicial del mínimo de la función de coste. La convergencia del Algoritmo de Newton-Rapshon es mucho más rápida en general que la del Algoritmo de Máxima Pendiente. la matriz Hessiana puede no ser definido-positiva. sino también de las derivadas segundas. el Algoritmo de Newton recoge información no sólo de las derivadas primeras de la función de coste. el algoritmo necesitará un gran número de iteraciones para acercarse a la solución óptima y además tenderá a oscilar alrededor de la solución. pues para puntos lejanos del mínimo. donde H i−1 es la matriz Hessiana de la función de coste ˆ ˆ φ (θˆ) evaluada para θ = θ i . lo que lleva a que el algoritmo se comporte mal y no se obtenga una disminución de la función de coste de una iteración a la siguiente. - Algoritmo de Newton Utiliza p i = 1 y R i = H i−1 . Algoritmo de Marquardt Para combinar los métodos de Máxima Pendiente y Newton-Rapshon lográndose un algoritmo con las ventajas de cada uno ellos. 6 . Esto supone una limitación del método de Newton. Si por ejemplo la estimación inicial se encuentra lejos del mínimo y el valor del paso es pequeño. como se ha señalado. Como norma general. se ha desarrollado un nuevo algoritmo. requiriendo un número de iteraciones mucho menor en la búsqueda de solución óptima. de manera que el vector gradiente es casi nulo en todos los puntos. Otra causa por la que el algoritmo puede fallar es cuando la función de coste toma forma de valle poco pronunciado. de manera que en los puntos lejanos al óptimo garantizase una dirección de descenso y en los puntos cercanos al óptimo una convergencia rápida.del algoritmo y su convergencia están muy marcados por el valor del paso. Para evitar este comportamiento. Esto se debe a que.

cuanto más cerca se encuentra el punto de partida del óptimo de la función de coste. Los elementos de la matriz Hessiana puede calcularse de la siguiente manera: Si se desprecia el término en el que aparece como factor el error residual se obtiene una estimación aproximada de los elementos de la matriz Hessiana de la siguiente forma: En general.Se define la siguiente matriz: R i = ( H i + λi ⋅ Bi2 ) −1  H ii 1 / 2 si → ( H ii ≠ 0)  Donde B ii =  1si → ( H ii = 0)  R i será definido positiva si λi toma un valor suficientemente algo. Algoritmo de Gauss Mediante este método evitamos el cálculo de las derivadas segundas que en el caso del método de Newton eran necesarias. mientras que en las cercanías de la solución λi se puede ir reduciendo y el comportamiento del algoritmo se asemeja más al de Newton. 7 . más similares son el Algoritmo de Gauss y el de Newton. No requieren por lo tanto el cálculo de derivadas como ocurre con los Algoritmos de Gradiente. el término λi ⋅ Bi2 domina al término H i y el algoritmo se asemeja al de máxima pendiente. Cuando la estimación está lejos del mínimo y λi toma valores grandes. Ello hace que la implementación del algoritmo sea más sencilla y requiera un coste computacional menor.2 Algoritmos de Búsqueda: Los Algoritmos de Búsqueda son una familia de métodos que actualizan el vector de parámetros estimados a partir de tan sólo evaluaciones de la función de coste. 3.

. pues no recogen información del gradiente o las derivadas de orden superior de la función de coste. ˆ Si Φ(θ ) > Φ(θ k ) se desecha la extrapolación y se mantiene como punto base θˆk . Pn • Se toma la dirección P1 y se realiza un paso δ1 ˆ ˆ o Si Φ(θ k −1 + δ 1 ⋅ P1 ) ≤ Φ (θ k −1 ) se conserva el nuevo punto.Poseen la ventaja de que. ˆ ˆ Si Φ(θ k −1 − δ 1 ⋅ P1 ) ≤ Φ (θ k −1 ) se conserva el nuevo punto ˆ ˆ Si Φ(θ k −1 − δ 1 ⋅ P1 ) > Φ(θ k −1 ) se desecha el nuevo punto • Se repite el proceso para las direcciones P2. la convergencia está garantizada. θ1 . θ 2 .δ1 en la dirección P1. …. Algoritmo de búsqueda patrón Es un método de búsqueda secuencial que alterna de manera consecutiva movimientos de exploración y extrapolación.. 2 fases: a) Exploración ˆ A partir de un punto base genérico θ k +1 y teniendo definida una base ortonormal P1.. ˆ ˆ o Si Φ(θ k −1 + δ 1 ⋅ P1 ) > Φ (θ k −1 ) se desecha el nuevo punto y se realiza un paso . o o ˆ ˆ Si Φ(θ ) ≤ Φ (θ k ) se toma θ como nuevo punto base θ k +1 . Su inconveniente reside en la necesidad de un mayor número de iteraciones hasta alcanzar el óptimo. Pn y se obtiene el nuevo punto base θˆk b) Extrapolación ˆ A partir del punto base θ k • Se hace una extrapolación con la magnitud y sentido de la resultante de la exploración previa: • Alrededor de este nuevo punto se realiza un nuevo movimiento de exploración obteniéndose un nuevo punto θ . 8 . P3 …. θ k . P2.Cada una de estas estimaciones tendrá un valor de la función de coste asociado menor que el anterior. dando lugar a sucesivas estimaciones del vector ˆ ˆ ˆ de parámetros desconocidos. en general..

. v 2 . • • • • Cuando un vértice se encuentra en las cercanías del mínimo.. figura geométrica formada por (n+1) puntos equidistantes entre sí.3 Criterios de Parada Todo algoritmo que devuelva una salida ha de finalizar. permanecerá siempre como vértice del simplex mientras el resto de vértices rotan a su alrededor. En el caso particular de los métodos de estimación de parámetros empleados. Si la edad de alguno de los vértices es superior a un valor fijado de antemano.…. δn se hacen más pequeños y se continúa la secuencia. El algoritmo se basa en evaluar la función de coste en los vértices de un simplex que va moviéndose por el espacio. 3. interesará que los algoritmos terminen. La búsqueda finaliza cuando se satisface el criterio de parada correspondiente. el número de iteraciones que un determinado vértice ha formado parte del simplex. se reduce el tamaño del simplex manteniendo el vértice con menor función de coste.. hasta que alcancen un valor mínimo escogido como criterio de terminación. v n Excluyendo el vértice más nuevo. es decir. los pasos de la exploración δ1. Método Simplex Es un método de búsqueda secuencial basado en el concepto de simplex regular. δ2. • ˆ Se define un simplex regular cuyos vértices equidisten de la estimación inicial θ 0 Para cada iteración: • • Se evalúa la función de coste en cada uno de los vértices del simplex v1 . en un número finito de pasos. por definición. se reemplaza el vértice con mayor valor de la función de coste por su imagen especular respecto del centroide formado por los n vértices restantes.Cuando los movimientos de exploración y extrapolación son incapaces de reducir la función de coste. cuando se haya excedido un determinado número 9 . El chequeo de la edad de los vértices del simplex permite reducir el tamaño de la figura y refinar la búsqueda. La estimación del vector de parámetros desconocidos en cada iteración es el punto central del simplex.. Se evalúan las edades de los vértices.. bien cuando la solución hallada sea lo suficientemente buena y se encuentre cerca del óptimo o.

de iteraciones y el algoritmo no converja. A continuación se citan los criterios vistos en clase y que han sido utilizados en la práctica: 1. ˆ 2. En la práctica se ha optado por imponer como criterio de parada el del gradiente.φ (θ ) ≤ Σ1 3.Nºestimaciones ≥ Nmax El número de iteraciones exceda un límite superior. se finalice si dichas variables se reducen por debajo de un cierto valor de tolerancia.- φ (θˆ) i +1 − φ (θˆ) i ≤ Σ 2 (en relativo) Que la diferencia entre los valores de la función φi +1 ˆ dφ (θ ) ≤ Σ 3 La norma del vector gradiente sea menor que un cierto valor de ˆ dθ de coste en una iteración y la anterior sea menor que un cierto valor de tolerancia. aunque para el algoritmo de máxima pendiente. 4 . se han implementado todos para entender más a fondo su funcionamiento 10 . Los criterios 3 y 4 son similares y pueden emplearse casi indistintamente... donde existen variables de paso o tamaño del simplex. el vector gradiente en el punto óptimo es nulo) 5.- tolerancia (recuérdese que si el problema tiene solución.- ˆ dφ (θ ) ˆ dθ − i +1 ˆ dφ (θ ) ˆ dθ i ˆ dφ (θ ) ˆ dθ ≤ Σ4 i +1 En los Algoritmos de Búsqueda.

OBJETIVOS DEL ESTUDIO • • • Modelar matemáticamente el sistema de suspensión de la vagoneta y obtener la ecuación diferencial que rige su comportamiento. empleando distintos métodos.. Estimar los parámetros C y K del sistema a partir de los datos experimentales. 11 . Discutir la validez de los métodos de estimación de parámetros empleados y realizar un análisis comparativo.4.

C – constante de amortiguamiento. && & − M ⋅ L − k ⋅ ( L − L0 ) − L ⋅ c − M ⋅ g = 0 && & M ⋅ L + L ⋅ c + k ⋅ L = k ⋅ L0 − M ⋅ g E Donde: M – carga sobre la vagoneta. Para efectuar el análisis de un sistema. El modelo matemático equivale a una ecuación matemática o un conjunto de ellas en base a las cuales podemos conocer el comportamiento del sistema.. 12 . K – constante de rigidez. en el sentido positivo de L(t). es necesario obtener un modelo matemático que lo represente. Modelado Matemático del Sistema Suponemos que la masa se desplaza hacia arriba.RESOLUCIÓN MATEMÁTICA DEL PROBLEMA En este apartado se procederá a desarrollar matemáticamente el problema.5.

el cual se supondrá subamortiguado en todo momento. que el sistema es lineal de 2º orden. La frecuencia natural y el amortiguamiento relativo del sistema serán:    2  → ω′ = ω 1 − ξ c  ξ= 2⋅ k ⋅M   ω= k M La respuesta del sistema tiene la siguiente forma. L(t ) = e −ξωt ⋅ ( D ⋅ cos(ω ' t ) + F sin(ω `t ) Aplicamos las condiciones de contorno para obtener las constantes D y F: • L(0) = 1m 1 = ( D ⋅ cos(0) + F ⋅ sin(0) + • E E ⇒ D =1− donde E = k ⋅ L0 − M ⋅ g k k & L ( 0) = 0 & L = −ξ ⋅ ω ⋅ e −ξωt ⋅ ( D ⋅ cos(ω ' t ) + F ⋅ sin(ω ' t ) + e −ξωt ⋅ (− D ⋅ ω '⋅ sin(ω ' t ) + F ⋅ ω '⋅ cos(ω ' t ) & L(0) = −ξ ⋅ ω ⋅ D + F ⋅ ω ' F ⋅ ω' = ξ ⋅ ω ⋅ D ⇒ F = ξ ⋅ω ⋅ D ω' 13 . por ser un sistema subamortiguado.Se puede afirmar por tanto.

RESULTADOS Y DISCUSIÓN A continuación se comentarán los resultados obtenidos. y finalmente utilizando la herramienta SOLVER llegaremos a los valores óptimos de los mismos. se presentarán los resultados a los que se ha llegado mediante la implementación de los Métodos de Optimización (Algoritmos de Gradiente y Algoritmos de Búsqueda) en MATLAB.6.5 1 1.8 ELONGACIÓN (m) 0.2 0 0 0. Como último punto se valorará la validez de los métodos empleados.2 1 0.5 3 3.6 L medida(m) 0. Para esta situación. se obtiene la gráfica siguiente: EVOLUCIÓN de la ELONGACIÓN 1. Se mostrarán gráficamente los caminos seguidos por cada programa hasta llegar al punto donde la función de coste toma el valor mínimo.1.4 0. donde se representa gráficamente el ensayo realizado. 6.5 4 4.5 5 TIEMPO (s) 14 . a través del cual se han recogido los datos de algunas elongaciones en distintos tiempos L(t ) gracias a un sensor de posición. Se verá gráficamente la variación del modelo según los parámetros C y K que se estimen. Primeramente se presentará el trabajo realizado con el programa Microsoft Office Excel. ESTIMACIÓN DE PARÁMETROS en Microsoft Office Excel Como se ha comentado con anterioridad.. gracias a esta herramienta es muy sencillo representar gráficamente el ensayo realizado. Habiendo medido unas determinadas elongaciones para distintos tiempos. se calcularán los valores de C y K (serán las coordenadas) y éstos serán los parámetros óptimos. Seguidamente.5 2 2.

2 1 0.2 1 0.5 1 1.Tras haber realizado el modelado que represente este sistema real.5 2 2.2 0 0 0.6 L medida(m) L estimada (m) 0.6 L medida(m) L estimada (m) 0.4 0. que no es el error mínimo.5 1 1.5 3 3.4 0.5 4 4. la elongación estimada gracias al modelo no se corresponde totalmente con los datos experimentales: EVOLUCIÓN de la ELONGACIÓN 1. Como se observa en las siguientes gráficas.8 ELONGACIÓN (m) 0.2 0 0 0.5 2 2.5 4 4. surge el problema de la estimación de los parámetros C y K que ajusten de la mejor manera posible este modelo a los datos experimentales.5 3 3. Si utilizamos ahora la herramienta SOLVER del programa.5 5 TIEMPO (s) En este caso particular hemos dado los valores:  C = 6500 y se ha obtenido un  K = 86000 valor del error residual de 0. si se les dan unos valores iniciales cualquiera a los parámetros C y K. conseguiremos minimizar este error y por tanto obtendremos los valores óptimos de C y K: EVOLUCIÓN de la ELONGACIÓN 1.8 ELONGACIÓN (m) 0.197107577.5 5 TIEMPO (s) 15 .

C = 4683.2 0 0 0. se ha llevado a cabo la resolución del modelo mediante el método de Euler y.5 5 TIEMPO (s) Otra cuestión es la de si estos datos experimentales se corresponden con la realidad física que se desea medir (¿cuál es la magnitud de los errores de medida? En el experimento llevado a cabo.014711477. puede darse por válido ya que ambas curvas se ajustan de forma muy buena a los datos experimentales.16067 y un valor del  K = 75303. los datos experimentales registrados no serán exactos.5 1 1. se puede considerar: 16 .2 1 0. Debido a que en la realidad física ningún instrumento de medición posee una fiabilidad o exactitud infinitas. EVOLUCIÓN de la ELONGACIÓN 1.7556 Para la validación de esta herramienta.Se puede apreciar que para la estimación de las constantes C y K obtenida gracias a esta herramienta. el modelo matemático predice casi exactamente la respuesta del sistema. se han recogido datos sobre la posición durante un cierto tiempo.5 4 4. sino que poseerán un determinado error experimental. Así.5 3 3. se ha excitado el sistema mediante una entrada escalón y a continuación.6 L estimada (m) Euler 0.4 0.5 2 2. existiendo muy poca diferencia entre los datos experimentales y las predicciones del modelo. como se ve en el gráfico siguiente. Para este caso se han obtenido unos valores de C y K:  error residual: 0.8 ELONGACIÓN (m) L medida(m) 0.

 Cuanto más precisos sean los instrumentos de medida. Cabe mencionar.θ ) +ε (k ) donde x(k) . los valores de los pasos. En los distintos algoritmos implementados en MATLAB podrá conocerse el valor de los mismos. En algunos. Si estuviesen perfectamente calibrados.   θ . se han empleado una serie de métodos y técnicas basadas en la minimización del error residual entre los datos experimentales y las predicciones del modelo matemático para la estimación de los valores desconocidos C y K. no es fácil este análisis. recogiendo un mayor número de datos. el número máximo de iteraciones. el ángulo con el que se define el simplex inicial. como se ha explicado con anterioridad. por ejemplo: la tolerancia. 6.0147   K = 75325 En cuanto a la comparación de los algoritmos que se llevará a cabo a continuación. Estos parámetros son. los factores de reducción/ampliación. menos error habrá entre los datos reales y los experimentales. menor sería el efecto de la variabilidad de los datos registrados por el sensor de posición. se evaluará continuamente en cada paso la función de coste (Algoritmos de Búsqueda) y en otros apenas (Máxima pendiente). u(k) . como se ha visto en la teoría. hubiera sido repetir el experimento más veces. ESTIMACIÓN DE PARÁMETROS en MATLAB En la práctica. Por esta razón. los diferentes algoritmos poseen parámetros arbitrarios que es necesario definir.vector de entradas conocidas en el instante k.2.medida experimental en el instante k. A continuación se compararán los siguientes aspectos de los métodos implementados. lo mejor para asegurar la fiabilidad del modelo y la validez de la estimación de las constantes C y K.x (k ) = f (u (k ). cabe mencionar que debido a la diferente forma de trabajar de cada algoritmo. 17 . Cuantos más datos se dispusieran. Todos los algoritmos empleados han convergido dando como resultado óptimo el mismo vector de parámetros estimados: C = 4679 ⇒ φ = 0. si aumentásemos el número de medidas. ε (k) .vector de parámetros desconocidos n + 1 .error experimental o de medida en el instante k. el error experimental terminaría tendiendo a cero.

cada una con unas estimaciones iniciales distintas. en función de cómo se elijan los parámetros del algoritmo. • ALGORITMO DE NEWTON (Criterio Terminación 1) En este caso se observa cómo la velocidad de convergencia es más elevada que en el caso anterior.– Velocidad de convergencia (Función de Coste – Número de Iteraciones) Se ha visto que los valores óptimos de estos parámetros no sólo dependen del algoritmo empleado. 18 . A continuación se muestran las gráficas obtenidas para cada uno de los algoritmos: – Algoritmos de GRADIENTE • ALGORITMO DE MÁXIMA PENDIENTE (Criterio Terminación 1) En la gráfica se observa cómo la velocidad de convergencia de este algoritmo comienza siendo muy elevada. Por tanto. Se apreciará más cumpliendo el cuarto criterio (lo veremos con Marquardt) el pico que aparece en la gráfica y se explicará a qué se debe. pero llega un momento en el que se suaviza y llega al mínimo coste más adelante. este convergerá con mayor o menor rapidez. En la gráfica está representado el comportamiento para el caso del algoritmo cumpliendo el primer criterio de terminación. deberemos ejecutar el algoritmo varias veces. sino también del problema que se estudia y la estimación inicial de la que se parte. hasta que una de ellas dé lugar a un número menor de iteraciones. Para conseguir una combinación adecuada de parámetro C y K.

como se ha comentado con anterioridad.01 (Criterio Terminación 4) λ = 20 (Criterio Terminación 4) El algoritmo de Marquardt.01 (Criterio Terminación 1) λ = 20 (Criterio Terminación 1) λ = 0.• ALGORITMO DE MARQUARDT λ = 0. En ese caso no se puede asegurar que el punto hallado sea el óptimo de la función de coste salvo que se tomen una serie de medidas. Un problema que presentan estos algoritmos es que la función de coste puede presentar varios mínimos locales. se comporta de la misma forma que el algoritmo de máxima pendiente. Cuando λ toma valores menores. En este sentido la función de coste del problema planteado sólo tiene un mínimo. el algoritmo pasa a funcionar como Newton. para valores de λ elevados. 19 . El pico que presenta la gráfica para λ =0.01 se debe al mínimo que presenta la función de coste.

• ALGORITMO DE GAUSS Se ve que posee una velocidad de convergencia muy elevada. – Algoritmos de BÚSQUEDA • ALGORITMO DE BÚSQUEDA DE PATRÓN • MÉTODO SIMPLEX Se aprecia que el Algoritmo Simplex es el que más lentamente converge hacía la solución óptima. 20 . requiriendo un gran número de estimaciones para ello.

Se van a comparar los algoritmos de gradiente cuando utilizamos el cuarto criterio de terminación (con el que llegamos al óptimo) y se verán tanto el tiempo como las iteraciones que han hecho falta. como se comentaba anteriormente. MÉTODO Máxima Pendiente Newton Marquardt Gauss Búsqueda Patrón Simplex Tiempo(segundos) 0. El algoritmo de Búsqueda de patrón es el más lento. De todos se parte de las mismas estimaciones iniciales. Ello se ha conseguido cronometrando dicho tiempo mediante la herramienta “tic toc” de MATLAB. – Trayectoria del algoritmo Para el problema particular estudiado. No obstante se ven penalizados por el hecho de requerir un gran número de iteraciones hasta encontrar la solución óptima. que para el problema considerado. Se puede decir.701572 Iteraciones 220 5 525(tipo máx pend. la función de coste “se comporta bien”. se observa la ventaja que supone el empleo de un cálculo aproximado de la matriz Hessiana en el coste computacional.01) 0.108747( λ =0. ya que se logra reducir éste. por lo tanto.01882936 0.0098861 0.0015668 0.078342 1.0081806 Al comparar los algoritmos de Newton-Rapshon y Gauss.889464( λ =20) 0. con C=5600 y K=86000. todos los algoritmos son estables y logran la convergencia en un número finito de iteraciones independientemente del valor de la estimación inicial.809672 1.0019186 0.048111 0.0060139 0.– Coste computacional Se ha medido el tiempo medio requerido por cada algoritmo para hallar la solución óptima. El método Simplex es uno de los más veloces en cuanto a coste computacional de cada operación.003599 0.) 11(tipo Newton) 8 43 208 Tiempo/iteración 0. 21 . Esto es debido a que.422086 0. todos los algoritmos han sido capaces de encontrar el vector de parámetros estimados óptimo en un número finito de operaciones.

en cada caso particular.01 Algoritmo Gauss 22 . – Algoritmos de GRADIENTE Algoritmo Máx. Pendiente Algoritmo Newton Marquardt λ =20 Marquardt λ =0. las trayectorias seguidas por cada algoritmo en la búsqueda de la solución óptima.Se mostrarán a continuación.

Representamos la unión entre los centros. 23 .– Algoritmos de BÚSQUEDA Algoritmo Búsqueda Patrón(paso 100) Algoritmo Búsqueda Patrón(paso 500) Método Simplex: 3 formas representación: Representamos los vértices. es decir. los sucesivos valores que toma la función de coste en cada etapa.

fijándose tan sólo en las trayectorias representadas.Representamos los simplex enteros. pueden comentarse. aunque no se haya llevado a cabo la implementación de estos mapas. se utilizan los mapas de convergencia. Se puede intuir de manera aproximada. Los puntos en los que harán falta menos iteraciones para llegar al óptimo. qué algoritmos son más directos y dan lugar a un menor número de iteraciones en la búsqueda de la solución óptima. Además también es importante el alor de las parámetros desconocidos en la estimación inicial. 24 . – Mapas de Convergencia La estructura del algoritmo es determinante para saber el número de iteraciones necesarias para que éste converja. Debido a la falta de tiempo que he tenido para la realización de este punto de la práctica. después de habernos informado. serán aquellos pertenecientes a las tangentes del vector gradiente de la función de coste. Par a conocer cuánto deben valer estos parámetros para que el algoritmo converja. De todas formas. En el caso del algoritmo de Máxima pendiente. no he podido obtener las zonas de convergencia de cada algoritmo. habrá mucha diferencia en la rapidez de convergencia del algoritmo según la estimación inicial elegida. para ver el procedimiento seguido de forma más visual. algunos puntos de cómo serían éstos para cada caso particular.

se comportará de forma similar al algoritmo de Máxima pendiente. Como característica del algoritmo de Marquardt. pero como ventaja no tenemos que preocuparnos tanto en la elección de la estimación inicial. donde la velocidad de convergencia será mayor cuanto más cerca del óptimo estimemos los valores iniciales..En resumen puede comentarse que este algoritmo posee la ventaja de que la dirección de movimiento es siempre una dirección de decremento de la función de coste. En cuanto al algoritmo de Newton puede comentarse el hecho de que la velocidad de convergencia es mayor que en el algoritmo anterior. Como contrapartida se pierden las zonas de convergencia rápida que presentaban Newton y Marquardt. Finalmente puede comentarse acerca del algoritmo de Gauss. El algoritmo de Marquardt es uno de los algoritmos más rápidos de todos los que se han empleado en la práctica. para estimaciones iniciales lejanas. especialmente cuando los puntos se encuentran cerca del óptimo y la función de coste posee forma de valle poco pronunciado. acelerando la convergencia por tener importancia la dirección del vector gradiente (en sentido negativo). Ocurre igual que en Newton. que la novedad que introduce es la de una zona de convergencia más uniforme. Como desventaja. tendrá la ventaja frente a Newton de que. puesto que con todas se comportará de forma similar. 25 . Ésta además aumentará considerablemente cuanto más cerca se encuentre la estimación inicial de la solución del problema. el algoritmo puede ser lento y requerir un gran número de iteraciones hasta converger a la solución óptima.

Gracias a ellos. siendo esta estimación suficientemente válida. . Además. que permite estimar de una manera muy sencilla estos parámetros. 26 . en la mayoría de casos esto no es posible por tratarse de sistemas no lineales. no sólo se ha logrado validar el modelo matemático empleado.CONCLUSIONES Como se ha visto en las clases teóricas. sino que se ha estimado el valor de los parámetros C y K que antes eran desconocidos. en la práctica se han empleado distintas técnicas basadas en algoritmos que permiten ir acercándose a un mínimo de la función de coste en iteraciones sucesivas: Algoritmos de Gradiente y Algoritmos de Búsqueda. sabemos que resolver analíticamente un sistema. Debido a ello. puede volverse muy pesado incluso con sólo dos parámetros desconocidos y unos pocos datos experimentales. Además se ha conocido la herramienta Solver de Microsoft Office Excel. Puede concluirse que esta práctica nos ha proporcionado un mayor conocimiento de los métodos de estimación utilizados..7. como el de suspensión de la vagoneta presentada en la práctica. como hemos comprobado.