Está en la página 1de 5

REPUBLICA BOLIVARIANA DE VENEZUELA

INSTITUTO UNIVERSITARIO POLITECNICO

“SANTIAGO MARIÑO”

EXTENSION MARACAY

OPTIMIZACION DE SISTEMAS

(Informe)

Docente: Autores:

Eduardo Rodriguez Luis Mortell

Maracay, Noviembre 2019


¿Qué son las condiciones de Karush-Kuhn-Tucker?

Las condiciones de Karush-Kuhn-Tucker (también conocidas como las


condiciones KKT o Kuhn-Tucker) son requerimientos necesarios y suficientes
para que la solución de un problema de programación matemática sea
óptima. Es una generalización del método de los multiplicadores de
Lagrange.

Condiciones de Regularidad:

En la condición necesaria anterior, el multiplicador dual puede ser igual a


cero. Este caso se denomina degenerado o anormal. La condición necesaria
no tiene en cuenta las propiedades de la función sino la geometría de las
restricciones. Existen una serie de condiciones de regularidad que aseguran
que la solución no es degenerada (es decir ). Estas incluyen:

 Cualificación de la restricción de independencia lineal (CRIL): los


gradientes de las restricciones activas de desigualdad y los gradientes de
las restricciones de igualdad son linealmente independientes.

 Cualificación de la restricción de Mangasarian-Fromowitz (CRMF): los


gradientes de las restricciones activas de desigualdad y los gradientes de
las restricciones de igualdad son linealmente independientes positivos.

 Cualificación de la restricción de rango constante (CRRC): para cada


subconjunto de las restricciones activas de desigualdad y los gradientes
de las restricciones de igualdad, el rango en el entorno constante.
 Cualificación de la restricción de dependencia lineal constante positiva
(DLCP): para cada subconjunto de restricciones activas de desigualdad y
de gradientes de las restricciones de igualdad, si es linealmente
dependiente positivo entonces es linealmente dependiente positivo en el
entorno de . ( es linealmente dependiente positivo si existe distintos de
cero)

 Condición de Slater: para un problema únicamente con restricciones de

desigualdad, existe un punto tal que para todo

Puede verse que CRIL=>CRMF=>DLCP, CRIL=>CRRC=>DLCP, aunque


CRMF no es equivalente a CRRC. En la práctica, se prefiere cualificación de
restricciones más débiles ya que proporcionan condiciones de optimalidad
más fuertes.

¿Qué es la Tecnica de Busqueda de Fibonacci?

En ciencia de la computación, la técnica de búsqueda de Fibonacci es un


método de búsqueda en un array ordenado usando un algoritmo de divide y
vencerás que disminuye las ubicaciones posibles con la ayuda de
los números de Fibonacci. Comparado con la búsqueda binaria, Fibonacci
busca las ubicaciones cuyas direcciones tienen poca dispersión. Por lo tanto,
cuando los elementos se buscan, tiene un acceso a memoria no uniforme (el
tiempo necesario para acceder a la ubicación de almacenamiento varía en
dependencia de la ubicación previamente accedida), la búsqueda de
Fibonacci tiene una ventaja sobre la búsqueda binaria en disminuir
ligeremante el tiempo promedio necesario para acceder a la ubicación de
almacenamiento. El típico ejemplo de acceso no uniforme al almacenamiento
es una cinta magnética, donde el tiempo de acceso a un elemento en
particular es proporcional a su distancia desde el elemento actual apuntado
por el cabezal de la cinta. Note, sin embargo, que grandes arrays no
adecuados en la cache del CPU o incluso en RAM pueden ser considerados
como ejemplos de acceso no uniforme. La búsqueda de Fibonacci tiene
complejidad O(log(x)) (Ver notación de O Grande). La búsqueda de
Fibonacci fue concebida por primera vez por Kiefer(1953) como una
búsqueda minimax para el máximo (mínimo) de una función unimodal en un
intervalo.

Ejemplo:

Dado un array ordenado A y un elemento t, verificar si t esta en A:


Sea F el array de los números de Fibonacci. Fm es el m-ésimo elemento de
F. n es el tamaño A. Sea m tal que Fm es el número más pequeño de F
mayor o igual que n.
F es definido como: F0 = 1, F1 = 1, Fk = Fk-1 + Fk-2.

Para probar si t pertenece a A, seguir los siguientes pasos:

1. Sea k = m.

2. Si k = 0, parar. Si no machean, entonces t no esto en A.

3. Comparar t con el elemento de A en la posición Fk-1.

4. Si son iguales, entonces t esta en A.

5. Si t es menor, entonces descartar los elementos de A desde la posición Fk-


1 + 1 hasta n.

hacer k = k-1 y volver al paso 2.


6. Si t es mayor, entonces descartar los elementos de A desde la posición 1
hasta Fk-1.

Renumerar los elementos restantes de A, hacer k = k - 2 y volver al paso 2.

¿Qué es la Busqueda de la Seccion Dorada?

La búsqueda (o método) de la sección dorada es una técnica para hallar


el extremo (mínimo o máximo) de una función unimodal, mediante
reducciones sucesivas del rango de valores en el cual se conoce que se
encuentra el extremo. La técnica debe su nombre al hecho de que el
algoritmo mantiene los valores de la función en tríos de puntos cuyas
distancias forman una proporción dorada. El algoritmo es el límite de la
búsqueda de Fibonacci (también descrita debajo) para un largo número de
evaluaciones de la función. La búsqueda de Fibonacci y la búsqueda de la
sección dorada fueron descubiertos por Kiefer (1953). El diagrama de arriba
ilustra un paso en la técnica para hallar un mínimo. Los valores de la

función están en el eje vertical y el horizontal es el parámetro.

El valor ha sido calculado ya para los tres puntos. Dado que es más
pequeño que y que , es evidente que el mínimo se encuentra dentro del
intervalo desde hasta (porque es unimodal) El siguiente paso en el proceso
de minimización es "probar" la función evaluándola en el nuevo valor. Es más
eficiente escoger en algún lugar dentro del intervalo más grande. Por la
figura, se puede notar que si entonces el mínimo se encuentra entre y el
nuevo trío de puntos serán Sin embargo, entonces el mínimo pertenece al
intervalo y el nuevo trío de puntos serán. De esta manera, en cualquier caso,
es posible construir un nuevo intervalo de búsqueda más pequeño en el cual
está garantizado que se encuentra el mínimo de la función.

También podría gustarte