Está en la página 1de 2

NOTA: Recordemos que la derivada (variación) de una función no es otra cosa que la

pendiente de la función en un punto y, esto es, lo que aprovecharemos para optimizar.


La regla de derivación que aplicaremos (en gran parte del curso) es la siguiente: Para una
función univariada de la forma:
El exponente “b” baja multiplicando al coeficiente “a” y se le reduce un grado a la función
Ejemplo:
Se debe aplicar la regla de derivación a cada uno de los sumandos de la función original.
Ordenando la derivada:

yax=*b
La derivada (la
variación será): / * *
dy dx a b x = b-1
y x x x x = + + - + 3*
2* 5* 3* 7 6 3 1 1/ 2 - -
dy dx x x x x / 3*6*
2*3* 5*( 1)* 3*( 1/
2)* 0 = + + - - - + 6 1 3 1
1 1 1/ 2 1 - - - - - -
(el último sumando es
0 porque) 7 7* 7*0 =
  = x al aplicar
derivadas x 0 0 1 * 0 -
dy dx x x x x / 18* 6*
5* 3/ 2* = + - + 5 2 2 3/ 2 -
-
Si miramos los gráficos anteriores notamos que la función cóncava presenta un punto máximo, la
convexa, un punto mínimo.
Para determinar la existencia de puntos máximos o mínimos (puntos críticos) emplearemos el
Método de Optimización Clásico, que consiste en lo siguiente:
1) Primer Paso: Obtener la primera derivada de la función original e igualar a cero, con esto se
determinan los puntos críticos (Candidatos a óptimos, sean mínimos o máximos). La propiedad que
se considera es que en el punto crítico la pendiente de la función original es cero, de allí que
igualemos a cero.
2) Segundo Paso: Obtener la segunda derivada de la función original, evaluar el punto crítico
encontrado, luego comparar con cero y determinar si se trata de un mínimo o máximo. El criterio es
el siguiente:
a) Segunda derivada mayor que cero implica que el punto crítico es un Mínimo
b) Segunda derivada menor que cero implica que el punto crítico es un Máximo

También podría gustarte