Está en la página 1de 107

Unidad 1 - Funciones Vectoriales y

Movimiento en el Espacio
Funciones con Valores Vectoriales

Nota:

• Estas funciones son útiles para poder describir el movimiento de una partícula o cuerpo en
el plano o en espacio. La función resultante se denomina la trayectoria de la partícula. La
funciones vectoriales se pueden expresar:

𝑟(𝑡) = (𝑥(𝑡), 𝑦(𝑡), 𝑧(𝑡))

O:

𝑟(𝑡) = 𝑓(𝑡) ∙ 𝑖̂ + 𝑔(𝑡) ∙ 𝑗̂ + h(𝑡) ∙ 𝑘̂

Donde estas ecuaciones representan una parametrización de la curva.

• Curva se denomina al lugar geométrico con la función que la representa.

• El dominio de estas funciones son intervalos que pertenecen a los números reales y este
dominio es el dominio común de todas sus funciones componentes.

• La variable independiente se la denomina parámetro.

• Se grafican solo las imágenes de la función.


• Una curva simple es aquella que para todos los valores del dominio tienen distinta imagen,
o sea que, si para dos valores de la variable independiente se obtiene la misma imagen, no
es una curva suave.

Límite

Nota:
𝐿 es el vector límite y 𝜀 es un escalar, que tiene que ser mayor a la norma del vector diferencia.

Continuidad

Demostración 1 del Teorema de la Continuidad


Supongamos primero que 𝑟 = (𝑓1 , … , 𝑓𝑛 ) es continua en 𝑡0 ∈ [𝑎, 𝑏]. Por hipótesis sabemos
que 𝑟 es continua en 𝑡0 y, según la definición de continuidad, esto significa que lim 𝑟(𝑡) =
𝑡→𝑡0
𝑟(𝑡0 ); esto implica lim (𝑓1 (𝑡), … , 𝑓𝑛 (𝑡)) = (𝑓1 (𝑡0 ), … , 𝑓𝑛 (𝑡0 )). Por el teorema anterior,
𝑡→𝑡0

tenemos que ( lim 𝑓1 (𝑡) , … lim 𝑓𝑛 (𝑡)) = (𝑓1 (𝑡0 ), … , 𝑓𝑛 (𝑡0 )). Entonces, lim 𝑓𝑖 (𝑡) =
𝑡→𝑡0 𝑡→𝑡0 𝑡→𝑡0
𝑓𝑖 (𝑡0 ), con lo cual prueba que 𝑓𝑖 es continua en 𝑡0 .

Demostración 2 del Teorema de la Continuidad


Supongamos que cada una de las funciones componentes 𝑓1 , … , 𝑓𝑛 , son continuas en 𝑡0 .
Tenemos la igualdad lim 𝑟(𝑡) = ( lim 𝑓1 (𝑡) , … , lim 𝑓𝑛 (𝑡)), por hipótesis 𝑓𝑖 es continua en
𝑡→𝑡0 𝑡→𝑡0 𝑡→𝑡0
𝑡0 , o sea lim 𝑟(𝑡) = (𝑓1 (𝑡0 ), … , 𝑓𝑛 (𝑡0 )). Entonces lim 𝑟(𝑡) = (𝑓1 (𝑡0 ), … , 𝑓𝑛 (𝑡0 )) = 𝑟(𝑡0 )
𝑡→𝑡0 𝑡→𝑡0
y se ha demostrado el teorema.

Derivación de Funciones Vectoriales

Nota:

• Se escribe así, pero no está definido dividir un vector por un escalar, así que formalmente
se escribiría:
1
𝑟 ′ (𝑡0 ) = 𝑙𝑖𝑚 ∙ (𝑟(𝑡0 + ∆𝑡) − 𝑟(𝑡0 ))
∆𝑡→0 ∆𝑡

• La derivada de la posición con respecto al tiempo es la velocidad y apunta hacia la dirección


del movimiento. Esta se calcula como:
𝑣
= 𝑑𝑖𝑟𝑒𝑐𝑐𝑖ó𝑛 𝑑𝑒𝑙 𝑚𝑜𝑣𝑖𝑚𝑖𝑒𝑛𝑡𝑜
|𝑣|

O sea que se podría decir que la dirección del movimiento se calcula como la velocidad
sobre la rapidez.

Demostración de la Regla del Producto Punto


Si tenemos dos funciones vectoriales:

𝑢 = 𝑢1 (𝑡) ∙ 𝑖̂ + 𝑢2 (𝑡) ∙ 𝑗̂ + 𝑢3 (𝑡) ∙ 𝑘̂

𝑣 = 𝑣1 (𝑡) ∙ 𝑖̂ + 𝑣2 (𝑡) ∙ 𝑗̂ + 𝑣3 (𝑡) ∙ 𝑘̂

Si derivamos el producto punto entre estos tenemos:

𝑑 𝑑
(𝑢 ∙ 𝑣) = (𝑢 ∙ 𝑣 + 𝑢2 ∙ 𝑣2 + 𝑢3 ∙ 𝑣3 )
𝑑𝑡 𝑑𝑡 1 1
𝑑
(𝑢 ∙ 𝑣) = 𝑢′1 ∙ 𝑣1 + 𝑢′2 ∙ 𝑣2 + 𝑢′3 ∙ 𝑣3 + 𝑢1 ∙ 𝑣′1 + 𝑢2 ∙ 𝑣′2 + 𝑢3 ∙ 𝑣′3
𝑑𝑡
𝑢′ ∙ 𝑣 y los últimos 3 como 𝑢 ∙ 𝑣′. Entonces:

𝑑
(𝑢 ∙ 𝑣) = 𝑢′ ∙ 𝑣 + 𝑢 ∙ 𝑣′
𝑑𝑡

Demostración de la Regla del Producto Cruz


Si tenemos dos funciones vectoriales:

𝑢 = 𝑢1 (𝑡) ∙ 𝑖̂ + 𝑢2 (𝑡) ∙ 𝑗̂ + 𝑢3 (𝑡) ∙ 𝑘̂

𝑣 = 𝑣1 (𝑡) ∙ 𝑖̂ + 𝑣2 (𝑡) ∙ 𝑗̂ + 𝑣3 (𝑡) ∙ 𝑘̂

Si derivamos el producto cruz entre estos tenemos:

𝑑 𝑢(𝑡 + h) × 𝑣(𝑡 + h) − 𝑢(𝑡) × 𝑣(𝑡)


(𝑢 × 𝑣) = lim
𝑑𝑡 h→0 h
Para poder trabajar mejor la ecuación, sumamos y restamos 𝑢(𝑡) × 𝑣(𝑡 + h):

𝑑
(𝑢 × 𝑣)
𝑑𝑡
𝑢(𝑡 + h) × 𝑣(𝑡 + h) − 𝑢(𝑡) × 𝑣(𝑡) + 𝑢(𝑡) × 𝑣(𝑡 + h) − 𝑢(𝑡) × 𝑣(𝑡 + h)
= lim
h→0 h
Trabajando un poco la expresión podemos llegar al resultado:

𝑑
(𝑢 × 𝑣)
𝑑𝑡
𝑢(𝑡 + h) × 𝑣(𝑡 + h) − 𝑢(𝑡) × 𝑣(𝑡) + 𝑢(𝑡) × 𝑣(𝑡 + h) − 𝑢(𝑡) × 𝑣(𝑡 + h)
= lim [ ]
h→0 h

𝑑 𝑢(𝑡 + h) − 𝑢(𝑡) 𝑣(𝑡 + h) − 𝑣(𝑡)


(𝑢 × 𝑣) = lim [ × 𝑣(𝑡 + h) + × 𝑢(𝑡 + h)]
𝑑𝑡 h→0 h h
Si aplicamos distributiva al límite llegamos a:

𝑑
(𝑢 × 𝑣) = 𝑢′ × 𝑣 + 𝑢 × 𝑣′
𝑑𝑡

Curva Suave

Función Vectorial De Magnitud Constante

Supongamos que la curva en cuestión está parametrizada por 𝑟(𝑡), 𝑎 ≤ 𝑡 ≤ 𝑏 y que |𝑟(𝑡)| =
𝑐. Entonces para cualquier 𝑡 ∈ [𝑎, 𝑏], |𝑟(𝑡)|2 = 𝑐 2 . O sea que también se puede expresar como
𝑟(𝑡) ⋅ 𝑟(𝑡) = 𝑐 2 . Derivamos ambos miembros y llegamos a:

𝑟´(𝑡) ⋅ 𝑟(𝑡) + 𝑟(𝑡) ⋅ 𝑟´(𝑡) = 0

2 ⋅ 𝑟´(𝑡) ⋅ 𝑟(𝑡) = 0

Y concluimos que 𝑟(𝑡) y 𝑟´(𝑡) son ortogonales para todo 𝑡 ∈ [𝑎, 𝑏], o sea 𝑟(𝑡) ∙ 𝑟 ′ (𝑡) = 0.

Integración de Funciones Vectoriales


Longitud de Arco de una Curva Suave

Deducción de Longitud de Arco


Supongamos que 𝑟(𝑡) = (𝑥(𝑡), 𝑦(𝑡)), 𝑎 ≤ 𝑡 ≤ 𝑏, parametriza a la curva 𝐶

Una partición de [𝑎, 𝑏], 𝑃 = {𝑎 = 𝑡0 , 𝑡1 , … , 𝑡𝑛 = 𝑏}, induce una partición en 𝐶. El gráfico de


la izquierda es el dominio del parámetro y ahí es donde se hace la partición y en el gráfico de
la derecha es la curva 𝐶, que es donde se induce la partición echa en el dominio. Si el camino
de 𝐴 hasta 𝐵 se recorre una vez a medida que 𝑡 varía desde 𝑡 = 𝑎 hasta 𝑡 = 𝑏, sin volverse
sobre sí mismo o retroceder, una aproximación a la longitud del arco 𝐴𝐵 es la suma de las
longitudes 𝐿𝑘 . Sumaremos las longitudes de los segmentos 𝐿𝑘 , con extremos en los puntos
𝑃𝑘−1 = 𝑟(𝑡𝑘−1 ) y 𝑃𝑘 = 𝑟(𝑡𝑘 ), para 𝑘 = 1, … , 𝑛. La longitud de cada subarco de la curva la
aproximaremos por medio de la longitud 𝐿𝑘 .

Podemos ver que:

𝐿𝑘 = √(∆𝑥𝑘 )2 + (∆𝑦𝑘 )2

Si las funciones componentes de 𝑟 satisfacen todas las hipótesis del teorema del valor medio
en el intervalo [𝑡𝑘−1 , 𝑡𝑘 ], entonces existen puntos 𝑡𝑘∗ y 𝑡𝑘∗∗ en (𝑡𝑘−1 , 𝑡𝑘 ) tales que:

∆𝑥𝑘 = 𝑥(𝑡𝑘 ) − 𝑥(𝑡𝑘−1 ) = 𝑥′(𝑡𝑘∗ ) ⋅ (𝑡𝑘 − 𝑡𝑘−1 ) = 𝑥′(𝑡𝑘∗ ) ⋅ ∆𝑡𝑘

∆𝑦𝑘 = 𝑦(𝑡𝑘 ) − 𝑦(𝑡𝑘−1 ) = 𝑦′(𝑡𝑘∗∗ ) ⋅ (𝑡𝑘 − 𝑡𝑘−1 ) = 𝑦′(𝑡𝑘∗∗ ) ⋅ ∆𝑡𝑘

Entonces:

𝐿𝑘 = √(𝑥′(𝑡𝑘∗ ) ⋅ ∆𝑡𝑘 )2 + (𝑦′(𝑡𝑘∗∗ ) ⋅ ∆𝑡𝑘 )2

2 2
𝐿𝑘 = √(𝑥′(𝑡𝑘∗ )) + (𝑦′(𝑡𝑘∗∗ )) ⋅ ∆𝑡𝑘

Entonces la curva suave se aproxima como:


𝑛 𝑛
2 2
∑ 𝐿𝑘 = ∑ √(𝑥′(𝑡𝑘∗ )) + (𝑦′(𝑡𝑘∗∗ )) ⋅ ∆𝑡𝑘
𝑘= 1 𝑘=1

Aunque esta no es una suma de Riemann, ya que están evaluadas en puntos diferentes, si las
funciones 𝑥′ y 𝑦′ son continuas en [𝑎, 𝑏] (o sea que la curva 𝐶 es suave), el límite para ||𝑃|| →
0 es la integral. Entonces el resutado es:
𝑏
𝐿 = ∫ |𝑟 ′ (𝑡)|𝑑𝑡
𝑎

El resultado la longitud de arco de una curva suave es la integral del módulo de su derivada.

Función Longitud de Arco

Nota:
Por el teorema fundamental del cálculo podemos asegurar que:

𝑑𝑠
= |𝑟´(𝑡)|
𝑑𝑡
𝑑𝑠 = |𝑟 ′ (𝑡)| ∙ 𝑑𝑡

𝑠 ′ (𝑡) = |𝑟 ′ (𝑡)|

También se puede deducir de la última expresión que como el módulo de la derivada de la


posición con respecto al tiempo nunca es negativo ni nunca es 0, la función 𝑠(𝑡) siempre es
creciente.

Vector Tangente Unitario

Nota:
Este vector apunta hacia la dirección del movimiento.

Curvatura

Nota:
• Se re parametriza a la curva con el vector tangente unitario con respecto a la función
longitud de arco, esto hace que podamos ver el cambio de direcciones que tiene una curva
con respecto a la misma longitud de arco.

• Fórmula 1
Si usamos la regla de la cadena podemos llegar a su fórmula de cálculo:

𝑑𝑇 𝑑𝑡
𝜅=| ⋅ |
𝑑𝑡 𝑑𝑠
Donde:

𝑑𝑠
= |𝑟′(𝑡)|
𝑑𝑡
Por el teorema fundamental del cálculo en la función longitud de curva, y:

𝑑𝑇
| | = |𝑇′(𝑡)|
𝑑𝑡
Entonces:

|𝑇′(𝑡)|
𝜅=
|𝑟′(𝑡)|

La fórmula de cálculo sería:


1
𝜅= ∙ |𝑇 ′ (𝑡)|
|𝑟 ′ (𝑡)|

• Fórmula 2
Dada la expresión de la aceleración (está más adelante su deducción):

𝑑
𝑟′′(𝑡) = |𝑟′(𝑡)|2 ⋅ 𝜅 ⋅ 𝑁 + |𝑟′(𝑡)| ⋅ 𝑇
𝑑𝑡
A partir de:

𝑑
𝑟′(𝑡) × 𝑟′′(𝑡) = 𝑟′(𝑡) × (|𝑟′(𝑡)|2 ⋅ 𝜅 ⋅ 𝑁 + |𝑟′(𝑡)| ⋅ 𝑇)
𝑑𝑡
𝑑
𝑟′(𝑡) × 𝑟′′(𝑡) = |𝑟′(𝑡)| ⋅ 𝑇 × (|𝑟′(𝑡)|2 ⋅ 𝜅 ⋅ 𝑁 + |𝑟′(𝑡)| ⋅ 𝑇)
𝑑𝑡
𝑑
𝑟′(𝑡) × 𝑟′′(𝑡) = |𝑟′(𝑡)| ⋅ 𝑇 × |𝑟′(𝑡)|2 ⋅ 𝜅 ⋅ 𝑁 + |𝑟′(𝑡)| ⋅ 𝑇 × |𝑟′(𝑡)| ⋅ 𝑇
𝑑𝑡
𝑑
𝑟′(𝑡) × 𝑟′′(𝑡) = |𝑟′(𝑡)|3 ⋅ 𝜅 ⋅ (𝑇 × 𝑁) + |𝑟′(𝑡)| ⋅ |𝑟′(𝑡)| ⋅ (𝑇 × 𝑇)
𝑑𝑡
𝑟′(𝑡) × 𝑟′′(𝑡) = |𝑟′(𝑡)|3 ⋅ 𝜅 ⋅ 𝐵

Luego:

|𝑟′(𝑡) × 𝑟′′(𝑡)| = |𝑟′(𝑡)|3 ⋅ 𝜅


Entonces:

|𝑟′(𝑡) × 𝑟′′(𝑡)|
𝜅=
|𝑟′(𝑡)|3

Si las funciones componentes son dos veces derivables tenemos:

|𝑥′ ⋅ 𝑦′′ − 𝑦′ ⋅ 𝑥′′|


𝜅= 3
(𝑥′2 + 𝑦′2 )2

Vector Normal Unitario Principal

Nota:

• Si lo trabajamos:
𝑑𝑇 𝑑𝑇 𝑑𝑡
⋅ 𝑇′(𝑡)
𝑁= 𝑑𝑠 = 𝑑𝑡 𝑑𝑠 =
𝜅 𝑑𝑇 𝑑𝑡 |𝑇′(𝑡)|
| 𝑑𝑡 | ⋅ |𝑑𝑠|

𝑑𝑡 𝑑𝑡
Se puede cancelar 𝑑𝑠 con |𝑑𝑠| porque representan lo mismo. La fórmula de cálculo sería:

1
𝑁= ∙ 𝑇 ′ (𝑡)
|𝑇 ′ (𝑡)|

• Podemos deducir por la definición que en una recta no hay vector unitario normal ya que la
curvatura es nula.

• Los vectores 𝑇 y 𝑁 definen un plano denominado plano osculador, y a aceleración está


contenida en este plano.

Vector Binormal
Nota:
Los vectores 𝑇, 𝑁 y 𝐵 marcan el marco de referencia 𝑇𝑁𝐵 y es muy útil para saber el cambio
de trayectoria de una partícula o cuerpo cuando se desplaza en el espacio.

Componentes de la Aceleración
En una curva suave tenemos:

𝑑𝑟
𝑟′(𝑡) 𝑑𝑟
𝑇(𝑡) = = 𝑑𝑡 =
|𝑟′(𝑡)| 𝑑𝑠 𝑑𝑠
𝑑𝑡
𝑑𝑟 𝑑𝑟 𝑑𝑠 𝑑𝑠
= ⋅ = 𝑇(𝑡) ⋅
𝑑𝑡 𝑑𝑠 𝑑𝑡 𝑑𝑡
Con esto podemos trabajar para llegar a la fórmula de la aceleración:

𝑑𝑣(𝑡)
𝑎(𝑡) = = 𝑟′′(𝑡)
𝑑𝑡
𝑑 𝑑𝑠
𝑎(𝑡) = ⋅ (𝑇(𝑡) ⋅ )
𝑑𝑡 𝑑𝑡
𝑑𝑠 𝑑2 𝑠
𝑎(𝑡) = 𝑇′(𝑡) ⋅ + 𝑇(𝑡) ⋅ 2
𝑑𝑡 𝑑𝑡
𝑑𝑇 𝑑𝑠 𝑑2 𝑠
𝑎(𝑡) = ⋅ + ⋅ 𝑇(𝑡)
𝑑𝑡 𝑑𝑡 𝑑𝑡 2
𝑑𝑇 𝑑𝑠 2 𝑑2 𝑠
𝑎(𝑡) = ⋅ ( ) + 2 ⋅ 𝑇(𝑡)
𝑑𝑠 𝑑𝑡 𝑑𝑡
𝑑𝑠 2 𝑑2 𝑠
𝑎(𝑡) = ( ) ⋅ 𝜅 ⋅ 𝑁(𝑡) + 2 ⋅ 𝑇(𝑡)
𝑑𝑡 𝑑𝑡
𝑑
𝑎(𝑡) = |𝑟′(𝑡)|2 ⋅ 𝜅 ⋅ 𝑁(𝑡) + ⋅ |𝑟′(𝑡)| ⋅ 𝑇(𝑡)
𝑑𝑡
Y llegamos a la expresión. Las componentes de la aceleración se pueden calcular como:

𝑑
𝑎𝑇 (𝑡) = ⋅ |𝑟′(𝑡)| ⋅ 𝑇(𝑡)
𝑑𝑡
𝑎𝑁 (𝑡) = |𝑟′(𝑡)|2 ⋅ 𝜅 ⋅ 𝑁(𝑡)

Como es muy complicado sacar la aceleración normal, por lo general se usa esta fórmula para
sacarla:

𝑎𝑁 = √|𝑎|2 − 𝑎2𝑇

Unidad 2 - Funciones de Varias


Variables
Funciones de Varias Variables

Nota:
• El dominio de una función de varias variables es un par, terna, … , n-upla ordenada de
puntos y son definidas por las variables independientes.

• El rango de la función es un conjunto de valores reales que se le asigna a la variable


dependiente.

Conceptos Topológicos
Bola Abierta
Llamamos bola abierta con centro 𝑃 = (𝑥1 , 𝑥2 , 𝑥3 ) y radio mayor a 0 al conjunto de todos los
puntos 𝑄 = (𝑦1 , 𝑦2 , 𝑦3 ) del espacio tales que:

√(𝑥1 − 𝑦1 )2 + (𝑥2 − 𝑦2 )2 + (𝑥3 − 𝑦3 )2 < 𝑟

Un entorno abierto de 𝑃0 es una bola de 𝑅 𝑛 que contiene a 𝑃0 .

Nota:
Esta definición habla del intervalo, pero generalizado para funciones de varias variables.
Punto Interior
𝑃0 es un punto interior a 𝐷 si existe por lo menos un entorno abierto de 𝑃0 incluido en 𝐷.

Punto Frontera
𝑃0 es un punto frontera de 𝐷 si para todo entorno abierto de 𝑃0 hay puntos que pertenecen a
𝐷 y puntos que no pertenecen.

Región Abierta
Una región abierta es aquella que todos los puntos de su dominio son interiores.

Región Cerrada
Una región cerrada es aquella que todos los puntos frontera pertenecen a su dominio.

Región Acotada
Una región es acotada si existe un entorno abierto que incluya a la región.

Región No Acotada
Una región es no acotada si no existe ningún entorno abierto que incluya a la región.

Gráfico, Curva o Superficie de Nivel y Curva de Contorno

Nota:

• El gráfico de una función es aquella n-upla ordenada más una coordenada que es la imagen
o el resultado de la función. Esto da como resultado un punto en el espacio 𝑅 𝑛+ 1 . Esto pasa
siempre y cuando la n-upla ordenada pertenezca al dominio.

• Las curvas de nivel se dibujan en el dominio, o sea que, si tenemos una función de dos
variables, graficamos las curvas de nivel en el plano.
• Una superficie de nivel de una función son el conjunto de ternas de puntos donde una
función de tres variables tiene un valor constante.

• La curva de contorno son todos los puntos del dominio tales que la función de dos variables
sea la imagen. Este caso es específicamente para las funciones de dos variables y se
grafican en el gráfico de la función.

Límite

Nota:

• Esta definición dice que el límite de una función de varias variables 𝑓 tiende a un valor 𝐿
cuando un punto cualquiera 𝑃 tiende a un punto 𝑃0 que puede o no estar en el dominio de
la función, si para todo 𝜀 > 0 existe un 𝛿 > 0 tal que para todo punto 𝑃 perteneciente al
dominio de la función, el módulo de la diferencia con el punto 𝑃0 al cual se toma límite
tiene que ser mayor a 0 (o sea, no pueden ser iguales), y tiene que ser menor a 𝛿 , si se
cumple esto, entonces el valor absoluto de la diferencia entre 𝐿 y el valor de la función en
el punto 𝑃 es menor a 𝜀.
• Por definición, 𝑃 tiene que tender a 𝑃0 , pero este lo puede hacer por cualquier dirección ya
que no hay restricción para esto. Por eso, se puede concluir que, si el límite existe, el límite
tiene que dar igual para cualquier dirección de aproximación.

Criterio de las Dos Trayectorias


El criterio de las dos trayectorias se utiliza para probar que el límite no existe. En una función
de dos variables el cual el límite es imposible de calcular ya que el denominador se anula o por
cualquier condición, se utiliza este criterio para ver si no existe el límite. Se reemplaza una de
las variables por la otra variable que toma una trayectoria en la cual pase por el punto donde
se está evaluando el límite y se asegura si no existe.

Ejemplo:
Calcule el límite:

𝑥 ⋅ 𝑦2
𝑙𝑖𝑚
(𝑥,𝑦)→(0, 0) 𝑥 2 + 𝑦 4

Como el denominador se anula en el punto evaluado, probamos el límite con la dirección:

𝑥= 0

𝑥 ⋅ 𝑦2
𝑙𝑖𝑚 = 0
(𝑥,𝑦)→(0,𝑦) 𝑥 2 + 𝑦 4

Ahora con la dirección:

𝑦= 0

𝑥 ⋅ 𝑦2
𝑙𝑖𝑚 = 0
(𝑥,𝑦)→(𝑥, 0) 𝑥 2 + 𝑦 4

Los dos límites son iguales, pero no asegura que el límite existe, si tomamos otra dirección
genérica como:

𝑥 = 𝑦2

(𝑦 2 ) ⋅ 𝑦 2
𝑙𝑖𝑚
𝑦→0 (𝑦 2 )2 + 𝑦 4
𝑦4
𝑙𝑖𝑚
𝑦→0 2 ⋅ 𝑦 4

1 1
𝑙𝑖𝑚 =
𝑦→0 2 2
Al obtener otro valor numérico tomando otra trayectoria que las demás, nos asegura que el
límite no existe.

Continuidad

Nota:
Todas las funciones polinómicas y racionales son continuas en su dominio.

Derivadas Parciales

Nota:
• La interpretación geométrica en las funciones de dos variables se puede tomar como la
pendiente de la recta tangente a la curva resultante de la intersección de la función y el
plano paralelo al plano 𝑥𝑧 que pasa por el punto 𝑃0 es la derivada parcial de f con respecto
a 𝑥.
• La interpretación para funciones de tres variables sigue teniendo el mismo concepto, el
cambio instantáneo o la razón instantánea de cambio de la función con cualquiera de las
tres direcciones, pero no tenemos una representación gráfica ya que no podemos
representar funciones de tres variables independientes.

• La forma de calcular la derivada parcial de una función de varias variables se hace tomando
como constantes las variables con las que no trabajaremos.

• La existencia de las derivadas parciales de una función no asegura su continuidad.

• Las derivadas parciales respecto a las demás variables se definen análogamente. Las
derivadas parciales de orden superior se escriben así:

𝛿 𝛿𝑓 𝛿2𝑓
( ) = 2 = 𝑓𝑥𝑥
𝛿𝑥 𝛿𝑥 𝛿𝑥
𝛿 𝛿𝑓 𝛿2𝑓
( ) = 2 = 𝑓𝑦𝑦
𝛿𝑦 𝛿𝑦 𝛿𝑦

𝛿 𝛿𝑓 𝛿2𝑓
( )= = 𝑓𝑥𝑦
𝛿𝑦 𝛿𝑥 𝛿𝑦𝛿𝑥

𝛿 𝛿𝑓 𝛿2𝑓
( )= = 𝑓𝑦𝑥
𝛿𝑥 𝛿𝑦 𝛿𝑥𝛿𝑦

Teorema de Clairaut

Nota:
Si no se cumplen las hipótesis, puede que las derivadas parciales mixtas de segundo orden no
sean iguales. Por lo general esto va a pasar cuando sean funciones por parte. En estos casos
tenemos que calcular las derivadas parciales mixtas por definición.
Laplaciano

Diferenciabilidad

Nota:
Se dice que para que el gráfico de una función de dos variables sea diferenciable, entonces en
ese entorno de ese punto se parece mucho al plano tangente en ese punto cuando la función
es de dos variables.

Diferenciabilidad Implica Continuidad

Suponemos que 𝑓 es diferenciable en un punto 𝑃0 = (𝑥0 , 𝑦0 ). Entonces, llamamos ∆𝑥 =


𝑥 − 𝑥0 y ∆𝑦 = 𝑦 − 𝑦0 , el límite siguiente:

lim (𝑓(𝑥, 𝑦) − 𝑓(𝑥0 , 𝑦0 ))


(𝑥, 𝑦)→(𝑥0 , 𝑦0 )

Podemos asegurar:

lim (𝑓(𝑥, 𝑦) − 𝑓(𝑥0 , 𝑦0 )) = lim ∆𝑓(𝑥0 , 𝑦0 )


(𝑥, 𝑦)→(𝑥0 , 𝑦0) (∆𝑥, ∆𝑦)→(0, 0)

Porque 𝑓 es diferenciable en 𝑃0 , entonces podemos reemplazar el incremento en el punto por


la definición de diferenciabilidad:

lim ∆𝑓(𝑥0 , 𝑦0 )
(∆𝑥, ∆𝑦)→(0, 0)
= lim (𝑓𝑥 (𝑥0 , 𝑦0 ) ∙ ∆𝑥 + 𝑓𝑦 (𝑥0 , 𝑦0 ) ∙ ∆𝑦 + 𝜀1 (∆𝑥, ∆𝑦) ∙ ∆𝑥
(∆𝑥, ∆𝑦)→(0, 0)
+ 𝜀2 (∆𝑥, ∆𝑦) ∙ ∆𝑦)
En esta expresión, si calculamos los límites de cada uno de los términos por separado, vamos
a ver que todos tienden a 0, o sea que:

lim ∆𝑓(𝑥0 , 𝑦0 ) = 0
(∆𝑥, ∆𝑦)→(0, 0)

Como podemos asegurar esto, también podemos asegurar:

lim (𝑓(𝑥, 𝑦) − 𝑓(𝑥0 , 𝑦0 )) = 0


(𝑥, 𝑦)→(𝑥0 , 𝑦0 )

Porque son iguales. Por la definición de continuidad, si se cumplen las 3 hipótesis podemos
asegurar la continuidad en el punto. Ya sabemos que la función está definida en 𝑃0 = (𝑥0 , 𝑦0 )
ya que la función es diferenciable en este punto y el punto pertenece a su dominio. Trabajamos
las otras dos condiciones con la primer expresión:

lim 𝑓(𝑥, 𝑦) = lim 𝑓(𝑥0 , 𝑦0 )


(𝑥, 𝑦)→(𝑥0 , 𝑦0 ) (𝑥, 𝑦)→(𝑥0 , 𝑦0 )

Como el miembro de la derecha no depende de ∆𝑥 ni de ∆𝑦, tenemos:

lim 𝑓(𝑥, 𝑦) = 𝑓(𝑥0 , 𝑦0 )


(𝑥, 𝑦)→(𝑥0 , 𝑦0 )

Con esto podemos asegurar las otras dos condiciones, el límite de la función cuando 𝑃 tiende
a 𝑃0 existe y es igual al valor de la función evaluada en ese punto. Con esto concluimos la
demostración.

Teorema del Incremento

En la región abierta 𝑅 podemos tomar los ∆𝑥 y ∆𝑦 lo suficientemente chiquitos para que haya
un rectángulo dentro de la región abierta. En este rectángulo tenemos las derivadas parciales
de primer orden definidas y están incluidos en este el punto 𝐴(𝑥0 , 𝑦0 ) y los puntos
𝐵(𝑥0 + ∆𝑥, 𝑦0 ) y 𝐶(𝑥0 + ∆𝑥, 𝑦0 + ∆𝑦), aparte de que las derivadas parciales son continuas
en el punto 𝐴:

Entonces el incremento de la función desde el punto 𝐴 hasta el punto 𝐶 es:


∆𝑓(𝑥0 , 𝑦0 ) = 𝑓(𝑥0 + ∆𝑥, 𝑦0 + ∆𝑦) − 𝑓(𝑥0 , 𝑦0 )

Lo que hacemos ahora es sumarle y restarle 𝑓(𝑥0 + ∆𝑥, 𝑦0 ):

∆𝑓(𝑥0 , 𝑦0 ) = 𝑓(𝑥0 + ∆𝑥, 𝑦0 + ∆𝑦) − 𝑓(𝑥0 + ∆𝑥, 𝑦0 ) + 𝑓(𝑥0 + ∆𝑥, 𝑦0 ) − 𝑓(𝑥0 , 𝑦0 )

Los primeros dos términos del lado derecho de la igualdad se puede tomar como si fuera una
función derivable de 𝑦 en todo el intervalo abierto que contiene al intervalo cerrado de
[𝑦0 , 𝑦0 + ∆𝑦] (esto se puede hacer porque la variable 𝑥 está fija y porque las derivadas
parciales en la región abierta están definidas). Análogamente, se hace el mismo análisis con
los otros dos términos de la ecuación. Dicho esto, podemos asegurar también que estas
funciones son continuas en los mismos intervalos cerrados ya que estas funciones son
derivables en todos los puntos de sus respectivos intervalos. Con estas condiciones, podemos
aplicar el teorema del valor medio para ambas funciones que dice que existe un valor 𝑑 y 𝑐 en
los intervalos (𝑦0 , 𝑦0 + ∆𝑦) y (𝑥0 , 𝑥0 + ∆𝑥) respectivamente que cumplan:

𝑓(𝑥0 + ∆𝑥, 𝑦0 + ∆𝑦) − 𝑓(𝑥0 + ∆𝑥, 𝑦0 )


𝑓𝑦 (𝑥0 + ∆𝑥, 𝑑) =
∆𝑦

𝑓(𝑥0 + ∆𝑥, 𝑦0 ) − 𝑓(𝑥0 , 𝑦0 )


𝑓𝑥 (𝑐, 𝑦0 ) =
∆𝑥

Si despejamos podemos tener:


𝑓𝑦 (𝑥0 + ∆𝑥, 𝑑) ∙ ∆𝑦 = 𝑓(𝑥0 + ∆𝑥, 𝑦0 + ∆𝑦) − 𝑓(𝑥0 + ∆𝑥, 𝑦0 )

𝑓𝑥 (𝑐, 𝑦0 ) ∙ ∆𝑥 = 𝑓(𝑥0 + ∆𝑥, 𝑦0 ) − 𝑓(𝑥0 , 𝑦0 )

Sustituyendo en la ecuación del principio de la demostración, tenemos el incremento de 𝑓:

∆𝑓(𝑥0 , 𝑦0 ) = 𝑓𝑥 (𝑐, 𝑦0 ) ∙ ∆𝑥 + 𝑓𝑦 (𝑥0 + ∆𝑥, 𝑑) ∙ ∆𝑦


Pero queremos que las derivadas parciales estén evaluadas en el punto 𝐴, ya que no podemos
asegurar que sean iguales los valores de 𝑓𝑥 (𝑐, 𝑦0 ) con 𝑓𝑥 (𝑥0 , 𝑦0 ) y lo mismo con la otra
derivada parcial. Por eso, definimos las siguientes ecuaciones:

𝑓𝑥 (𝑐, 𝑦0 ) = 𝑓𝑥 (𝑥0 , 𝑦0 ) + 𝜀1

𝑓𝑦 (𝑥0 + ∆𝑥, 𝑑) = 𝑓𝑦 (𝑥0 , 𝑦0 ) + 𝜀2

Donde 𝜀1 y 𝜀2 son funciones que representan el error y dependen de ∆𝑥 y ∆𝑦 ya que en la


izquierda de las igualdades las funciones están evaluadas en 𝑐 y 𝑑 y estas dependen de ∆𝑥 y
∆𝑦, por lo tanto, los funciones errores también van a depender de estos. Entonces:

𝑓𝑥 (𝑐, 𝑦0 ) = 𝑓𝑥 (𝑥0 , 𝑦0 ) + 𝜀1 (∆𝑥, ∆𝑦)

𝑓𝑦 (𝑥0 + ∆𝑥, 𝑑) = 𝑓𝑦 (𝑥0 , 𝑦0 ) + 𝜀2 (∆𝑥, ∆𝑦)

Ahora que llegamos a estos resultados, podemos llegar a la definición de diferenciabilidad:

∆𝑓(𝑥0 , 𝑦0 ) = 𝑓𝑥 (𝑐, 𝑦0 ) ∙ ∆𝑥 + 𝑓𝑦 (𝑥0 + ∆𝑥, 𝑑) ∙ ∆𝑦

∆𝑓(𝑥0 , 𝑦0 ) = (𝑓𝑥 (𝑥0 , 𝑦0 ) + 𝜀1 (∆𝑥, ∆𝑦)) ∙ ∆𝑥 + (𝑓𝑦 (𝑥0 , 𝑦0 ) + 𝜀2 (∆𝑥, ∆𝑦)) ∙ ∆𝑦


∆𝑓(𝑥0 , 𝑦0 ) = 𝑓𝑥 (𝑥0 , 𝑦0 ) ∙ ∆𝑥 + 𝜀1 (∆𝑥, ∆𝑦) ∙ ∆𝑥 + 𝑓𝑦 (𝑥0 , 𝑦0 ) ∙ ∆𝑦 + 𝜀2 (∆𝑥, ∆𝑦) ∙ ∆𝑦

∆𝑓(𝑥0 , 𝑦0 ) = 𝑓𝑥 (𝑥0 , 𝑦0 ) ∙ ∆𝑥 + 𝑓𝑦 (𝑥0 , 𝑦0 ) ∙ ∆𝑦 + 𝜀1 (∆𝑥, ∆𝑦) ∙ ∆𝑥 + 𝜀2 (∆𝑥, ∆𝑦) ∙ ∆𝑦

Al llegar a esta expresión la demostración no termina, y que tenemos que probar que las
funciones error tiendan a 0 cuando los ∆𝑥 y ∆𝑦 tiendan a 0. Por hipótesis teníamos que las
derivadas parciales en (𝑥0 , 𝑦0 ) son continuas, entonces:

lim 𝜀1 (∆𝑥, ∆𝑦) = lim (𝑓𝑥 (𝑐, 𝑦0 ) − 𝑓𝑥 (𝑥0 , 𝑦0 )) = 0


(∆𝑥, ∆𝑦)→(0, 0) (∆𝑥, ∆𝑦)→(0, 0)

lim 𝜀2 (∆𝑥, ∆𝑦) = lim (𝑓𝑦 (𝑥0 + ∆𝑥, 𝑑) − 𝑓𝑦 (𝑥0 , 𝑦0 )) = 0


(∆𝑥, ∆𝑦)→(0, 0) (∆𝑥, ∆𝑦)→(0, 0)

Podemos asegurar estas igualdades por la continuidad de las derivadas parciales en el punto.
Y con esto, se termina la demostración.
Nota:
• Como 𝑅 es una región abierta, el punto tiene que ser un punto interior.

• Si las derivadas parciales no son continuas en punto, no quiere decir que no sea diferenciable
en ese punto. En estos casos se calcula la diferenciabilidad por definición.

• Se dice que una 𝑓 es una función diferenciable en cada punto de una región 𝑅 si sus
derivadas parciales son continuas en una región abierta 𝑅.

Regla de la Cadena

Para demostrar esta igualdad lo hacemos para 𝑡 = 𝑡0 . Para tener una función 𝑤(𝑡) debemos
tener una función compuesta de la forma 𝑓(𝑟(𝑡)), donde 𝑟(𝑡) = (𝑥(𝑡), 𝑦(𝑡)) y como 𝑤(𝑡) es
una función de una variable, se grafica como tal en el plano 𝑥𝑦 donde 𝑥 sería el dominio, o sea
los valores que toma 𝑡 y las imágenes en el eje 𝑦, que serían las imágenes de 𝑤. Se dice que es
una función de ℝ en ℝ, entonces:

𝑤(𝑡) = 𝑓(𝑟(𝑡))

𝑤(𝑡) = 𝑓(𝑥(𝑡), 𝑦(𝑡))

Ahora derivamos nuestra función 𝑤 en el punto 𝑡0 :

𝑓(𝑥(𝑡0 + ∆𝑡), 𝑦(𝑡0 + ∆𝑡)) − 𝑓(𝑥(𝑡0 ), 𝑦(𝑡0 ))


𝑤 ′ (𝑡0 ) = lim
∆𝑡→0 ∆𝑡
Ahora definimos:

∆𝑥 = 𝑥(𝑡0 + ∆𝑡) − 𝑥(𝑡0 )

∆𝑦 = 𝑦(𝑡0 + ∆𝑡) − 𝑦(𝑡0 )

De acá despejamos:

𝑥(𝑡0 + ∆𝑡) = 𝑥(𝑡0 ) + ∆𝑥

𝑦(𝑡0 + ∆𝑡) = 𝑦(𝑡0 ) + ∆𝑦

Y reemplazamos en la derivada para poder llegar al incremento de la función en el numerador


del límite:

𝑓(𝑥(𝑡0 ) + ∆𝑥, 𝑦(𝑡0 ) + ∆𝑦) − 𝑓(𝑥(𝑡0 ), 𝑦(𝑡0 ))


𝑤 ′ (𝑡0 ) = lim
∆𝑡→0 ∆𝑡
∆𝑓(𝑥(𝑡0 ), 𝑦(𝑡0 ))
𝑤 ′ (𝑡0 ) = lim
∆𝑡→0 ∆𝑡
Luego reemplazamos por la definición de diferenciabilidad:

𝑤 ′ (𝑡0 )
𝑓𝑥 (𝑥(𝑡0 ), 𝑦(𝑡0 )) ∙ ∆𝑥 + 𝑓𝑦 (𝑥(𝑡0 ), 𝑦(𝑡0 )) ∙ ∆𝑦 + 𝜀1 (∆𝑥, ∆𝑦) ∙ ∆𝑥 + 𝜀2 (∆𝑥, ∆𝑦) ∙ ∆𝑦
= lim
∆𝑡→0 ∆𝑡
Hacemos distributiva del límite y calculamos cada uno de los límites por separado. El primer
límite es:

𝑓𝑥 (𝑥(𝑡0 ), 𝑦(𝑡0 )) ∙ ∆𝑥
lim
∆𝑡→0 ∆𝑡
∆𝑥
𝑓𝑥 (𝑥(𝑡0 ), 𝑦(𝑡0 )) ∙ lim
∆𝑡→0 ∆𝑡

𝑥(𝑡0 + ∆𝑡) − 𝑥(𝑡0 )


𝑓𝑥 (𝑥(𝑡0 ), 𝑦(𝑡0 )) ∙ lim
∆𝑡→0 ∆𝑡
𝑓𝑥 (𝑥(𝑡0 ), 𝑦(𝑡0 )) ∙ 𝑥 ′ (𝑡0 )

El segundo término del límite se hace un análisis similar:

𝑓𝑦 (𝑥(𝑡0 ), 𝑦(𝑡0 )) ∙ ∆𝑦
lim
∆𝑡→0 ∆𝑡
∆𝑦
𝑓𝑦 (𝑥(𝑡0 ), 𝑦(𝑡0 )) ∙ lim
∆𝑡→0 ∆𝑡

𝑦(𝑡0 + ∆𝑡) − 𝑦(𝑡0 )


𝑓𝑦 (𝑥(𝑡0 ), 𝑦(𝑡0 )) ∙ lim
∆𝑡→0 ∆𝑡
𝑓𝑦 (𝑥(𝑡0 ), 𝑦(𝑡0 )) ∙ 𝑦 ′ (𝑡0 )

El tercero es:

𝜀1 (∆𝑥, ∆𝑦) ∙ ∆𝑥
lim
∆𝑡→0 ∆𝑡
𝜀1 (𝑥(𝑡0 + ∆𝑡) − 𝑥(𝑡0 ), 𝑦(𝑡0 + ∆𝑡) − 𝑦(𝑡0 )) ∙ (𝑥(𝑡0 + ∆𝑡) − 𝑥(𝑡0 ))
lim
∆𝑡→0 ∆𝑡
𝜀1 (𝑥(𝑡0 + ∆𝑡) − 𝑥(𝑡0 ), 𝑦(𝑡0 + ∆𝑡) − 𝑦(𝑡0 )) 𝑥(𝑡0 + ∆𝑡) − 𝑥(𝑡0 )
lim ∙ lim
∆𝑡→0 ∆𝑡 ∆𝑡→0 ∆𝑡
Por la definición de diferenciabilidad, sabemos que 𝜀1 y 𝜀2 tienden a 0 cuando ∆𝑥 y ∆𝑦 tiendan
a 0. En este caso 𝑡 tiende a 0, pero es similar, ya que ∆𝑥 y ∆𝑦 tienden a 0 cuando 𝑡 tiende a 0.
Entonces podemos asegurar:

𝜀1 (𝑥(𝑡0 + ∆𝑡) − 𝑥(𝑡0 ), 𝑦(𝑡0 + ∆𝑡) − 𝑦(𝑡0 )) 𝑥(𝑡0 + ∆𝑡) − 𝑥(𝑡0 )


lim ∙ lim =0
∆𝑡→0 ∆𝑡 ∆𝑡→0 ∆𝑡
Al igual que en el último término del límite, ya que pasa algo similar:

𝜀2 (∆𝑥, ∆𝑦) ∙ ∆𝑦
lim =0
∆𝑡→0 ∆𝑡
Entonces:

𝑤 ′ (𝑡0 ) = 𝑓𝑥 (𝑥(𝑡0 ), 𝑦(𝑡0 )) ∙ 𝑥 ′ (𝑡0 ) + 𝑓𝑦 (𝑥(𝑡0 ), 𝑦(𝑡0 )) ∙ 𝑦 ′ (𝑡0 )

Y concluimos con la demostración.

Nota:
• 𝑤 es de una variable dependiente, pero de solo de la variable 𝑡, por eso se puede escribir
con notación de derivada de una variable, al igual que 𝑥 e 𝑦, ya que todas dependen de 𝑡.
Pero 𝑓 no, ya que 𝑓 depende de 𝑥 e 𝑦. También se tiene que saber que 𝑓 tiene ser
diferenciable a diferencia que x e y que solo tienen que ser derivables.
• En este caso, se denomina a 𝑡 como variable independiente, 𝑥 e 𝑦 variables intermedias y
𝑤 como variable dependiente.

• Hay varias definiciones de la regla de la cadena, dependiendo de la cantidad de variables


independientes e intermedias es la definición, pero esta es la general y es la que nos piden.

Derivación Implícita

Si tenemos una función 𝐹(𝑥, 𝑦) = 𝑐 (siendo 𝑐 una constante) que define implícitamente a 𝑦,
para derivar implícitamente utilizamos la regla de la cadena:
𝐹𝑥 (𝑥, 𝑦) + 𝐹𝑦 (𝑥, 𝑦) ∙ 𝑦 ′ (𝑥) = 0

La derivada de 𝑥 es 1, por eso no se pone en la ecuación. Despejando:

𝐹𝑥 (𝑥, 𝑦)
𝑦 ′ (𝑥) = −
𝐹𝑦 (𝑥, 𝑦)

Y concluimos la demostración. Similarmente se hace para funciones de tres variables.

Nota:
𝐹(𝑥, 𝑦) = 𝑐 es una curva de nivel que define a 𝑦 implícitamente.

Derivada Direccional

Nota:
Se deriva con respecto a una dirección dada por el versor 𝑢̂ y se interpreta como la razón de
cambio y (si la función es una función de dos variables) la pendiente de la recta tangente de la
función en ese punto con respecto a esa dirección con el mismo sentido que el versor. La curva
a la que estamos derivando es la intersección entre la superficie o gráfico y el plano generado
por los versores 𝑢̂ y 𝑘̂ que pasa por el punto 𝑃0 .

Vector Gradiente
Nota:

• Estos vectores, por más que se calculen en 3 dimensiones debido a que las funciones son
de dos variables los gradientes son de dos variables, ya que hay dos derivadas parciales
disponibles y se grafican en el plano 𝑥𝑦 . Los vectores gradientes de una función de dos
variables se componen:

𝜕𝑓 𝜕𝑓
∇𝑓 = ( , )
𝜕𝑥 𝜕𝑦

• En una función de tres variables son:

𝜕𝑓 𝜕𝑓 𝜕𝑓
∇𝑓 = ( , , )
𝜕𝑥 𝜕𝑦 𝜕𝑧

Derivada Direccional como Producto Escalar

Para poder demostrar esta igualdad, lo primero que hacemos es definir una recta en el espacio
que pasa por el punto 𝑃 y tiene como vector director a 𝑢:

𝑟(𝑡) = 𝑃 + 𝑡 ∙ 𝑢

𝑟(𝑡) = (𝑥0 , 𝑦0 ) + 𝑡 ∙ (𝑢1 , 𝑢2 )

O sea:

𝑟1 (𝑡) = 𝑥0 + 𝑡 ∙ 𝑢1

𝑟2 (𝑡) = 𝑦0 + 𝑡 ∙ 𝑢2

𝑟(𝑡) = (𝑟1 (𝑡), 𝑟2 (𝑡))


Donde 𝑡:

0 ≤𝑡≤h

Entonces la derivada de la recta va a ser el vector director:

𝑟 ′ (𝑡) = 𝑢

Ahora aplicamos la definición de derivada direccional para una función 𝑓 diferenciable en un


punto 𝑃 de su dominio:

𝑓(𝑃 + h ∙ 𝑢) − 𝑓(𝑃)
𝐷𝑢 𝑓(𝑃) = lim
h→0 h
𝑓(𝑟(h)) − 𝑓(𝑟(0))
𝐷𝑢 𝑓(𝑃) = lim
h→0 h
𝜕
𝐷𝑢 𝑓(𝑃) = (𝑓(𝑟(0)))
𝜕𝑡
𝐷𝑢 𝑓(𝑃) = 𝑓𝑥 (𝑟(0)) ∙ 𝑟1 (0) + 𝑓𝑦 (𝑟(0)) ∙ 𝑟2 (0)

𝐷𝑢 𝑓(𝑃) = 𝑓𝑥 (𝑃) ∙ 𝑢1 + 𝑓𝑦 (𝑃) ∙ 𝑢2

𝐷𝑢 𝑓(𝑃) = ∇𝑓(𝑃) ∙ 𝑢

Y concluimos con la demostración.

Nota:
Este teorema también es útil para saber si una función es diferenciable en un punto, ya que
solo sirve para funciones que son diferenciables. Si este resultado nos da distinto a la derivada
direccional calculada por definición, entonces la función no es diferenciable en ese punto.

Derivada Direccional Máxima

Como ya vimos en la demostración anterior, tenemos:

𝐷𝑢 𝑓(𝑃) = ∇𝑓(𝑃) ∙ 𝑢

Pero también la podemos expresar de la siguiente manera gracias a la definición de producto


escalar:

𝐷𝑢 𝑓(𝑃) = ||∇𝑓(𝑃)|| ∙ ||𝑢|| ∙ cos(𝛼)

Donde 𝛼 es el ángulo medido desde el vector ∇𝑓(𝑃) hasta 𝑢. Pero también tenemos que el
módulo de 𝑢 es 1, ya que es unvector unitario, entonces:

𝐷𝑢 𝑓(𝑃) = ||∇𝑓(𝑃)|| ∙ cos(𝛼)


De acá podemos concluir que, si el ángulo entre estos vectores es nulo, el producto vectorial
va a ser máximo, entonces la derivada direccional va a ser máxima con el valor del módulo del
gradiente de la función en ese punto. Para que esto suceda, el vector unitario debe tener la
misma dirección y sentido que el gradiente.

Nota:
Como conclusión de este teorema, podemos asegurar que el gradiente apunta hacia donde la
función crece más rápido, ya que si buscamos la derivada direccional con la dirección que la
función crece más rápido, la derivada direccional va a ser la más grande en ese punto.

Gradiente Normal a la Curva

Tenemos una curva de nivel de 𝑓 que pasa por el punto 𝑃0 de su dominio parametrizada como:

𝑟(𝑡) = (𝑥(𝑡), 𝑦(𝑡))

Suponemos que:

𝑟(𝑡0 ) = 𝑃0

Como 𝑟(𝑡) es una curva de nivel, entonces:

𝑓(𝑟(𝑡)) = 𝑐

Donde 𝑐 es una constante. Entonces derivamos con respecto a 𝑡:

𝑑
(𝑓(𝑟(𝑡))) = 0
𝑑𝑡
𝑓𝑥 (𝑟(𝑡)) ∙ 𝑥 ′ (𝑡) + 𝑓𝑦 (𝑟(𝑡)) ∙ 𝑦 ′ (𝑡) = 0

∇𝑓(𝑟(𝑡)) ∙ 𝑟 ′ (𝑡) = 0

Si evaluamos en 𝑡 = 𝑡0 , tenemos que estos dos vectores son ortogonales. Como 𝑟 ′ (𝑡) es
tangente a la curva de nivel y 𝑓(𝑟(𝑡)) es ortogonal a este, entonces 𝑓(𝑟(𝑡)) es ortogonal a la
curva de nivel también.

Nota:
Si evaluamos una función de 3 variables independientes, entonces el gradiente es normal a la
superficie de nivel en ese punto.

Planos Tangentes y Rectas Normales


Nota:

• El plano tangente a la superficie de nivel se escribe:

(𝑓𝑥 , 𝑓𝑦 , 𝑓𝑧 ) ⋅ (𝑥 − 𝑥0 , 𝑦 − 𝑦0 , 𝑧 − 𝑧0 ) = 0

𝑓𝑥 ⋅ (𝑥 − 𝑥0 ) + 𝑓𝑦 ⋅ (𝑦 − 𝑦0 ) + 𝑓𝑧 ⋅ (𝑧 − 𝑧0 ) = 0

• La recta normal a la superficie es:

(𝑥, 𝑦, 𝑧) = (𝑥0 , 𝑦0 , 𝑧0 ) + 𝑡 ⋅ (𝑓𝑥 , 𝑓𝑦 , 𝑓𝑧 )

• El plano tangente a la función de dos variables es:

(𝑓𝑥 , 𝑓𝑦 ) ⋅ (𝑥 − 𝑥0 , 𝑦 − 𝑦0 ) − (𝑧 − 𝑧0 ) = 0

𝑓𝑥 ⋅ (𝑥 − 𝑥0 ) + 𝑓𝑦 ⋅ (𝑦 − 𝑦0 ) − 𝑧 + 𝑧0 = 0

• La recta normal a la función es:

(𝑥, 𝑦, 𝑧) = (𝑥0 , 𝑦0 , 𝑧0 ) + 𝑡 ⋅ (𝑓𝑥 , 𝑓𝑦 , −1)

Linealización

Nota:
• Si la función es diferenciable, la linealización es una muy buena aproximación a la función
en un entorno del punto donde la estamos evaluando.
• Cuando (𝑥0 , 𝑦0 ) varía a (𝑥0 + ∆𝑥, 𝑦0 + ∆𝑦), la función varía:

∆𝑓(𝑥0 , 𝑦0 ) = 𝑓𝑥 (𝑥0 , 𝑦0 ) ∙ ∆𝑥 + 𝑓𝑦 (𝑥0 , 𝑦0 ) ∙ ∆𝑦 + 𝜀1 (∆𝑥, ∆𝑦) ∙ ∆𝑥 + 𝜀2 (∆𝑥, ∆𝑦) ∙ ∆𝑦

Y la linealización varía:

∆𝐿(𝑥0 , 𝑦0 ) = 𝐿(𝑥0 + ∆𝑥, 𝑦0 + ∆𝑦) − 𝐿(𝑥0 , 𝑦0 )

∆𝐿(𝑥0 , 𝑦0 ) = 𝑓(𝑥0 , 𝑦0 ) + 𝑓𝑥 (𝑥0 , 𝑦0 ) ∙ ∆𝑥 + 𝑓𝑦 (𝑥0 , 𝑦0 ) ∙ ∆𝑦 − 𝑓(𝑥0 , 𝑦0 )

∆𝐿(𝑥0 , 𝑦0 ) = 𝑓𝑥 (𝑥0 , 𝑦0 ) ∙ ∆𝑥 + 𝑓𝑦 (𝑥0 , 𝑦0 ) ∙ ∆𝑦

Diferencial de una Función de Dos Variables

Nota:
El diferencial de la función es la linealización sin tomar en cuenta la función evaluada en el
punto. Esto se debe a que la linealización es una buena aproximación a la función cuando está
en un entorno del punto. Se puede ver así:

𝑓(𝑥0 + 𝑑𝑥, 𝑦0 + 𝑑𝑦) = 𝑓(𝑥0 , 𝑦0 ) + 𝑓𝑥 (𝑥0 , 𝑦0 ) ⋅ 𝑑𝑥 + 𝑓𝑦 (𝑥0 , 𝑦0 ) ⋅ 𝑑𝑦 + 𝜀1 ⋅ 𝑑𝑥 + 𝜀2 ⋅ 𝑑𝑦

Si quitamos los errores:

𝑓(𝑥0 + 𝑑𝑥, 𝑦0 + 𝑑𝑦) ≅ 𝑓(𝑥0 , 𝑦0 ) + 𝑓𝑥 (𝑥0 , 𝑦0 ) ⋅ 𝑑𝑥 + 𝑓𝑦 (𝑥0 , 𝑦0 ) ⋅ 𝑑𝑦

𝑓(𝑥0 + 𝑑𝑥, 𝑦0 + 𝑑𝑦) − 𝑓(𝑥0 , 𝑦0 ) ≅ 𝑓𝑥 (𝑥0 , 𝑦0 ) ⋅ 𝑑𝑥 + 𝑓𝑦 (𝑥0 , 𝑦0 ) ⋅ 𝑑𝑦

O sea:

𝑑𝑓(𝑥0 , 𝑦0 ) ≅ 𝑓𝑥 (𝑥0 , 𝑦0 ) ⋅ 𝑑𝑥 + 𝑓𝑦 (𝑥0 , 𝑦0 ) ⋅ 𝑑𝑦

Entonces el diferencial es el cambio del valor de la función cuando se mueve de un punto


(𝑥0 , 𝑦0 ) a (𝑥0 , 𝑦0 ) + (𝑑𝑥, 𝑑𝑦).

Fórmula de Taylor de Dos Variables


La fórmula de cálculo es parecida a la de funciones de una variable. Solo que ahora
necesitamos las derivadas parciales de las dos variables en todos los órdenes posibles. Los
polinomios de Taylor se calculan así hasta el n-ésimo término más uno que es el error en un
punto 𝑐. La linealización es un polinomio de Taylor de orden 1.

Máximos y Mínimos Locales


Punto Crítico y Punto Silla

Nota:
Si la función presenta un punto crítico en una función que no es diferenciable, no es un punto
de silla.

Valores Extremos

Nota:
Este teorema solo aplica cuando la función es acotada, si no es acotada, lo más probable es
que no tenga ni máximos ni mínimos absolutos. Cuando nos dan una función en una región
acotada, tenemos que evaluar la función en los puntos de los extremos del dominio y en los
puntos críticos de estos.

Criterio de la Derivada Primera

Supongamos que en un punto 𝑃0 , 𝑓 alcanza un extremo local. Si en una función de dos


variables consideramos una variable fija, podemos decir que es una función de una variable. O
sea, tenemos 𝑓(𝑥, 𝑦0 ) donde 𝑥 puede variar, entonces esta función de una variable también
tiene un máximo local en 𝑥 = 𝑥0. Por el criterio de la derivada primera para funciones de una
variable, si la derivada de 𝑓(𝑥, 𝑦0 ) existe en el punto 𝑥0 , entonces esta debe ser igual a 0.
Entonces:
𝑓𝑥 (𝑥0 , 𝑦0 ) = 0

Similarmente se prueba que 𝑓𝑦 (𝑥0 , 𝑦0 ) = 0. Y concluye la demostración.

Nota:
Si el vector gradiente es el nulo, no necesariamente va a haber un máximo o mínimo local, pero
siempre va a ser un punto crítico.

Criterio de la Derivada Segunda

Esta demostración la realizamos con la fórmula de Taylor para funciones de dos variables.
Como las derivadas parciales de orden uno y dos son continuas en el disco centrado en (𝑎, 𝑏),
se puede aplicar. Usamos la fórmula:

𝑓(𝑎 + ℎ, 𝑏 + 𝑘)
1
= 𝑓(𝑎, 𝑏) + (ℎ ∙ 𝑓𝑥 (𝑎, 𝑏) + 𝑘 ∙ 𝑓𝑦 (𝑎, 𝑏)) +
2
2
∙ (ℎ ∙ 𝑓𝑥 (𝑎 + 𝑐 ∙ h, 𝑏 + 𝑐 ∙ 𝑘) + 𝑘 ∙ 𝑓𝑦 (𝑎 + 𝑐 ∙ h, 𝑏 + 𝑐 ∙ 𝑘))

Para un 𝑐 entre 0 y 𝛽. Pero como tenemos que el gradiente es nulo en el punto:


1 2
𝑓(𝑎 + ℎ, 𝑏 + 𝑘) = 𝑓(𝑎, 𝑏) + ∙ (ℎ ∙ 𝑓𝑥 (𝑎 + 𝑐 ∙ ℎ, 𝑏 + 𝑐 ∙ 𝑘) + 𝑘 ∙ 𝑓𝑦 (𝑎 + 𝑐 ∙ ℎ, 𝑏 + 𝑐 ∙ 𝑘))
2
1 2
𝑓(𝑎 + ℎ, 𝑏 + 𝑘) − 𝑓(𝑎, 𝑏) = ∙ (ℎ ∙ 𝑓𝑥 (𝑎 + 𝑐 ∙ ℎ, 𝑏 + 𝑐 ∙ 𝑘) + 𝑘 ∙ 𝑓𝑦 (𝑎 + 𝑐 ∙ ℎ, 𝑏 + 𝑐 ∙ 𝑘))
2
1 2
∆𝑓(𝑎, 𝑏) = ∙ (ℎ ∙ 𝑓𝑥 (𝑎 + 𝑐 ∙ ℎ, 𝑏 + 𝑐 ∙ 𝑘) + 𝑘 ∙ 𝑓𝑦 (𝑎 + 𝑐 ∙ ℎ, 𝑏 + 𝑐 ∙ 𝑘))
2
Lo que nos interesa en este caso es el signo del incremento en el punto (𝑎, 𝑏), ya que en este
punto hay un extremo local. Entonces si el signo es positivo, es porque la función aumento su
valor cuando paso del punto (𝑎, 𝑏) al (𝑎 + ℎ, 𝑏 + 𝑘), es decir, este punto hay un mínimo local.
Similarmente para el signo negativo. Desarrollando la ecuación anterior:
1
∆𝑓(𝑎, 𝑏) = ∙ (ℎ2 ∙ 𝑓𝑥𝑥 (𝑎 + 𝑐 ∙ ℎ, 𝑏 + 𝑐 ∙ 𝑘) + 2 ∙ ℎ ∙ 𝑘 ∙ 𝑓𝑥𝑦 (𝑎 + 𝑐 ∙ ℎ, 𝑏 + 𝑐 ∙ 𝑘) + 𝑘 2
2
∙ 𝑓𝑦𝑦 (𝑎 + 𝑐 ∙ ℎ, 𝑏 + 𝑐 ∙ 𝑘) )
Se puede hacer esto por el teorema de Clairaut. Ahora si en vez de evaluar en el punto
(𝑎 + h, 𝑏 + 𝑘), lo hacemos en el punto (𝑎, 𝑏), nos va a dar un valor aproximado al resultado
original, ya que lo que nos importa es el signo de esto, no nos interesa el resultado. Entonces:
1
∆𝑓(𝑎, 𝑏) ≈ ∙ (ℎ2 ∙ 𝑓𝑥𝑥 (𝑎, 𝑏) + 2 ∙ ℎ ∙ 𝑘 ∙ 𝑓𝑥𝑦 (𝑎, 𝑏) + 𝑘 2 ∙ 𝑓𝑦𝑦 (𝑎, 𝑏) )
2
𝑠𝑔(∆𝑓(𝑎, 𝑏)) = 𝑠𝑔(ℎ2 ∙ 𝑓𝑥𝑥 (𝑎, 𝑏) + 2 ∙ ℎ ∙ 𝑘 ∙ 𝑓𝑥𝑦 (𝑎, 𝑏) + 𝑘 2 ∙ 𝑓𝑦𝑦 (𝑎, 𝑏) )
1
Sacamos 2 ya que no al ser ositivo, no influye en el signo. Asumiendo que 𝑓𝑥𝑥 (𝑎, 𝑏) es distinto
de 0, multiplicamos a ambos miembros por este:

𝑠𝑔(∆𝑓(𝑎, 𝑏) ∙ 𝑓𝑥𝑥 (𝑎, 𝑏))


= 𝑠𝑔 (ℎ2 ∙ 𝑓𝑥𝑥
2 (𝑎,
𝑏) + 2 ∙ ℎ ∙ 𝑘 ∙ 𝑓𝑥𝑦 (𝑎, 𝑏) ∙ 𝑓𝑥𝑥 (𝑎, 𝑏) + 𝑘 2 ∙ 𝑓𝑦𝑦 (𝑎, 𝑏)
∙ 𝑓𝑥𝑥 (𝑎, 𝑏))

Ahora lo que hacemos es sumar y restar 𝑘 2 ∙ 𝑓𝑥𝑦 (𝑎, 𝑏) para poder completar un cuadrado del
binomio perfecto, entonces:

𝑠𝑔(∆𝑓(𝑎, 𝑏) ∙ 𝑓𝑥𝑥 (𝑎, 𝑏))


= 𝑠𝑔 (ℎ2 ∙ 𝑓𝑥𝑥
2 (𝑎,
𝑏) + 2 ∙ ℎ ∙ 𝑘 ∙ 𝑓𝑥𝑦 (𝑎, 𝑏) ∙ 𝑓𝑥𝑥 (𝑎, 𝑏) + 𝑘 2 ∙ 𝑓𝑦𝑦 (𝑎, 𝑏)
∙ 𝑓𝑥𝑥 (𝑎, 𝑏) + 𝑘 2 ∙ 𝑓𝑥𝑦 (𝑎, 𝑏) − 𝑘 2 ∙ 𝑓𝑥𝑦 (𝑎, 𝑏))

Ahora podemos reagrupar en el cuadrado de un binomino y el Hessiano:

𝑠𝑔(∆𝑓(𝑎, 𝑏) ∙ 𝑓𝑥𝑥 (𝑎, 𝑏))


= 𝑠𝑔 (ℎ2 ∙ 𝑓𝑥𝑥
2 (𝑎,
𝑏) + 2 ∙ ℎ ∙ 𝑘 ∙ 𝑓𝑥𝑦 (𝑎, 𝑏) ∙ 𝑓𝑥𝑥 (𝑎, 𝑏) + 𝑘 2 ∙ 𝑓𝑥𝑦 (𝑎, 𝑏) + 𝑘 2
∙ 𝑓𝑦𝑦 (𝑎, 𝑏) ∙ 𝑓𝑥𝑥 (𝑎, 𝑏) − 𝑘 2 ∙ 𝑓𝑥𝑦 (𝑎, 𝑏))

2
𝑠𝑔(∆𝑓(𝑎, 𝑏) ∙ 𝑓𝑥𝑥 (𝑎, 𝑏)) = 𝑠𝑔 ((ℎ ∙ 𝑓𝑥𝑥 (𝑎, 𝑏) + 𝑘 ∙ 𝑓𝑥𝑦 (𝑎, 𝑏)) + 𝑘 2 ∙ 𝐻𝑓 (𝑎, 𝑏))

Ahora que llegamos a esta expresión, podemos trabajar en ella con tres posibilidades. Si el
Hessiano es positivo, el lado de la derecha de la igualdad es positiva, entonces:

𝑠𝑔(∆𝑓(𝑎, 𝑏)) = 𝑠𝑔(𝑓𝑥𝑥 (𝑎, 𝑏))

Entonces tenemos dos casos:

▪ Si 𝑓𝑥𝑥 (𝑎, 𝑏) > 0, ∆𝑓(𝑎, 𝑏) > 0 y tenemos un mínimo local.

▪ Si 𝑓𝑥𝑥 (𝑎, 𝑏) < 0, ∆𝑓(𝑎, 𝑏) < 0 y tenemos un máximo local.

Si el Hessiano es negativo, tenemos que probar que determina que es un punto silla. Para eso,
tenemos que probar que para algunos puntos cercanos a (𝑎, 𝑏) y pertenecientes al disco
centrado la función aumenta y disminuye para otros, entonces:

• Si 𝑘 = 0 y evaluamos en un punto de la forma (𝑎 + ℎ, 𝑏):


2
• 𝑠𝑔(∆𝑓(𝑎, 𝑏) ∙ 𝑓𝑥𝑥 (𝑎, 𝑏)) = 𝑠𝑔 ((ℎ ∙ 𝑓𝑥𝑥 (𝑎, 𝑏)) )

• El lado de la derecha es positivo, entonces el lado de la izquierda también.


𝑘 𝑓𝑥𝑥 (𝑎,𝑏)
• Si ahora tenemos la relación ℎ = − 𝑓 para el punto (𝑎 + ℎ, 𝑏 + 𝑘), tenemos:
𝑥𝑦 (𝑎,𝑏)

• 𝑠𝑔(∆𝑓(𝑎, 𝑏) ∙ 𝑓𝑥𝑥 (𝑎, 𝑏)) = 𝑠𝑔 (ℎ2 ∙ 𝐻𝑓 (𝑎, 𝑏))

• Tenemos que el lado derecho de la ecuación es negativo, por lo tanto el lado de


la izquierda también lo es.

• Entonces con esto encontramos que para algunos puntos cercanos al punto evaluado
tenemos que en algunas direcciones la función aumenta y en otras disminuye, entonces
concluimos que es un punto silla el encontrado.

Si ahora el Hessiano es nulo, tenemos quedemostrar con 3 ejemplos que cuando el Hessiano
se anula, no concluye.

▪ Si tenemos la función 𝐹(𝑥, 𝑦) = 𝑥 4 + 𝑦 4 , el gradiente se anula en el origen y el Hessiano


también, pero si graficamos la función, podemos ver que en el origen la función alcanza
un mínimo local.

▪ Si tenemos la función 𝐹(𝑥, 𝑦) = −𝑥 4 − 𝑦 4 , el gradiente se anula en el origen y el


Hessiano también, pero si graficamos la función, podemos ver que en el origen la función
alcanza un máximo local.

▪ Si tenemos la función 𝐹(𝑥, 𝑦) = 𝑥 4 − 𝑦 4 , el gradiente se anula en el origen y el Hessiano


también, pero si graficamos la función, podemos ver que para algunas direcciones la
función crece y para otros, decrece.

Con estos 3 ejemplos podemos ver que cuando el Hessiano se anula, este no concluye.

Nota:
𝑓𝑥𝑥 (𝑎, 𝑏) 𝑓𝑦𝑥 (𝑎, 𝑏)
𝐻𝑓 = | |
𝑓𝑥𝑦 (𝑎, 𝑏) 𝑓𝑦𝑦 (𝑎, 𝑏)

O sea:
2
𝐻𝑓 = 𝑓𝑥𝑥 (𝑎, 𝑏) ∙ 𝑓𝑦𝑦 (𝑎, 𝑏) − (𝑓𝑥𝑦 (𝑎, 𝑏))

Teorema del Gradiente Ortogonal

Suponemos que tenemos una curva 𝐶 en el espacio parametrizada por 𝑟(𝑡) y tenemos el punto
𝑃0 = 𝑟(𝑡0 ) donde 𝑡0 pertenece al intervalo de las 𝑡. Si 𝑤(𝑡) = 𝑓(𝑟(𝑡)) alcanza un valor
extremo en 𝑡0 , como 𝑓 es diferenciable tenemos:

𝑤 ′ (𝑡0 ) = ∇𝑓(𝑟(𝑡0 )) ∙ 𝑟 ′ (𝑡0 )

Pero también alcanza un valor extremo en 𝑡 = 𝑡0 , entonces:


𝑤 ′ (𝑡0 ) = 0

Si igualamos las dos ecuaciones obtenemos:

∇𝑓(𝑟(𝑡0 )) ∙ 𝑟 ′ (𝑡0 ) = 0

Y acá concluimos que los dos vectores son ortogonales.

Nota:
Este teorema indica que el gradiente va a ser normal o perpendicular al vector tangente
unitario a la curva. En ℝ2 también vale. Entonces si vemos las curvas de nivel de una función
acotada, tenemos que buscar los gradientes que sean perpendiculares a ambas curvas de nivel,
los de las funciones y el de la región acotada que va a ser una función también.

Multiplicadores de Lagrange

Nota:
• El procedimiento para resolver estas ecuaciones es el siguiente. Igualamos las
componentes del gradiente de la función con las componentes del gradiente de la región
acotada multiplicada por 𝜆 y como última ecuación del sistema tenemos la función 𝑔 = 0.
Resolvemos el sistema de ecuaciones y vamos a obtener los puntos en donde el gradiente
de la función acotada es paralelo al gradiente de la restricción. En funciones de dos
variables vamos a tener tres incógnitas y en funciones de tres variables, cinco.

• Para las funciones de tres variables, las restricciones son dos funciones que la intersección
entre estas genera a la curva 𝐶. Entonces en el sistema de ecuaciones, lo que
encontraremos será el gradiente de la función igualado a una combinación lineal de los
gradientes. La resolución es la misma, pero más compleja.

• La restricción 𝐺 tiene que ser acotada y cerrada para que podamos asegurar que 𝐹 tenga
valores extremos absolutos en la restricción. Si 𝐺 no es acotada y cerrada, puede que la
función tenga valores extremos absolutos, pero no lo podemos asegurar.

Ejemplo:
Se tiene la función:

𝐹(𝑥, 𝑦) = 𝑥 2 + 2 ∙ 𝑦 2

La restricción es:
𝐺(𝑥, 𝑦) = 𝑥 2 + 𝑦 2 − 1

Se iguala a 𝐺(𝑥, 𝑦) = 0, se calculan los gradientes de cada una de las funciones y se resuelve
el sistema de ecuaciones:

∇𝐹(𝑥, 𝑦) = (2 ∙ 𝑥, 4 ∙ 𝑦)

∇𝐺(𝑥, 𝑦) = (2 ∙ 𝑥, 2 ∙ 𝑦)

2∙𝑥 = 𝜆∙2∙𝑥
{ 4∙𝑦 = 𝜆∙2∙𝑦
𝑥2 + 𝑦2 − 1 = 0

De la primera ecuación del sistema podemos obtener 𝜆 = 1, reemplazamos en la segunda


ecuación y obtenemos 𝑦 = 0. Luego, al saber esto, podemos reemplazar en la última ecuación
y obtener los valores de los puntos:

𝑥2 + 𝑦2 − 1 = 0

𝑥 2 + (0)2 − 1 = 0

𝑥2 = 1

𝑥 = ±1

Entonces ya tenemos dos de los puntos donde va a alcanzar valores extremos en la región:

𝑃1 = (1, 0)

𝑃2 = (−1, 0)

Pero también podemos evaluar cuando λ ≠ 1, entonces en la primera sacamos y = 0.


Reemplazamos en la última ecuación y obtenemos:

𝑥2 + 𝑦2 − 1 = 0

(0)2 + 𝑦 2 − 1 = 0

𝑦2 = 1

𝑦 = ±1

Lo mismo que el caso anterior, tenemos los puntos:

𝑃3 = (0, 1)

𝑃4 = (0, − 1)

En los puntos críticos obtenidos, ahora los evaluamos en la función y tenemos los máximos y
mínimos absolutos porque 𝐺 es una curva cerrada y acotada, para todos los puntos que
pertenecen a la función y satisfacen la restricción. Entonces:

𝐹(𝑃1 ) = 1

𝐹(𝑃2 ) = 1

𝐹(𝑃3 ) = 2

𝐹(𝑃4 ) = 2
En 𝑃1 y 𝑃1 , F alcanza mínimos absolutos en 𝐺 y en 𝑃1 y 𝑃1 , F alcanza máximos absolutos en 𝐺 .
Y se concluye el ejercicio.

Unidad 3 - Integración de Funciones de


Varias Variables
Definición de Integral Doble y Triple sobre Rectángulos

Cuando tenemos un rectángulo o una región 𝑅 rectangular, hacemos una partición con rectas
paralelas al eje 𝑥 y al eje 𝑦. Al particionar nos tiene que quedar la misma cantidad de
subintervalos en [𝑎, 𝑏] y en [𝑐, 𝑑].

Ahora analizamos cómo se comporta cada subrectángulo de la región. Cada bloque tiene su
distancia paralela al eje 𝑥 y su distancia paralela al eje 𝑦. Estas distancias forman un área.
Llamaremos a cada distancia como ∆𝑥𝑖 , ∆𝑦𝑗 y ∆𝐴𝑖𝑗 , donde ∆𝐴𝑖𝑗 = ∆𝑥𝑖 ∙ ∆𝑦𝑗 . Ahora tomaremos
un punto cualquiera adentro del rectangulito que tendrá coordenadas (𝑥𝑖 , 𝑦𝑗 ). Ahora
tomaremos la imagen del punto (𝑥𝑖 , 𝑦𝑗 ) como la imagen de todos los puntos del rectangulito.
Haremos eso con cada uno de los 𝑛2 rectángulos y formamos la suma de Riemann:
𝑛 𝑛

𝑆𝑛 = ∑ ∑ 𝑓(𝑥𝑖 , 𝑦𝑗 ) ∙ ∆𝐴𝑖𝑗
𝑖=1 𝑗=1
Si tenemos que el límite de la norma de la partición cuando tiende a 0 de 𝑆𝑛 existe para
cualquier elección de los puntos (𝑥𝑖 , 𝑦𝑗 ), se dice que 𝑓 es integrable sobre 𝑅 y que la integral
doble de 𝑓 sobre 𝑅 es el límite de las sumas de 𝑆𝑛 :

lim 𝑆𝑛 = ∬ 𝑓(𝑥, 𝑦) 𝑑𝐴
||𝑃||→0 𝑅
Análogamente a la deducción de la integral doble, se hace con la integral triple. Ahora tenemos
cubitos con volumen ∆𝑉𝑖𝑗𝑘 donde ∆𝑉𝑖𝑗𝑘 = ∆𝑥𝑖 ∙ ∆𝑦𝑗 ∙ ∆𝑧𝑘 . Tomamos un punto cualquiera con
coordenadas (𝑥𝑖 , 𝑦𝑗 , 𝑧𝑘 ) y tomamos como si todos los puntos del cubo tuvieran la imagen de
𝑓 en el punto. Entonces ahora realizamos la suma de Riemann de todos los 𝑛3 cubos:
𝑛 𝑛 𝑛

𝑆𝑛 = ∑ ∑ ∑ 𝑓(𝑥𝑖 , 𝑦𝑗 , 𝑧𝑘 ) ∙ ∆𝑉𝑖𝑗𝑘
𝑖=1 𝑗=1 𝑘=1

Ahora hacemos que la norma de la partición tienda a 0 y si este límite existe para cualquier
punto de cualquier cubo, entonces se dice que 𝑓 es integrable en la región y que la integral
triple de 𝑓 sobre 𝑅 es el límite de la suma de Riemann:

lim 𝑆𝑛 = ∭ 𝑓(𝑥, 𝑦, 𝑧) 𝑑𝑉
||𝑃||→0 𝑅

Nota:
• La norma de la partición de las integrales dobles es el subintervalo más grande que se hace
paralelo al eje 𝑥 y al eje 𝑦 o también puede ser la diagonal más grande de los
subrectángulos que forman estos subintervalos. Si estos se hacen tender a 0, entonces la
sumatoria de Riemann es igual a la integral doble.

• La norma de la partición de las integrales triples es el subintervalo más grande que se hace
paralelo al eje 𝑥 , al eje 𝑦, al eje 𝑧 o también puede ser la diagonal más grande de las celdas
que forman estos subintervalos. Si estos se hacen tender a 0, entonces la sumatoria de
Riemann es igual a la integral triple.

• Las funciones o campos escalares tienen que ser acotadas en las regiones 𝑅.

Definición de Integral Doble y Triple sobre Otras


Regiones
Nota:
Cuando tenemos una región que no es rectangular, algunos subrectángulos o celdas pueden
contener puntos de la región y puntos que no pertenecen a esta. Se toman siempre los que
están adentro, ya que, para poder calcular el volumen o la masa de la función, siempre y
cuando la función en toda la región sea mayor o igual a 0, se evalúa un punto 𝑐 del
subrectángulo o celdas. Si este subrectángulo o celda contiene puntos que no pertenecen a la
región, este punto 𝑐 podría no estar en la región.

Propiedades de las Integrales Dobles


Propiedades de las Integrales Triples

Teorema de Fubini para Integrales Dobles


Nota:
Este teorema relaciona las integrales iteradas, que son las integrales que sabemos calcular con
las integrales dobles.

Teorema de Fubini para Integrales Triples

Nota:
Este teorema nos dice que no importa el orden con el que integremos, el resultado tiene que
ser el mismo.
Área por Doble Integración

Nota:
En esta integral doble lo que hacemos es calcular el volumen de la función constante igual a 1.
El volumen coincide con el área que estamos calculando.

Volumen por Integral Triple

Nota:
En esta integral triple lo que hacemos es calcular la masa de una función constante igual a 1.
La masa coincide con el volumen que estamos calculando.

Valor Medio de una Integral Doble

Nota:
Lo que hacemos en este caso es buscar un valor promedio de 𝑓 con el cual integrando doble en
la misma región a la función constante, dé el mismo resultado.

Valor Medio de una Integral Triple


Nota:
Lo que hacemos en este caso es buscar un valor promedio de 𝑓 con el cual integrando triple en
la misma región a la función constante, dé el mismo resultado.

Masa y Centro de Masa con Integración triple

Nota:

• Si un cuerpo tiene una densidad variable en cada punto de este, entonces la masa total del
cuerpo va a ser la integral triple de la función densidad 𝛿(𝑥, 𝑦, 𝑧).

• Las coordenadas del centro de masa van a ser la integral triple de la densidad por la
variable independiente dividida el volumen total.

• Si la densidad es constante, entonces el centro de masa se denomina centroide.

Transformaciones del Plano


Una transformación del plano es aquella transformación que lleva puntos de una región 𝑆 a
otra región 𝑅, pero sobre ℝ2 . Se realiza este proceso con funciones con valores vecoriales.
Entonces, a una función 𝑓(𝑥, 𝑦) se le aplica una transformación biyectiva:

𝑇: 𝑆 → 𝑅

𝑇(𝑢, 𝑣) = (𝑥, 𝑦) = (𝑥(𝑢, 𝑣), 𝑦(𝑢, 𝑣))

Fórmula de Cambio de Variable


Tenemos una función 𝑓(𝑥, 𝑦) y le aplicamos una transformación 𝑟(𝑢, 𝑣) =
(𝑥(𝑢, 𝑣), 𝑦(𝑢, 𝑣)). La región 𝑆 va a ser el dominio de 𝑢 y 𝑣, y la región 𝑅 va a ser la imagen
de 𝑟(𝑢, 𝑣):

Como nosotros queremos integrar a 𝑓, al ser esta continua, es integrable, o sea que la suma
de Riemann asociadas a una partición de 𝑅, cumple que cuando tomamos el límite de la norma
de la partición tendiendo a 0, esta tienda a la integral doble. Como queremos integrar sobre la
región 𝑅, ahora hacemos una partición en el dominio, o en 𝑆, y esta partición va a inducir una
partición en nuestra región 𝑅:

Ahora llamaremos ∆𝑢 y ∆𝑣 a los lados de una región 𝑆𝑖𝑗 y en las imágenes tendremos una
región 𝑅𝑖𝑗 que sería el área del rectángulo. Entonces:
𝑛 𝑛

∬ 𝑓(𝑥, 𝑦) 𝑑𝐴 = lim ∑ ∑ 𝑓(𝑥𝑖 , 𝑦𝑗 ) ∙ 𝑅𝑖𝑗


||𝑃||→0
𝑖=1 𝑗=1

Ahora analizamos los rectángulos genéricos más a detalle:

Digamos que el punto (𝑢0 , 𝑣0 ), al aplicarle la transformación, (𝑥0 , 𝑦0 ) = 𝑟(𝑢0 , 𝑣0 ). Podemos


ver que, al aplicar la transformación, los puntos (𝑢, 𝑣0 ) se transforman en 𝑟(𝑢, 𝑣0 ), y similar
cuando dejamos fija 𝑢0 . Entonces:
Podemos ver ahora que el área 𝑅𝑖𝑗 va a ser parecido al área cuyos lados son los vectores:

𝑎 = 𝑟(𝑢0 + ∆𝑢, 𝑣0 ) − 𝑟(𝑢0 , 𝑣0 )

𝑏 = 𝑟(𝑢0 , 𝑣0 + ∆𝑣) − 𝑟(𝑢0 , 𝑣0 )

Pero si vemos la derivada parcial de la transformación 𝑟 con respecto aambas variables,


podemos encontrar nuestros vectores:

𝑟(𝑢0 + ∆𝑢, 𝑣0 ) − 𝑟(𝑢0 , 𝑣0 )


𝑟𝑢 (𝑢0 , 𝑣0 ) = lim
∆𝑢→0 ∆𝑢
𝑟(𝑢0 , 𝑣0 + ∆𝑣) − 𝑟(𝑢0 , 𝑣0 )
𝑟𝑣 (𝑢0 , 𝑣0 ) = lim
∆𝑢→0 ∆𝑢
Donde si no tomamos el límite de ∆𝑢 tendiendo a 0 y lo evaluamos en el ∆𝑢 que habíamos
tomado, estos valores van a ser aproximados:

𝑟(𝑢0 + ∆𝑢, 𝑣0 ) − 𝑟(𝑢0 , 𝑣0 )


𝑟𝑢 (𝑢0 , 𝑣0 ) ≈
∆𝑢
𝑟(𝑢0 , 𝑣0 + ∆𝑣) − 𝑟(𝑢0 , 𝑣0 )
𝑟𝑣 (𝑢0 , 𝑣0 ) ≈
∆𝑢
Entonces despejamos:

𝑎 ≈ 𝑟𝑢 (𝑢0 , 𝑣0 ) ∙ ∆𝑢

𝑏 ≈ 𝑟𝑏 (𝑢0 , 𝑣0 ) ∙ ∆𝑣

Entonces al tener estas aproximaciones, podemos tener una aproximación del área del
paralelogramo formado por las aproximaciones que acabamos de encontrar. Entonces:

Á𝑟𝑒𝑎 = |𝑟𝑢 (𝑢0 , 𝑣0 ) ∙ ∆𝑢 × 𝑟𝑏 (𝑢0 , 𝑣0 ) ∙ ∆𝑣|

Á𝑟𝑒𝑎 = |𝑟𝑢 (𝑢0 , 𝑣0 ) × 𝑟𝑣 (𝑢0 , 𝑣0 )| ∙ ∆𝑢 ∙ ∆𝑣

Calculamos el producto vectorial:

𝑖 𝑗 𝑘
𝑟𝑢 (𝑢0 , 𝑣0 ) × 𝑟𝑣 (𝑢0 , 𝑣0 ) = |𝑥𝑢 𝑦𝑢 0|
𝑥𝑣 𝑦𝑣 0
𝑥𝑢 𝑦𝑢
𝑟𝑢 (𝑢0 , 𝑣0 ) × 𝑟𝑣 (𝑢0 , 𝑣0 ) = 𝑘 ∙ |𝑥 𝑦𝑣 |
𝑣

𝑥𝑢 𝑥𝑣
𝑟𝑢 (𝑢0 , 𝑣0 ) × 𝑟𝑣 (𝑢0 , 𝑣0 ) = 𝑘 ∙ |𝑦 𝑦𝑣 |
𝑢

Y llegamos a la definición del determinante jacobiano.


𝜕(𝑥, 𝑦) 𝑥𝑢 𝑥𝑣
= |𝑦 𝑦𝑣 |
𝜕(𝑢, 𝑣) 𝑢

Entonces para finalizar la demostración, vemos la integral doble:


𝑛 𝑛

∬ 𝑓(𝑥, 𝑦) 𝑑𝐴 = lim ∑ ∑ 𝑓(𝑥𝑖 , 𝑦𝑗 ) ∙ 𝑅𝑖𝑗


||𝑃||→0
𝑖=1 𝑗=1

Pero habíamos encontrado una buena aproximación para el área, entonces:

𝜕(𝑥, 𝑦)
𝑅𝑖𝑗 ≈ | | (𝑢 , 𝑣 ) ∙ ∆𝑢𝑖 ∙ ∆𝑣𝑗
𝜕(𝑢, 𝑣) 𝑖 𝑗

Reemplazando y aplicando la transformación, nos queda la integral como:


𝑛 𝑛
𝜕(𝑥, 𝑦)
∬ 𝑓(𝑥, 𝑦) 𝑑𝐴 = lim ∑ ∑ 𝑓 (𝑥(𝑢𝑖 , 𝑣𝑗 ), 𝑦(𝑢𝑖 , 𝑣𝑗 )) ∙ | | (𝑢 , 𝑣 ) ∙ ∆𝑢𝑖 ∙ ∆𝑣𝑗
||𝑃||→0 𝜕(𝑢, 𝑣) 𝑖 𝑗
𝑖=1 𝑗=1

𝜕(𝑥, 𝑦)
∬ 𝑓(𝑥, 𝑦) 𝑑𝐴 = ∬ 𝑓(𝑥(𝑢, 𝑣), 𝑦(𝑢, 𝑣)) ∙ | | 𝑑𝑢 𝑑𝑣
𝜕(𝑢, 𝑣)

Y concluimos con la demostración, cabe aclarar que en la integral de la derecha estábamos


integrando en la región 𝑅, pero en el lado de la derecha estamos integrando en la región 𝑆.

Nota:
• Una función biyectiva es una función que cada punto del conjunto de salida le da una
imagen distinta y que cada punto del dominio tenga una imagen.

• Este teorema funciona también cuando la función no es inyectiva en los puntos frontera de
la región , es decir, tiene imágenes reales en puntos distintos del dominio, en los puntos
frontera del conjunto de salida o el dominio.

Jacobiano

Transformaciones de Cálculo
Las transformaciones que utilizaremos van a ser 3, una para el plano y dos para el espacio:

Coordenadas Polares
• La transformación utilizada es:

𝑇(𝜌, 𝜃) = (𝜌 ∙ cos(𝜃) , 𝜌 ∙ sin(𝜃))


• El Jacobiano es:

𝜕(𝑥, 𝑦) 𝑥𝜌 𝑥𝜃
= |𝑦 𝑦𝜃 |
𝜕(𝜌, 𝜃) 𝜌

𝜕(𝑥, 𝑦) cos(𝜃) −𝜌 ∙ sin⁡(𝜃)


=| |
𝜕(𝜌, 𝜃) sin(𝜃) 𝜌 ∙ cos(𝜃)

𝜕(𝑥, 𝑦)
=𝜌
𝜕(𝜌, 𝜃)

Coordenadas Cilíndricas
• La transformación utilizada es:

𝑇(𝜌, 𝜃, 𝑧) = (𝜌 ∙ cos(𝜃) , 𝜌 ∙ sin(𝜃), z)


• El Jacobiano es:
𝑥𝜌 𝑥𝜃 𝑥𝑧
𝜕(𝑥, 𝑦, 𝑧)
= |𝑦𝜌 𝑦𝜃 𝑦𝑧 |
𝜕(𝜌, 𝜃, 𝑧) 𝑧𝜌 𝑧𝜃 𝑧𝑧

𝜕(𝑥, 𝑦, 𝑧) cos(𝜃) −𝜌 ∙ sin(𝜃) 0


= | sin(𝜃) 𝜌 ∙ cos(𝜃) 0|
𝜕(𝜌, 𝜃, 𝑧)
0 0 1

𝜕(𝑥, 𝑦, 𝑧)
=𝜌
𝜕(𝜌, 𝜃, 𝑧)

Coordenadas Esféricas
• La transformación utilizada es:

𝑇(𝜌, 𝜃, 𝜙) = (𝜌 ∙ cos(𝜃) ∙ sin(𝜙) , 𝜌 ∙ sin(𝜃) ∙ sin(𝜙) , 𝜌 ∙ cos(𝜙) )

• El Jacobiano es:

𝑥𝜌 𝑥𝜃 𝑥𝜙
𝜕(𝑥, 𝑦, 𝑧)
= |𝑦𝜌 𝑦𝜃 𝑦𝜙 |
𝜕(𝜌, 𝜃, 𝜙) 𝑧𝜌 𝑧𝜃 𝑧𝜙

cos(𝜃) ∙ sin(𝜙) −𝜌 ∙ sin(𝜃) ∙ sin(𝜙) 𝜌 ∙ cos(𝜃) ∙ cos(𝜙)


𝜕(𝑥, 𝑦, 𝑧)
= | sin(𝜃) ∙ sin(𝜙) 𝜌 ∙ cos(𝜃) ∙ sin(𝜙) 𝜌 ∙ sin(𝜃) ∙ cos(𝜙) |
𝜕(𝜌, 𝜃, 𝜙)
cos(𝜙) 0 −𝜌 ∙ sin(𝜙)

𝜕(𝑥, 𝑦, 𝑧)
= 𝜌2 ∙ sin⁡(𝜙)
𝜕(𝜌, 𝜃, 𝜙)

Nota:
• 𝜌 para las coordenadas polares y cilíndricas es la distancia del origen hasta el punto en el
plano 𝑥𝑦 o la proyección del punto sobre este. Para las coordenadas esféricas, 𝜌 es la
distancia desde el origen hasta el punto.

• 𝜃 es el ángulo que forma el semieje positivo de las 𝑥 hasta el segmento que va desde el
origen hasta la proyección del punto en el plano 𝑥𝑦 o el mismo punto.

• 𝜙 es el ángulo que forma el semieje positivo de las 𝑧 con el segmento que va desde el
origen hasta el punto.

Unidad 4 - Campos Vectoriales


Integrales de Línea de Campos Escalares

Para poder llegar a la fórmula de cálculo, primero tenemos que hacer una partición en el
dominio de 𝑡, o sea en [𝑎, 𝑏]. Esto va a inducir a una partición en 𝐶. Entonces podemos ver la
siguiente imagen:
Si queremos calcular el área total debajo del campo escalar 𝑓 y sobre la curva 𝐶 parametrizada
por 𝑟(𝑡), podemos hacerlo sumando el área de cada una de las áreas 𝐴𝑘 . En la imagen se ve
que el área 𝐴𝑘 se puede calcular como:

𝐴𝑘 = 𝑓(𝑟(𝑡𝑘 )) ∙ ∆𝑠𝑘

Donde 𝑡𝑘 es un el punto muestra y ∆𝑠𝑘 es el diferencial de longitud de la curva en el plano.


Pero este último lo podemos reemplazar por la expresión que habíamos encontrado en la
función de longitud de curva. Entonces:

𝐴𝑘 = 𝑓(𝑟(𝑡𝑘 )) ∙ |𝑟′(𝑡𝑘 )| ∙ ∆𝑡𝑘

Si ahora hacemos la suma de Riemann de todos las áreas y le aplicamos el límite de la norma
de la partición tendiendo a 0, podemos llegar a la expresión:
𝑛 𝑛

∑ 𝐴𝑘 = ∑ 𝑓(𝑟(𝑡𝑘 )) ∙ |𝑟′(𝑡𝑘 )| ∙ ∆𝑡𝑘


𝑘=1 𝑘=1

𝑏
𝐴 = ∫ 𝑓(𝑟(𝑡)) ∙ |𝑟 ′ (𝑡)| 𝑑𝑡
𝑎

Y llegamos a la fórmula de cálculo del área de la cortina. Esto para las funciones de dos
variables, pero si la función es de tres variables, la interpretación es distinta, ahora no tenemos
una interpretación gráfica, por lo tanto, no es un área el resultado. Pero si pudiéramos calcular
la masa de un alambre, si este alambre es descrito por la curva 𝐶 y la función nos da la densidad
de cada punto. Entonces, hacemos un procedimiento parecido, pero con otra imagen:
Luego de hacer una partición en el dominio, se induce una partición en la curva. Luego, para
calcular la masa total del alambre, podemos hacer la sumatoria de todas las masas 𝑀𝑘 .
Entonces:

𝑀𝑘 = 𝑓(𝑟(𝑡𝑘 )) ∙ ∆𝑠𝑘

Luego:

𝑀𝑘 = 𝑓(𝑟(𝑡𝑘 )) ∙ |𝑟′(𝑡𝑘 )| ∙ ∆𝑡𝑘

Y después de hacer la sumatoria de Riemann y de aplicar el límite de la norma de la partición


tendiendo a 0, se llega a la misma expresión:
𝑛 𝑛

∑ 𝑀𝑘 = ∑ 𝑓(𝑟(𝑡𝑘 )) ∙ |𝑟′(𝑡𝑘 )| ∙ ∆𝑡𝑘


𝑘=1 𝑘=1

𝑏
𝑀 = ∫ 𝑓(𝑟(𝑡)) ∙ |𝑟 ′ (𝑡)| 𝑑𝑡
𝑎

Nota:
Lo que se busca acá es el área debajo del gráfico y sobre la curva, o el área de la cortina. Se
parametriza la curva por la que se quiere buscar el área de la cortina y se reemplaza las
variables de la función por los de la parametrización.

Propiedades de las Integrales de Línea

Nota:

• La aditividad habla de que, si una curva se divide en dos segmentos, la suma de las
integrales de línea sobre las dos curvas es igual a la integral de línea de la curva inicial.

• La independencia de la parametrización habla de que hay infinitas parametrizaciones para


la misma curva, si se parametriza bien, el resultado es el mismo.

• La dependencia de la trayectoria habla de que si la trayectoria no es la misma pero los


puntos iniciales y finales son los mismos, las integrales de línea, por lo general no van a ser
iguales.

Campos Vectoriales
Nota:

• El campo vectorial es aquella función que asigna a cada punto del dominio un vector.

• El gradiente de un campo escalar es un campo vectorial, ya que, para cada punto del
dominio de la función, se le asigna un vector gradiente.

• Si tenemos dos campos vectoriales y queremos sacar el vector resultante, sacamos el vector
del campo eléctrico uno y después el segundo, para después sumar los vectores resultantes
de los campos vectoriales. Esta propiedad se denomina aditividad de los campos
vectoriales.

Integrales de Línea de Campos Vectoriales

La fórmula de cálculo es:

∫ 𝐹 ∙ 𝑑𝑟 = ∫ 𝐹 ⋅ 𝑇 𝑑𝑠
𝐶 𝐶

𝑟 ′ (𝑡)
∫ 𝐹 ∙ 𝑑𝑟 = ∫ 𝐹(𝑟(𝑡)) ∙ ∙ |𝑟 ′ (𝑡)| 𝑑𝑡
𝐶 𝐶 |𝑟 ′ (𝑡)|

∫ 𝐹 ∙ 𝑑𝑟 = ∫ 𝐹 (𝑟(𝑡)) ∙ 𝑟 ′ (𝑡) 𝑑𝑡
𝐶 𝐶

Nota:
• En estas integrales lo que buscamos es ver el recorrido que hace el campo vectorial por la
curva 𝐶. Realizamos un producto escalar con el campo vectorial y la derivada de la curva
para poder obtener un campo escalar.
• Como en las integrales de línea de campos escalares, la integral es independiente de la
parametrización de la curva 𝐶 y se pueden sumar las integrales de línea de campos
vectoriales cuando tenemos la unión de dos curvas suaves.

• La integral de línea de una función vectorial con una curva 𝐶 cumple que:

∫ 𝐹 ∙ 𝑑𝑟 = − ∫ 𝐹 ∙ 𝑑𝑟
𝐶 −𝐶

Donde −𝐶 es la curva recorrida en sentido contrario.

• El resultado puede ser negativo, no como las integrales anteriores que lo que buscábamos
era el volumen o masa de una función, o sea un número positivo siempre y cuando la
función esté por arriba del plano 𝑥𝑦.

• En estas integrales el sentido de la curva 𝐶 si importa, ya que si la parametrizamos con el


sentido contrario la integral de línea del campo vectorial nos daría con el signo contrario.

• Otra forma de escribir las integrales de línea es de la forma:

∫ 𝐹(𝑟(𝑡)) ⋅ 𝑟´(𝑡) 𝑑𝑡 = ∫ 𝑀 𝑑𝑥 + 𝑁 𝑑𝑦
𝐶 𝐶

Donde 𝐹 = (𝑀, 𝑁). Es una forma análoga de escribirla.

Integrales de Línea de Campos Vectoriales a Través de


una Curva Cerrada
Si tenemos que calcular la integral de línea a través de una curva 𝐶 plana simple, cerrada y
positivamente orientada, se calcula con respecto al vector normal a la curva. O sea, la fórmula
de cálculo es:

∫ 𝐹 ⋅ 𝑛 𝑑𝑠
𝐶

Donde 𝑛 es un vector unitario hacia afuera de la curva cerrada. Entonces:

∫ 𝐹 ⋅ 𝑛 𝑑𝑠 = ∫ 𝐹(𝑟(𝑡)) ∙ 𝑛 ∙ |𝑟 ′ (𝑡)| 𝑑𝑡
𝐶 𝐶

Pero no sabemos cómo calcular 𝑛, así que suponemos que 𝐹 = (𝑀, 𝑁), entonces:

∫ 𝐹 ⋅ 𝑛 𝑑𝑠 = ∫ 𝑛 ⋅ 𝐹 𝑑𝑠
𝐶 𝐶

∫ 𝐹 ⋅ 𝑛 𝑑𝑠 = ∫ 𝑇 × 𝑘 ∙ 𝐹 𝑑𝑠
𝐶 𝐶

Podemos asegurar esto ya que, por la regla de la mano derecha, podemos ver que el vector
resultante es aquel que apunta hacia afuera y es unitario también. Ahora por propiedad del
producto mixto tenemos:
∫ 𝐹 ⋅ 𝑛 𝑑𝑠 = ∫ 𝑘 × 𝐹 ⋅ 𝑇 𝑑𝑠
𝐶 𝐶

Después de evaluar el producto vectorial entre 𝑘 y 𝐹 podemos llegar a la expresión deseada


cuando 𝑡 va desde 𝑡 = 𝑎 hasta 𝑡 = 𝑏:
𝑏
∫ 𝐹 ⋅ 𝑛 𝑑𝑠 = ∫ (−𝑁(𝑟(𝑡)), 𝑀(𝑟(𝑡))) ⋅ 𝑇 𝑑𝑠
𝐶 𝑎

𝑏
∫ 𝐹 ⋅ 𝑛 𝑑𝑠 = ∫ (−𝑁(𝑟(𝑡)), 𝑀(𝑟(𝑡))) ⋅ 𝑟 ′ (𝑡) 𝑑𝑡
𝐶 𝑎

Nota:
• Una forma de encontrar el normal es cambiar de lugar las componentes del vector
tangencial a la curva y uno de ellos cambiándolo de signo. Si:

𝑟´(𝑡) = (𝐴, 𝐵)

Entonces:

𝑛(𝑡) = (−𝐵, 𝐴) o −𝑛(𝑡) = (𝐵, −𝐴)

Dependiendo de cuál de los dos apunte hacia afuera es el que se toma.

• El campo vectorial encontrado es nuevo y es distinto del anterior, pero sus componentes son
las mismas, o sea que tienen las mismas propiedades y características que el campo
vectorial inicial.

• En el espacio no se puede hacer ni definir ya que existen infinitos vectores normales a la


curva que son válidos.

• Otra notación para la misma integral es:

∫ 𝐹 ⋅ 𝑛 𝑑𝑠 = ∫ 𝑀 𝑑𝑦 − 𝑁 𝑑𝑥
𝐶 𝐶

Campo Conservativo

Nota:
• Un campo conservativo es aquel que la integral de línea del campo vectorial es
independiente de la trayectoria en su región abierta. Puede que en alguna otra región
abierta 𝐹 no sea conservativo, por eso nos enfocamos en la región donde es conservativo.
Para cualquier curva suave que tomemos, el resultado de la integral de línea del campo
vectorial tiene que ser el mismo.

• Las líneas de flujo de un campo vectorial son aquellas curvas que se forman por los
vectores del campo vectorial, o sea, es la dirección en el cual se mueven.

• Si el campo vectorial 𝐹 es el gradiente de alguna función potencial 𝑓, las líneas de flujo


son ortogonales a las curvas o superficies de nivel en todos los puntos.

Funciones Potenciales

Nota:
Si el gradiente de una función coincide con algún campo vectorial del dominio, entonces la
función se llama función potencial.

Rotacional y Divergencia de Campos Vectoriales

Nota:

• Para la divergencia, no importa en donde este definido el campo vectorial, la divergencia


siempre va a ser la suma de las derivadas parciales de las funciones componentes con
respecto a sus variables independientes.

• Para el rotor, solo se puede definir en el espacio.

• El rotor del campo vectorial es un campo vectorial y la divergencia es un campo escalar.

• Como es complicado acordarse la fórmula del rotacional, se introduce el operador nabla:

𝛿 𝛿 𝛿
𝛻=( , , )
𝛿𝑥 𝛿𝑦 𝛿𝑧

Se hace el producto vectorial entre el campo vectorial y el operador y se obtiene el rotor:

𝑟𝑜𝑡𝐹 = 𝛻 × 𝐹
La divergencia también puede escribirse como:

𝑑𝑖𝑣𝐹 = 𝛻 ⋅ 𝐹

El rotor del campo vectorial es un campo vectorial y la divergencia es un campo escalar.

• La divergencia en un punto 𝑃 es la tasa de flujo neto hacia fuera en 𝑃 por unidad de


volumen.

• Cuando la divergencia en un punto es positiva, se denomina fuente de 𝐹 y cuando es


negativo, sumidero de 𝐹 . Si la divergencia en nula en todo ℝ3 , 𝐹 es solenoidal.

Conjuntos Abiertos Conexos

Nota:

• Si en el dominio del plano o del espacio un punto no está definido, los conjuntos son
conexos, ya que se pueden unir todos los puntos del dominio con una curva suave.

• Si en el espacio no tenemos definido un plano, no se pueden unir todos los puntos del
dominio, por lo tanto, no es conexo el conjunto.

Conjuntos Simplemente Conexos

Nota:
• En el plano, si no está definido un punto, no es simplemente conexo, ya que cuando el lazo
en donde está el punto adentro de este se contraiga hasta llegar al punto, no puede
continuar contrayéndose ya que el punto no está definido en la región.

• En cambio, en el espacio, si no tenemos un punto definido, el lazo, en el cual el punto esta


adentro de este, puede desviarse y contraerse hacia cualquier otro punto.

• Si en el espacio no está definido una recta, no es simplemente conexo, pero en el plano si


lo es, ya que para todo lazo que este en el dominio, va a seguir estando en el dominio al
contraerse.
Teorema Fundamental de las Integrales de Línea

Comenzamos con la curva 𝐶 parametrizada por𝑟(𝑡) = (𝑥(𝑡), 𝑦(𝑡)), 𝑎 ≤ 𝑡 ≤ 𝑏 si la función


es de dos variables. Entonces la integral de línea va a ser:
𝑏
∫ ∇𝑓 ∙ 𝑑𝑟 = ∫ ∇𝑓(𝑟(𝑡)) ∙ 𝑟 ′ (𝑡) 𝑑𝑡
𝐶 𝑎

Como hemos visto en demostraciones anteriores, si tenemos una función compuesta:

𝑤(𝑡) = 𝑓(𝑟(𝑡))

Entonces:

𝑤 ′ (𝑡) = ∇𝑓(𝑟(𝑡)) ∙ 𝑟 ′ (𝑡)

Pero también lo podemos escribir:

𝑑
𝑤 ′ (𝑡) = (𝑓(𝑟(𝑡)))
𝑑𝑡
Si reemplazamos esta igualdad en la integral tenemos:
𝑏
𝑑
∫ ∇𝑓 ∙ 𝑑𝑟 = ∫ (𝑓(𝑟(𝑡))) 𝑑𝑡
𝐶 𝑎 𝑑𝑡

El integrando cumple con las hipótesis de continuidad del teorema fundamental del cálculo,
entonces:

∫ ∇𝑓 ∙ 𝑑𝑟 = 𝑓(𝑟(𝑏)) − 𝑓(𝑟(𝑎))
𝐶

Si definimos como:

𝑟(𝑎) = 𝐴

𝑟(𝑏) = 𝐵

Reemplazamos y concluimos:

∫ ∇𝑓 ∙ 𝑑𝑟 = 𝑓(𝐵) − 𝑓(𝐴)
𝐶

Nota:
Si una función diferenciable es una función potencial del campo vectorial, entonces la integral
de línea en una región abierta y conexa que contiene a la curva en donde se quiere calcular es:

∫ 𝛻𝑓 𝑑𝑟 = 𝑓(𝑟(𝑏)) − 𝑓(𝑟(𝑎))
𝐶

Si esto se cumple, el campo vectorial que cumpla:

𝐹 = 𝛻𝑓

Es conservativo.

Campos Conservativos son Campos Gradientes

o Como es un sí y sólo si, tenemos que probar de las dos maneras. La primera manera es la
siguiente:

Se inicia igualando cada componente del campo vectorial con las derivadas parciales del campo
escalar diferenciable. Entonces:

𝐹 = (𝑀, 𝑁, 𝑃)

𝑀 = 𝑓𝑥

𝑁 = 𝑓𝑦

𝑃 = 𝑓𝑧

Como 𝑓 es una función con gradiente continuo en la región conexa abierta 𝐷, según el teorema
fundamental de integrales de línea tenemos:
𝐵 𝐵
∫ ∇𝑓 ∙ 𝑑𝑟 = ∫ 𝐹 ∙ 𝑑𝑟
𝐴 𝐴

𝐵
∫ 𝐹 ∙ 𝑑𝑟 = 𝑓(𝐵) − 𝑓(𝐴)
𝐴

Podemos ver que hemos verificado que esta integral de línea es independiente de la
trayectoria que tomemos, ya que no hemos definido una curva 𝐶 para poder calcularla. Dicho
esto, podemos asegurar que 𝐹 es conservativo en 𝐷 por el teorema de los campos
conservativos.

o Ahora tenemos que verificar de la otra manera.

Suponemos que 𝐹 es conservativo en la región 𝐷, es decir que la integral de línea de este


campo vectorial es independiente de la trayectoria en 𝐷. Entonces ahora tenemos que probar
que el gradiente de 𝑓 va a ser igual al campo vectorial 𝐹, para una función 𝑓 cualquiera que
definimos que esté definida en 𝐷. Comenzamos eligiendo un punto 𝐴 perteneciente a la región
𝐷, arbitrario y fijo tal que:

𝑓(𝐴) = 0

Para poder definir una función, tenemos que asignarle imágenes. Ya le asignamos una al punto
𝐴 y ahora se lo haremos al punto 𝐵. La imagen de la función en el punto 𝐵 será:
𝐵
𝑓(𝐵) = ∫ 𝐹 ∙ 𝑑𝑟
𝐴

Para cualquier punto 𝐵 perteneciente a 𝐷 que sea distinto de 𝐴. Pero necesitamos saber que
esta función está bien definida, para esto necesitamos que se cumplan las condiciones de
existencia y de unicidad. Para garantizar la primera condición tenemos que verificar que todos
los puntos tengan al menos una imagen, en el caso de 𝑓(𝐴) ya debemos tiene imagen nula y
es única, pero en el caso de 𝑓(𝐵) tenemos que verificar que siempre se pueda calcular la
integral, pero en la región 𝐷, al ser una región abierta conexa, podemos asegurar que hay al
menos una trayectoria en 𝐷 que une los puntos 𝐴 y 𝐵, entonces la integral se puede calcular.
Comprobada la primera condición, tenemos que probar la segunda. Como 𝐹 es conservativo,
la integral de línea del campo vectorial es independiente de la trayectoria, entonces para
cualquier trayectoria que una a los puntos 𝐴 y 𝐵, el resultado va a ser el mismo. Y así se
comprueba que la función está bien definida. Luego, tenemos que probar que el gradiente de
𝑓 sea igual al campo vectorial 𝐹 en un punto 𝑃0 , o sea:

𝑓𝑥 (𝑥0 , 𝑦0 , 𝑧0 ) = 𝑀(𝑥0 , 𝑦0 , 𝑧0 )

𝑓𝑦 (𝑥0 , 𝑦0 , 𝑧0 ) = 𝑁(𝑥0 , 𝑦0 , 𝑧0 )

𝑓𝑧 (𝑥0 , 𝑦0 , 𝑧0 ) = 𝑃(𝑥0 , 𝑦0 , 𝑧0 )

Partimos de la definición de derivada parcial de 𝑓 con respecto a 𝑥:

𝑓(𝑥0 + ∆𝑥, 𝑦0 , 𝑧0 ) − 𝑓(𝑥0 , 𝑦0 , 𝑧0 )


𝑓𝑥 (𝑥0 , 𝑦0 , 𝑧0 ) = lim
∆𝑥→0 ∆𝑥
Donde lo podemos escribir como:

1
𝑓𝑥 (𝑥0 , 𝑦0 , 𝑧0 ) = lim ( ∙ (𝑓(𝑥0 + ∆𝑥, 𝑦0 , 𝑧0 ) − 𝑓(𝑥0 , 𝑦0 , 𝑧0 )))
∆𝑥→0 ∆𝑥

También podemos remplazarlo por:

(𝑥0 +∆𝑥,𝑦0 ,𝑧0 ) (𝑥0 ,𝑦0 ,𝑧0 )


1
𝑓𝑥 (𝑥0 , 𝑦0 , 𝑧0 ) = lim ( ∙ (∫ 𝐹 ∙ 𝑑𝑟 − ∫ 𝐹 ∙ 𝑑𝑟))
∆𝑥→0 ∆𝑥 𝐴 𝐴

Por propiedades de las integrales podemos asegurar:

(𝑥0 ,𝑦0 ,𝑧0 ) (𝑥0 +∆𝑥,𝑦0 ,𝑧0 ) (𝑥0 ,𝑦0 ,𝑧0 )


1
𝑓𝑥 (𝑥0 , 𝑦0 , 𝑧0 ) = lim ( ∙ (∫ 𝐹 ∙ 𝑑𝑟 + ∫ 𝐹 ∙ 𝑑𝑟 − ∫ 𝐹 ∙ 𝑑𝑟))
∆𝑥→0 ∆𝑥 𝐴 (𝑥0 ,𝑦0 ,𝑧0 ) 𝐴

(𝑥0 +∆𝑥,𝑦0 ,𝑧0 )


1
𝑓𝑥 (𝑥0 , 𝑦0 , 𝑧0 ) = lim ( ∙ (∫ 𝐹 ∙ 𝑑𝑟))
∆𝑥→0 ∆𝑥 (𝑥0 ,𝑦0 ,𝑧0 )
Como 𝐹 es conservativo, esta integral es independiente de la trayectoria que tome, entonces
tomamos una trayectoria conveniente:

𝑟(𝑡) = (𝑡, 𝑦0 , 𝑧0 ), 𝑥0 ≤ 𝑡 ≤ 𝑥0 + ∆𝑥

Entonces:

𝑟 ′ (𝑡) = (1,0,0);

Ahora podemos aplicar la definición de integral de línea de campos vectoriales:

𝑥0 +∆𝑥
1
𝑓𝑥 (𝑥0 , 𝑦0 , 𝑧0 ) = lim ( ∙ (∫ 𝐹(𝑟(𝑡)) ∙ 𝑟 ′ (𝑡) 𝑑𝑡))
∆𝑥→0 ∆𝑥 𝑥0

𝑥0 +∆𝑥
1
𝑓𝑥 (𝑥0 , 𝑦0 , 𝑧0 ) = lim ( ∙ (∫ (𝑀(𝑟(𝑡)), 𝑁(𝑟(𝑡)), 𝑃(𝑟(𝑡))) ∙ (1,0,0) 𝑑𝑡))
∆𝑥→0 ∆𝑥 𝑥0

Luego de resolver:

𝑥0 +∆𝑥
1
𝑓𝑥 (𝑥0 , 𝑦0 , 𝑧0 ) = lim ( ∙ (∫ 𝑀(𝑟(𝑡)) 𝑑𝑡))
∆𝑥→0 ∆𝑥 𝑥0

Por hipótesis teníamos que las componentes de 𝐹 eran continuas en la región abierta convexa
𝐷, y también definimos a 𝑟(𝑡) continua en el intervalo [𝑥0 , 𝑥0 + ∆𝑥], por lo tanto, la función
compuesta 𝑀(𝑟(𝑡)) también es continua en [𝑥0 , 𝑥0 + ∆𝑥]. Esta función compuesta cumple
con las hipótesis del teorema del valor medio para integrales, entonces podemos tener un
punto 𝑐 perteneciente al intervalo [𝑥0 , 𝑥0 + ∆𝑥] tal que:
𝑥0 +∆𝑥
1
𝑀(𝑟(𝑐)) = ∙ (∫ 𝑀(𝑟(𝑡)) 𝑑𝑡)
∆𝑥 𝑥0
Entonces:

𝑓𝑥 (𝑥0 , 𝑦0 , 𝑧0 ) = lim 𝑀(𝑟(𝑐))


∆𝑥→0

Pero estamos aplicando el límite de ∆𝑥 tendiendo a 0, entonces como 𝑐 pertenece al intervalo


[𝑥0 , 𝑥0 + ∆𝑥], aplicando este límite, tenemos que 𝑐 tiende a 𝑥0 , entonces:

lim 𝑀(𝑟(𝑐)) = 𝑀(𝑟(𝑥0 ))


∆𝑥→0

𝑓𝑥 (𝑥0 , 𝑦0 , 𝑧0 ) = 𝑀(𝑟(𝑥0 ))

Podemos asegurar que el límite existe ya que la función es continua y:

𝑟(𝑥0 ) = (𝑥0 , 𝑦0 , 𝑧0 )

Entonces:

𝑓𝑥 (𝑥0 , 𝑦0 , 𝑧0 ) = 𝑀(𝑥0 , 𝑦0 , 𝑧0 )

Y concluimos con la demostración, ya que las otras dos igualdades son análogas.

Propiedad de Lazos en Campos Conservativos


o Al ser esta propiedad una doble implicación, se tiene que demostrar de las dos maneras.

La primera se demuestra suponiendo que 𝐹 es conservativo en 𝐷 y que la curva 𝐶 es un lazo


cualquiera incluido en 𝐷. Tomamos dos puntos 𝐴 y 𝐵 distintos y pertenecientes al lazo.
Llamaremos 𝐶1 a la porción de la curva que va desde 𝐴 hasta 𝐵 y 𝐶2 a la otra porción que va
desde 𝐵 hasta 𝐴:

Entonces tenemos que la integral de la curva 𝐶 es:

∫ 𝐹 ∙ 𝑑𝑟 = ∫ 𝐹 ∙ 𝑑𝑟 + ∫ 𝐹 ∙ 𝑑𝑟
𝐶 𝐶1 𝐶2

Pero si tomamos como que la curva −𝐶2 es la curva 𝐶2 pero con sentido de recorrido contrario,
entonces tenemos que las dos curvas 𝐶1 y −𝐶2 van desde 𝐴 hasta 𝐵. Por hipótesis tenemos
que:

∫ 𝐹 ∙ 𝑑𝑟 = ∫ 𝐹 ∙ 𝑑𝑟
𝐶1 −𝐶2

Ya que al ser 𝐹 conservativo y las dos puntos en los que las curvas inician y terminan coinciden,
se puede ver esa igualdad. Entonces ahora si depejamos:

∫ 𝐹 ∙ 𝑑𝑟 − ∫ 𝐹 ∙ 𝑑𝑟 = 0
𝐶1 −𝐶2

Luego:

∫ 𝐹 ∙ 𝑑𝑟 = ∫ 𝐹 ∙ 𝑑𝑟 + ∫ 𝐹 ∙ 𝑑𝑟
𝐶 𝐶1 𝐶2

∫ 𝐹 ∙ 𝑑𝑟 = ∫ 𝐹 ∙ 𝑑𝑟 − ∫ 𝐹 ∙ 𝑑𝑟
𝐶 𝐶1 −𝐶2

∫ 𝐹 ∙ 𝑑𝑟 = 0
𝐶

Y concluimos.

o Ahora comenzamos la segunda implicación.


Ahora tenemos que probar que 𝐹 es independiente de la trayectoria en 𝐷. Por hipótesis
tenemos que la integral de línea de 𝐹 sobre cualquier lazo 𝐶 en 𝐷 es 0. Entonces tomamos dos
puntos 𝐴 y 𝐵 y dos curvas 𝐶1 y 𝐶2 tales que las dos curvas comiencen en 𝐴 y su recorrido
culmine en 𝐵:

Pero tenemos una curva 𝐶3 la cual es la combinación de 𝐶1 y −𝐶2, entonces como este es un
lazo, tenemos por hipótesis:

∫ 𝐹 ∙ 𝑑𝑟 = 0
𝐶3

Pero también tenemos:

∫ 𝐹 ∙ 𝑑𝑟 = ∫ 𝐹 ∙ 𝑑𝑟 + ∫ 𝐹 ∙ 𝑑𝑟
𝐶3 𝐶1 −𝐶2

Pero por propiedad de las integrales de línea de los campos vectoriales tenemos que:

∫ 𝐹 ∙ 𝑑𝑟 = − ∫ 𝐹 ∙ 𝑑𝑟
𝐶2 −𝐶2

Reemplazamos:

∫ 𝐹 ∙ 𝑑𝑟 = ∫ 𝐹 ∙ 𝑑𝑟 − ∫ 𝐹 ∙ 𝑑𝑟
𝐶3 𝐶1 𝐶2

Pero como teníamos que la integral de línea de la curva 𝐶3 estaba igualada a 0, entonces:

0 = ∫ 𝐹 ∙ 𝑑𝑟 − ∫ 𝐹 ∙ 𝑑𝑟
𝐶1 𝐶2

∫ 𝐹 ∙ 𝑑𝑟 = ∫ 𝐹 ∙ 𝑑𝑟
𝐶1 𝐶2

Y demostramos que para cualquier integral de línea sobre cualquier lazo donde esta es nula,
entonces 𝐹 es conservativo y es independiente de la trayectoria.

Nota:
Un lazo es aquella curva cerrada donde su punto inicial coincide con su punto final.

Criterio de Componentes para Campos Conservativos


o Tenemos que probar las dos condiciones.

La primera condición dice que 𝐹 es conservativo, es decir, existe una función potencial tal que:

𝐹 = ∇𝑓

Entonces:

(𝑀, 𝑁, 𝑃) = (𝑓𝑥 , 𝑓𝑦 , 𝑓𝑧 )

Si calculamos el rotor, vamos a tener:

(𝑃𝑦 − 𝑁𝑧 , 𝑀𝑧 − 𝑃𝑥 , 𝑁𝑥 − 𝑀𝑦 ) = (𝑓𝑧𝑦 − 𝑓𝑦𝑧 , 𝑓𝑥𝑧 − 𝑓𝑧𝑥 , 𝑓𝑦𝑥 − 𝑓𝑥𝑦 )

Como habíamos dicho por hipótesis, las derivadas de primer orden de las funciones
componentes eran continuas, es decir, las derivadas cruzadas de segundo orden de la función
potencial son continuas en 𝐷, al igual que la función y sus derivadas de primer orden, entonces,
por el teorema de Clairaut, podemos ver que:

(𝑓𝑧𝑦 − 𝑓𝑦𝑧 , 𝑓𝑥𝑧 − 𝑓𝑧𝑥 , 𝑓𝑦𝑥 − 𝑓𝑥𝑦 ) = (0,0,0)

Y aseguramos que el rotor va a ser el vector nulo cuando 𝐹 sea conservativo.

o Finalizada la primera, comenzamos la segunda.

Suponemos que la región 𝐷 es abierta, conexa y simplemente conexa y el rotor de 𝐹 es 0. Si


aplicamos un teorema de Topología, como 𝐷 es simplemente conexo podemos asegurar que
existe por lo menos una superficie 𝑆 que tiene como frontera a la curva 𝐶. Entonces, por el
teorema de Stokes tenemos que:

∫ 𝐹 ∙ 𝑑𝑟 = ∬ ∇ × 𝐹 ∙ 𝑛 𝑑𝜎
𝐶 𝑆

Como el rotor es 0, entonces:

∫ 𝐹 ∙ 𝑑𝑟 = 0
𝐶

Y concluimos que 𝐹 es conservativo ya que la integral de línea es igual a 0.

Nota:
Cuando no se sabe si el campo vectorial es conservativo, no basta con tener el rotor del campo
nulo. El dominio que sea simplemente conexo y además su rotor es igual a 0, en el dominio es
donde podemos asegurar que el campo vectorial es continuo.
Formas Diferenciales Exactas

Si tenemos esta igualdad y se cumple, entonces podemos decir que el campo vectorial 𝐹 =
(𝑀, 𝑁, 𝑃) es un campo conservativo porque por esta definición, tenemos que:

(𝑀, 𝑁, 𝑃) = (𝑓𝑥 , 𝑓𝑦 , 𝑓𝑧 )

O sea:

∫ 𝑀 𝑑𝑥 + 𝑁 𝑑𝑦 + 𝑃 𝑑𝑧 = 𝑓(𝐵) − 𝑓(𝐴)
𝐶

Siendo 𝑓 la función potencial en 𝐷.

Nota:
La región tiene que ser abierta y conexa, sino la integral de línea no es independiente de la
trayectoria.

Criterio para Determinar si una Forma diferencial es


Exacta

Teorema de Green
El teorema de Green se demuestra un caso particular, donde tenemos una región simple 𝑅
encerrada por una curva 𝐶. Entonces escribimos la integral de línea del campo vectorial como:

∮ 𝐹 ∙ 𝑇 𝑑𝑠 = ∮ 𝑀 𝑑𝑥 + 𝑁 𝑑𝑦
𝐶 𝐶

El teorema de Green dice:

𝜕𝑁 𝜕𝑀
∮ 𝐹 ∙ 𝑇 𝑑𝑠 = ∬ ( − ) 𝑑𝑥 𝑑𝑦
𝐶 𝑅 𝜕𝑥 𝜕𝑦

O sea:

𝜕𝑁 𝜕𝑀
∮ 𝑀 𝑑𝑥 + 𝑁 𝑑𝑦 = ∬ ( − ) 𝑑𝑥 𝑑𝑦
𝐶 𝑅 𝜕𝑥 𝜕𝑦

Estas integrales las podemos descomponer en la suma de dos integrales:

𝜕𝑀
∫ 𝑀(𝑥, 𝑦) 𝑑𝑥 = − ∬ (𝑥, 𝑦) 𝑑𝑥 𝑑𝑦
𝐶 𝑅 𝜕𝑦

𝜕𝑁
∫ 𝑁(𝑥, 𝑦) 𝑑𝑦 = ∬ (𝑥, 𝑦) 𝑑𝑥 𝑑𝑦
𝐶 𝑅 𝜕𝑥

o Si probamos estas dos igualdades, tenemos nuestro teorema demostrado. Comenzamos


por:

𝜕𝑀
∫ 𝑀(𝑥, 𝑦) 𝑑𝑥 = − ∬ (𝑥, 𝑦) 𝑑𝑥 𝑑𝑦
𝐶 𝑅 𝜕𝑦

Al ser una región simple, podemos utilizarla de tipo 1. Por el teorema fundamental del cálculo
podemos expresar al lado de la derecha como:
𝑏 𝑔2 (𝑥) 𝑏
𝜕𝑀
∫ ∫ (𝑥, 𝑦) 𝑑𝑦 𝑑𝑥 = ∫ (𝑀(𝑥, 𝑔2 (𝑥)) − 𝑀(𝑥, 𝑔1 (𝑥))) 𝑑𝑥
𝑎 𝑔1 (𝑥) 𝜕𝑦 𝑎

Luego, buscamos una región 𝑅 general para poder llegar a este resultado con la igualdad de la
parte izquierda. La región 𝑅 es:
En esta definimos nuestra curva 𝐶 como una unión de cuatro curvas 𝐶1 , 𝐶2 , 𝐶3 y 𝐶4 :

𝐶1 = 𝑟1 (𝑡) = (𝑡, 𝑔1 (𝑡)), 𝑎 ≤ 𝑡 ≤ 𝑏

𝐶2 = 𝑟2 (𝑡) = (𝑏, 𝑡), 𝑝1 ≤ 𝑡 ≤ 𝑝2

−𝐶3 = 𝑟3 (𝑡) = (𝑡, 𝑔2 (𝑡)), 𝑎 ≤ 𝑡 ≤ 𝑏

−𝐶4 = 𝑟4 (𝑡) = (𝑎, 𝑡), 𝑗1 ≤ 𝑡 ≤ 𝑗2

Se parametrizó de esta manera las curvas 𝐶3 y 𝐶4 por conveniencia. Entonces sus derivadas
serían:

𝑟1 ′(𝑡) = (1, 𝑔1′ (𝑡))

𝑟2 ′(𝑡) = (0,1)

𝑟3 ′(𝑡) = (1, 𝑔2′ (𝑡))

𝑟4 ′(𝑡) = (0,1)

Ahora, evaluamos las integrales de línea de la curva 𝐶, que sería la suma de las integrales de
las 4 curvas:

∫ 𝑀(𝑥, 𝑦) 𝑑𝑥 = ∫ 𝑀(𝑥, 𝑦) 𝑑𝑥 + ∫ 𝑀(𝑥, 𝑦) 𝑑𝑥 − ∫ 𝑀(𝑥, 𝑦) 𝑑𝑥 − ∫ 𝑀(𝑥, 𝑦) 𝑑𝑥


𝐶 𝐶1 𝐶2 −𝐶3 −𝐶4

𝑏 𝑝2 𝑏
∫ 𝑀(𝑥, 𝑦) 𝑑𝑥 = ∫ 𝑀(𝑟1 (𝑡)) ∙ 1 𝑑𝑡 + ∫ 𝑀(𝑟2 (𝑡)) ∙ 0 𝑑𝑡 − ∫ 𝑀(𝑟3 (𝑡)) ∙ 1 𝑑𝑡
𝐶 𝑎 𝑝1 𝑎
𝑗2
− ∫ 𝑀(𝑟4 (𝑡)) ∙ 0 𝑑𝑡
𝑗1

𝑏 𝑏
∫ 𝑀(𝑥, 𝑦) 𝑑𝑥 = ∫ 𝑀(𝑡, 𝑔1 (𝑡)) 𝑑𝑡 − ∫ 𝑀(𝑡, 𝑔2 (𝑡)) 𝑑𝑡
𝐶 𝑎 𝑎

En vez de escribir las integrales de la derecha con el parámetro 𝑡, lo hacemos con la variable 𝑥
ya que es lo mismo:
𝑏 𝑏
∫ 𝑀(𝑥, 𝑦) 𝑑𝑥 = ∫ 𝑀(𝑥, 𝑔1 (𝑥)) 𝑑𝑥 − ∫ 𝑀(𝑥, 𝑔2 (𝑥)) 𝑑𝑥
𝐶 𝑎 𝑎

Como las integrales de la derecha tienen los mismo límites de integración, podemos:
𝑏
∫ 𝑀(𝑥, 𝑦) 𝑑𝑥 = ∫ (𝑀(𝑥, 𝑔1 (𝑥)) − 𝑀(𝑥, 𝑔2 (𝑥))) 𝑑𝑥
𝐶 𝑎

O sea:
𝑏
∫ 𝑀(𝑥, 𝑦) 𝑑𝑥 = − ∫ (𝑀(𝑥, 𝑔2 (𝑥)) − 𝑀(𝑥, 𝑔1 (𝑥))) 𝑑𝑥
𝐶 𝑎

Con lo cual habíamos definido anteriormente:

𝑏 𝑔2 (𝑥) 𝑏
𝜕𝑀
∫ ∫ (𝑥, 𝑦) 𝑑𝑦 𝑑𝑥 = ∫ (𝑀(𝑥, 𝑔2 (𝑥)) − 𝑀(𝑥, 𝑔1 (𝑥))) 𝑑𝑥
𝑎 𝑔1 (𝑥) 𝜕𝑦 𝑎

Entonces:
𝑏 𝑔2 (𝑥)
𝜕𝑀
∫ 𝑀(𝑥, 𝑦) 𝑑𝑥 = − ∫ ∫ (𝑥, 𝑦) 𝑑𝑦 𝑑𝑥
𝐶 𝑎 𝑔1 (𝑥) 𝜕𝑦

Y concluimos la primera igualdad.

o Finalmente, terminamos con:

𝜕𝑁
∫ 𝑁(𝑥, 𝑦) 𝑑𝑦 = ∬ (𝑥, 𝑦) 𝑑𝑥 𝑑𝑦
𝐶 𝑅 𝜕𝑥

Ahora, tomamos a la región simple y la utilizamos como si fuera de tipo 2. Por el teorema
fundamental del cálculo tenemos:
𝑑 ℎ2 (𝑦) 𝑑
𝜕𝑁
∫ ∫ (𝑥, 𝑦) 𝑑𝑥 𝑑𝑦 = ∫ (𝑁(ℎ2 (𝑦), 𝑦) − 𝑁(ℎ1 (𝑦), 𝑦)) 𝑑𝑦
𝑐 ℎ1 (𝑦) 𝜕𝑥 𝑐

Ahora tenemos la misma región 𝑅 pero con las curvas modificadas. La curva 𝐶 sigue siendo la
unión de las curvas 𝐶1 , 𝐶2 , 𝐶3 y 𝐶4 :

Las curvas son:

𝐶1 = 𝑟1 (𝑡) = (𝑡, 𝑐), 𝑙1 ≤ 𝑡 ≤ 𝑙2

𝐶2 = 𝑟2 (𝑡) = (ℎ2 (𝑡), 𝑡), 𝑐 ≤ 𝑡 ≤ 𝑑

−𝐶3 = 𝑟3 (𝑡) = (𝑡, 𝑑), 𝑠1 ≤ 𝑡 ≤ 𝑠2

−𝐶4 = 𝑟4 (𝑡) = (ℎ1 (𝑡), 𝑡), 𝑐 ≤ 𝑡 ≤ 𝑑

Al igual que la primera igualdad, se parametrizó de esta manera las curvas 𝐶3 y 𝐶4 por
conveniencia. Entonces sus derivadas serían:
𝑟1 ′(𝑡) = (1,0)

𝑟2 ′(𝑡) = (ℎ1′ (𝑡), 1)

𝑟3 ′(𝑡) = (1,0)

𝑟4 ′(𝑡) = (ℎ2′ (𝑡), 1)

Entonces ahora evaluamos la integral de línea del campo vectorial sobre la curva 𝐶:

∫ 𝑁(𝑥, 𝑦) 𝑑𝑦 = ∫ 𝑁(𝑥, 𝑦) 𝑑𝑦 + ∫ 𝑁(𝑥, 𝑦) 𝑑𝑦 − ∫ 𝑁(𝑥, 𝑦) 𝑑𝑦 − ∫ 𝑁(𝑥, 𝑦) 𝑑𝑦


𝐶 𝐶1 𝐶2 −𝐶3 −𝐶4

𝑙2 𝑑 𝑠2
∫ 𝑁(𝑥, 𝑦) 𝑑𝑦 = ∫ 𝑁(𝑟1 (𝑡)) ∙ 0 𝑑𝑡 + ∫ 𝑁(𝑟2 (𝑡)) ∙ 1 𝑑𝑡 − ∫ 𝑁(𝑟3 (𝑡)) ∙ 0 𝑑𝑡
𝐶 𝑙1 𝑐 𝑠1
𝑑
− ∫ 𝑁(𝑟4 (𝑡)) ∙ 1 𝑑𝑡
𝑐

𝑑 𝑑
∫ 𝑁(𝑥, 𝑦) 𝑑𝑦 = ∫ 𝑁(ℎ2 (𝑡), 𝑡) 𝑑𝑡 − ∫ 𝑁(ℎ1 (𝑡), 𝑡) 𝑑𝑡
𝐶 𝑐 𝑐

Como en la ecuación ya demostrada, podemos cambiar la variable 𝑡 por 𝑦, ya que no modifica


nada de la integral:
𝑑 𝑑
∫ 𝑁(𝑥, 𝑦) 𝑑𝑦 = ∫ 𝑁(ℎ2 (𝑦), 𝑦) 𝑑𝑦 − ∫ 𝑁(ℎ1 (𝑦), 𝑦) 𝑑𝑦
𝐶 𝑐 𝑐

Como los límites de integración son iguales, podemos hacer:


𝑑
∫ 𝑁(𝑥, 𝑦) 𝑑𝑦 = ∫ (𝑁(ℎ2 (𝑦), 𝑦) − 𝑁(ℎ1 (𝑦), 𝑦)) 𝑑𝑦
𝐶 𝑐

Y como habíamos mostrado al principio, tenemos que:


𝑑 ℎ2 (𝑦) 𝑑
𝜕𝑁
∫ ∫ (𝑥, 𝑦) 𝑑𝑥 𝑑𝑦 = ∫ (𝑁(ℎ2 (𝑦), 𝑦) − 𝑁(ℎ1 (𝑦), 𝑦)) 𝑑𝑦
𝑐 ℎ1 (𝑦) 𝜕𝑥 𝑐

Entonces:
𝑑 ℎ2 (𝑦)
𝜕𝑁
∫ 𝑁(𝑥, 𝑦) 𝑑𝑦 = ∫ ∫ (𝑥, 𝑦) 𝑑𝑥 𝑑𝑦
𝐶 𝑐 ℎ1 (𝑦) 𝜕𝑥

Y con esto concluimos la segunda igualdad del teorema de Green. Entonces, podemos decir
que el teorema está demostrado.

Nota:
• Las regiones de tipo 1 son aquellas regiones que se pueden escribir de la siguiente manera:

𝑅 = {(𝑥, 𝑦) ∈ ℝ2 : 𝑎 ≤ 𝑥 ≤ 𝑏, 𝑔1 (𝑥) ≤ 𝑦 ≤ 𝑔2 (𝑥)}

Donde 𝑔1 y 𝑔2 son funciones definidas en [𝑎, 𝑏].


• Las regiones de tipo 2 son aquellas regiones que se pueden escribir de la siguiente manera:

𝑅 = {(𝑥, 𝑦) ∈ ℝ2 : 𝑐 ≤ 𝑦 ≤ 𝑑, ℎ1 (𝑦) ≤ 𝑥 ≤ ℎ2 (𝑦)}

Donde ℎ1 y ℎ2 son funciones definidas en [𝑐, 𝑑].

• Las regiones simples, son aquellas regiones que son a la vez de tipo 1 y de tipo 2.

• El teorema de Green sirve para regiones generales también, donde no son regiones
simples. Pero podemos descomponer a la región en la unión de regiones simples y luego
aplicar el teorema de Green en cada una de las regiones simples y luego sumarlas. En las
uniones, tendremos que algunos tramos de las curvas que encierran a las regiones se
intersecarán y en las integrales de línea se cancelarán, ya que se recorren en sentido
contrario.

• Para regiones no simplemente convexas, el teorema sirve, pero en los ''agujeros'' que tiene
la región, se recorrerá en sentido horario. Estas regiones se las denomina como
múltiplemente conexas.

• Este teorema se definió para el plano 𝑥𝑦, pero también es válido para curvas planas en el
espacio.

• Se considera para campos estacionarios.

Teorema de Green Forma Normal


Habíamos definido la integral de línea para una curva simple, cerrada y plana cuando
queríamos calcular el flujo hacia afuera. La integral era:
𝑏
∫ 𝐹 ⋅ 𝑛 𝑑𝑠 = ∫ (−𝑁, 𝑀) ⋅ 𝑟 ′ (𝑡) 𝑑𝑡
𝐶 𝑎

Entonces de acá, podemos tomar al nuevo campo vectorial 𝐹 y demostrar de nuevo el teorema
de Green para este campo. Pero como ya lo hemos demostrado, solo cambiaríamos las
funciones componentes del nuevo campo vectorial al nuevo. Reemplazamos 𝑀 por −𝑁 y 𝑁
por 𝑀. Entonces:

𝜕𝑀 𝜕𝑁
∮ 𝐹 ∙ 𝑛 𝑑𝑠 = ∬ ( + ) 𝑑𝑥 𝑑𝑦
𝐶 𝑅 𝜕𝑥 𝜕𝑦

Y llegamos a la expresión.

Nota:
También se puede tomar como 𝐺 = (−𝑁, 𝑀) y aplicar el teorema de Green para este campo
vectorial:

∫ 𝐹 ⋅ 𝑛 𝑑𝑠 = ∫ 𝐺 ∙ 𝑇 𝑑𝑠
𝐶 𝐶

Entonces:

∫ 𝐺 ∙ 𝑇 𝑑𝑠 = ∬ (𝑀𝑥 − (−𝑁𝑦 )) 𝑑𝑥 𝑑𝑦
𝐶 𝑅

∫ 𝐺 ∙ 𝑇 𝑑𝑠 = ∬ (𝑀𝑥 + 𝑁𝑦 ) 𝑑𝑥 𝑑𝑦
𝐶 𝑅

Y concluimos que es la divergencia de 𝐹 .

Teorema de Green para el Cálculo de Áreas


Cuando tenemos un área difícil de calcular por medio de las integrales dobles, podemos
aplicar el teorema de Green. Por definición, teníamos que el cálculo del área de una región es:
𝐴 = ∬ 1 𝑑𝐴
𝑅

Si tenemos un campo vectorial que la tercera componente del rotacional sea igual a 1,
entonces:

𝜕𝑁 𝜕𝑀
∮ 𝐹 ∙ 𝑇 𝑑𝑠 = ∬ ( − ) 𝑑𝑥 𝑑𝑦
𝐶 𝑅 𝜕𝑥 𝜕𝑦

∮ 𝐹 ∙ 𝑇 𝑑𝑠 = ∬ 1 𝑑𝑥 𝑑𝑦
𝐶 𝑅

∮ 𝐹 ∙ 𝑇 𝑑𝑠 = ∬ 1 𝑑𝐴
𝐶 𝑅

∮ 𝐹 ∙ 𝑇 𝑑𝑠 = 𝐴
𝐶

Se tiene que, con el mismo campo vectorial, podemos calcular el área de la región encerrada
por 𝐶.

Ejemplo:
Se tiene que calcular el área de la región encerrada por 𝐶 :

Donde 𝐶 está descrita por:

𝑟(𝑡) = (𝑡 2 − 2 ∙ 𝑡 + 1, 𝑡 3 − 4 ∙ 𝑡)

Para poder calcular el área, elegimos un campo vectorial 𝐹 tal que su tercera componente del
rotor sea igual a 1. Elegimos:
𝑦 𝑥
𝐹 = (− , )
2 2
Calculamos primero los límites de integración. La componente 𝑥 de 𝑟(𝑡) es igual a 1 para dos
valores de 𝑡 distintos. Entonces:

𝑡2 − 2 ∙ 𝑡 + 1 = 1

𝑡2 − 2 ∙ 𝑡 = 0

𝑡 ∙ (𝑡 − 2) = 0

El lado izquierdo de la igualdad se anula para 𝑡 = 0 y 𝑡 = 2. Entonces:


2
𝑡3 − 4 ∙ 𝑡 𝑡2 − 2 ∙ 𝑡 + 1
𝐴 = ∫ (− , ) ∙ (2 ∙ 𝑡 − 2, 3 ∙ 𝑡 2 − 4) 𝑑𝑡
0 2 2
2
−𝑡 3 + 4 ∙ 𝑡 𝑡 2 − 2 ∙ 𝑡 + 1
𝐴=∫ ( , ) ∙ (2 ∙ 𝑡 − 2, 3 ∙ 𝑡 2 − 4) 𝑑𝑡
0 2 2

2
−𝑡 3 + 4 ∙ 𝑡 𝑡2 − 2 ∙ 𝑡 + 1
𝐴 = ∫ (( (2
) ∙ ∙ 𝑡 − 2) + ( ) ∙ (3 ∙ 𝑡 2 − 4)) 𝑑𝑡
0 2 2

2
3 3
𝐴 = ∫ (−𝑡 4 + 4 ∙ 𝑡 2 + 𝑡 3 − 4 ∙ 𝑡 + ∙ 𝑡 4 − 3 ∙ 𝑡 3 + ∙ 𝑡 2 − 2 ∙ 𝑡 2 + 4 ∙ 𝑡 − 2) 𝑑𝑡
0 2 2
2
1 7
𝐴 = ∫ ( ∙ 𝑡 4 − 2 ∙ 𝑡 3 + ∙ 𝑡 2 − 2) 𝑑𝑡
0 2 2
𝑡=2
1 5 1 4 7 3
𝐴=( ∙ 𝑡 − ∙ 𝑡 + ∙ 𝑡 − 2 ∙ 𝑡)
10 2 6 𝑡=0

8
𝐴= ≈ 0,5333
15
Y llegamos al resultado.

Parametrización de Superficies

Nota:

• Esta forma de representar superficies es similar a la forma de representar curvas en el


plano o el espacio dada una parametrización. Ahora tenemos una región 𝑅 incluida en ℝ2
que es el dominio de los parámetros 𝑢 y 𝑣 y el rango de 𝑟 es el conjunto de imágenes que
toma 𝑟.

• Por lo general se encuentran en ℝ3 ya que también existen hipersuperficies que se


encuentran en dimensiones mayores. En estas superficies tenemos tres funciones
componentes.

• Esta función tiene que ser inyectiva, pero también se puede aplicar para cuando no sea
inyectiva en la frontera del dominio de los parámetros.

• Las representaciones de estas funciones se denominan superficies, no gráficos. También se


pueden llamar representaciones vectoriales paramétricas.

• Las curvas reticulares son aquellas curvas que resultan de darle un valor constante a una
de las variables.
Superficies Suaves

Nota:
Cuando tenemos una unión en sus bordes de superficies suaves, se denomina superficie suave
por partes.

Área de una Superficie Suave Parametrizada

Como para todas las deducciones de integrales, tomamos una partición en el dominio de los
parámetros. Esto nos inducirá una partición en la superficie. Si queremos calcular el área de la
superficie, sumaremos las porciones de área de cada rectángulo resultante de la partición:

De acá podemos ver dos curvas reticulares, en las cuales queremos aproximar el área de este
rectángulo. Podemos ver que en la curva 𝐶1 la distancia de este tramo se podría ver como:

𝑟(𝑢0 + ∆𝑢, 𝑣0 ) − 𝑟(𝑢0 , 𝑣0 )

Si usamos la definición de derivada parcial de 𝑟 con respecto a 𝑢, vemos:

𝑟(𝑢0 + ∆𝑢, 𝑣0 ) − 𝑟(𝑢0 , 𝑣0 )


𝑟𝑢 (𝑢0 , 𝑣0 ) = lim
∆𝑢→0 ∆𝑢
Si nosotros no tomamos el límite de ∆𝑢 tendiendo a 0, el resultado no va a ser igual, pero si
aproximado:

𝑟(𝑢0 + ∆𝑢, 𝑣0 ) − 𝑟(𝑢0 , 𝑣0 )


𝑟𝑢 (𝑢0 , 𝑣0 ) ≈
∆𝑢
Entonces:

𝑟𝑢 (𝑢0 , 𝑣0 ) ∙ ∆𝑢 ≈ 𝑟(𝑢0 + ∆𝑢, 𝑣0 ) − 𝑟(𝑢0 , 𝑣0 )

Lo mismo hacemos para la otra derivada parcial de 𝑟:


𝑟𝑣 (𝑢0 , 𝑣0 ) ∙ ∆𝑣 ≈ 𝑟(𝑢0 , 𝑣0 + ∆𝑣) − 𝑟(𝑢0 , 𝑣0 )

Para calcular el área de un paralelogramo cuyos lados son dos vectores, se utiliza el producto
vectorial. Para este caso, tenemos dos vectores. Entonces el área de un rectángulo 𝑖𝑗 será:

𝜎𝑖𝑗 ≈ ||𝑟𝑢 (𝑢𝑖 , 𝑣𝑗 ) ∙ ∆𝑢𝑖 × 𝑟𝑣 (𝑢𝑖 , 𝑣𝑗 ) ∙ ∆𝑣𝑗 ||

𝜎𝑖𝑗 ≈ ||𝑟𝑢 (𝑢𝑖 , 𝑣𝑗 ) × 𝑟𝑣 (𝑢𝑖 , 𝑣𝑗 )|| ∙ ∆𝑢𝑖 ∙ ∆𝑣𝑗

Si ahora hacemos dos sumatorias de Riemann, una para cada variable, tenemos:
𝑛 𝑛

𝐴 ≈ ∑ ∑ ||𝑟𝑢 (𝑢𝑖 , 𝑣𝑗 ) × 𝑟𝑣 (𝑢𝑖 , 𝑣𝑗 )|| ∙ ∆𝑢𝑖 ∙ ∆𝑣𝑗


𝑖=1 𝑗=1

Si ahora aplicamos el límite de la norma de la partición tendiendo a 0, tenemos la integral


doble del módulo del producto vectorial de las derivadas parciales de la representación
vectorial paramétrica de la superficie:

𝐴 = ∬ ||𝑟𝑢 (𝑢, 𝑣) × 𝑟𝑣 (𝑢, 𝑣)|| 𝑑𝑢 𝑑𝑣


𝑅

Donde 𝑅 es la región donde están definidos los parámetros.

Nota:
• La región 𝑅 para las definiciones de más adelante siempre van a ser regiones simple del
plano de los parámetros.

• El área que calcularíamos para una superficie cualquiera es independiente de la


parametrización que se haga de la superficie.

Integral de Superficies para Campos Escalares

Tomamos una partición en el dominio de los parámetros y esto va a inducir una partición en la
superficie. Entonces en la superficie tomamos un punto muestra en el interior de cada porción
𝜎 de superficie y la multiplicamos por la porción:
𝑛 𝑛

∬ 𝑓 𝑑𝜎 = ∑ ∑ 𝑓 (𝑟(𝑢𝑖 , 𝑣𝑗 )) ∙ ∆𝜎𝑖𝑗
𝑆 𝑖=1 𝑗=1

Pero ya habíamos calculado la porción de superficie para 𝑟, entonces:


𝑛 𝑛

∬ 𝑓 𝑑𝜎 = ∑ ∑ 𝑓 (𝑟(𝑢𝑖 , 𝑣𝑗 )) ∙ ||𝑟𝑢 (𝑢𝑖 , 𝑣𝑗 ) × 𝑟𝑣 (𝑢𝑖 , 𝑣𝑗 )|| ∙ ∆𝑢𝑖 ∙ ∆𝑣𝑗


𝑆 𝑖=1 𝑗=1

Si tomamos el límite de la norma de la partición tendiendo a 0 tenemos la integral doble:

∬ 𝑓 𝑑𝜎 = ∬ 𝑓(𝑟(𝑢, 𝑣)) ∙ ||𝑟𝑢 × 𝑟𝑣 || 𝑑𝑢 𝑑𝑣


𝑆 𝑆

Superficies Orientadas

Nota:
• Esta definición habla de que se le debe asignar a la superficie un campo vectorial continuo
𝑛 que le asigne un vector normal unitario a la superficie.

• Para que este campo sea continuo, la diferencia de dos vectores normales a la superficie
consecutivos tiene que ser cercana a 0 ya que solo cambia la dirección de estos vectores
unitarios.

• Este vector necesariamente debe tener módulo unitario porque se podría manipular al
campo vectorial tal que el módulo de estos vectores tienda a 0 y la diferencia de dos
vectores consecutivos sea cercana a 0 también. Si 𝑆 no es orientable, entonces habrá
vectores normales consecutivos cuyas diferencias no sean cercanas a 0.

Superficies Cerradas

Nota:
Una superficie cerrada está orientada positivamente si el vector normal en cada punto de la
superficie apunta hacia afuera de 𝑆.

Integral de Superficie para Campos Vectoriales


Lo que calculamos acá es la integral doble en la región del dominio de los parámetros de la
componente normal a la superficie en toda la superficie. Tomamos el campo vectorial y lo
multiplicamos por el vector normal a la superficie, donde también lo multiplicamos por el 𝑑𝜎:

Luego, integramos el campo escalar dado por la componente normal del campo vectorial. La
forma de calcularlo es:

𝑟𝑢 × 𝑟𝑣
∬ 𝐹 ∙ 𝑛 𝑑𝜎 = ∬ 𝐹(𝑟(𝑢, 𝑣)) ∙ ∙ ||𝑟𝑢 × 𝑟𝑣 || 𝑑𝑢 𝑑𝑣
𝑆 𝑅 ||𝑟𝑢 × 𝑟𝑣 ||

∬ 𝐹 ∙ 𝑛 𝑑𝜎 = ∬ 𝐹(𝑟(𝑢, 𝑣)) ∙ (𝑟𝑢 × 𝑟𝑣 ) 𝑑𝑢 𝑑𝑣


𝑆 𝑅

Y llegamos a la forma de cálculo.

Teorema de Stokes

Para comprobar esta igualdad, tenemos que parametrizar la superficie que va a ser el gráfico
de una función 𝑔(𝑥, 𝑦), la curva frontera de la superficie y la curva en el plano 𝑥𝑦:

𝑆: 𝑟(𝑥, 𝑦) = (𝑥, 𝑦, 𝑔(𝑥, 𝑦)), (𝑥, 𝑦) ∈ 𝐷

𝐶: 𝑞(𝑡) = (𝑥(𝑡), 𝑦(𝑡), 𝑔(𝑥(𝑡), 𝑦(𝑡))) , 𝑎 ≤ 𝑡 ≤ 𝑏

𝐶1 : 𝑤(𝑡) = (𝑥(𝑡), 𝑦(𝑡)), 𝑎 ≤ 𝑡 ≤ 𝑏


Definimos a nuestra superficie como orientada hacia arriba, es decir, con la componente 𝑧 del
vector normal positivo. Al definir esto, la curva frontera 𝐶 tiene que ser recorrida en sentido
antihorario ya que tiene que estar orientada positivamente con respecto a la superficie, al igual
que 𝐶1 . 𝐶1 es la proyección de la curva frontera en el plano 𝑥𝑦, esta curva encierra una región
𝐷, que es la región donde están definidos (𝑥, 𝑦).

o Entonces tenemos que llegar a la igualdad por las dos partes:


𝑏
∫ 𝐹 ∙ 𝑑𝑟 = ∫ 𝐹(𝑞(𝑡)) ∙ 𝑞 ′ (𝑡) 𝑑𝑡
𝐶 𝑎

Si nuestro campo vectorial es:

𝐹(𝑞(𝑡)) = (𝑀(𝑞(𝑡)), 𝑁(𝑞(𝑡)), 𝑃(𝑞(𝑡)))

Y también:

𝑞 ′ (𝑡) = (𝑥 ′ (𝑡), 𝑦 ′ (𝑡), 𝑔𝑥 (𝑥(𝑡), 𝑦(𝑡)) ∙ 𝑥 ′ (𝑡) + 𝑔𝑦 (𝑥(𝑡), 𝑦(𝑡)) ∙ 𝑦 ′ (𝑡))

Entonces:
𝑏
∫ 𝐹 ∙ 𝑑𝑟 = ∫ (𝑀(𝑞(𝑡)), 𝑁(𝑞(𝑡)), 𝑃(𝑞(𝑡)))
𝐶 𝑎
∙ (𝑥 ′ (𝑡), 𝑦 ′ (𝑡), 𝑔𝑥 (𝑥(𝑡), 𝑦(𝑡)) ∙ 𝑥 ′ (𝑡) + 𝑔𝑦 (𝑥(𝑡), 𝑦(𝑡)) ∙ 𝑦 ′ (𝑡)) 𝑑𝑡

Abreviamos y seguimos:
𝑏
∫ 𝐹 ∙ 𝑑𝑟 = ∫ (𝑀, 𝑁, 𝑃) ∙ (𝑥 ′ , 𝑦 ′ , 𝑔𝑥 ∙ 𝑥 ′ + 𝑔𝑦 ∙ 𝑦 ′ ) 𝑑𝑡
𝐶 𝑎

𝑏
∫ 𝐹 ∙ 𝑑𝑟 = ∫ (𝑀 ∙ 𝑥 ′ + 𝑁 ∙ 𝑦 ′ + 𝑃 ∙ (𝑔𝑥 ∙ 𝑥 ′ + 𝑔𝑦 ∙ 𝑦 ′ )) 𝑑𝑡
𝐶 𝑎

𝑏
∫ 𝐹 ∙ 𝑑𝑟 = ∫ (𝑀 ∙ 𝑥 ′ + 𝑁 ∙ 𝑦 ′ + 𝑃 ∙ 𝑔𝑥 ∙ 𝑥 ′ + 𝑃 ∙ 𝑔𝑦 ∙ 𝑦 ′ ) 𝑑𝑡
𝐶 𝑎

Reagrupamos y las separamos en dos integrales:


𝑏
∫ 𝐹 ∙ 𝑑𝑟 = ∫ ((𝑀 + 𝑃 ∙ 𝑔𝑥 ) ∙ 𝑥 ′ ) 𝑑𝑡 + ∫ ((𝑁 + 𝑃 ∙ 𝑔𝑦 ) ∙ 𝑦 ′ ) 𝑑𝑡
𝐶 𝑎 𝐶1
Pero también podemos escribirlas a 𝑥 ′ y a 𝑦 ′ como:
𝑏
𝑑𝑥 𝑑𝑦
∫ 𝐹 ∙ 𝑑𝑟 = ∫ ((𝑀 + 𝑃 ∙ 𝑔𝑥 ) ∙ ) 𝑑𝑡 + ∫ ((𝑁 + 𝑃 ∙ 𝑔𝑦 ) ∙ ) 𝑑𝑡
𝐶 𝑎 𝑑𝑡 𝐶1 𝑑𝑡

Si cancelamos:
𝑏
∫ 𝐹 ∙ 𝑑𝑟 = ∫ (𝑀 + 𝑃 ∙ 𝑔𝑥 ) 𝑑𝑥 + (𝑁 + 𝑃 ∙ 𝑔𝑦 ) 𝑑𝑦
𝐶 𝑎

O sea, el campo vectorial que estamos integrando es:

𝐹 = (𝑀 + 𝑃 ∙ 𝑔𝑥 , 𝑁 + 𝑃 ∙ 𝑔𝑦 )

Y este solo depende de dos componentes 𝑥 e 𝑦, y también cumple con las hipótesis del
teorema de Green, por lo tanto:

𝜕 𝜕
∫ 𝐹 ∙ 𝑑𝑟 = ∬ ( (𝑁 + 𝑃 ∙ 𝑔𝑦 ) − (𝑀 + 𝑃 ∙ 𝑔𝑥 )) 𝑑𝐴
𝐶1 𝐷 𝜕𝑥 𝜕𝑦

Como habíamos definido, teníamos que:

𝐹(𝑞(𝑡)) = (𝑀(𝑞(𝑡)), 𝑁(𝑞(𝑡)), 𝑃(𝑞(𝑡)))

O sea:

𝐹(𝑥, 𝑦, 𝑔(𝑥, 𝑦)) = (𝑀(𝑥, 𝑦, 𝑔(𝑥, 𝑦)), 𝑁(𝑥, 𝑦, 𝑔(𝑥, 𝑦)), 𝑃(𝑥, 𝑦, 𝑔(𝑥, 𝑦)))

O sea que cada una de las componentes de 𝐹 dependen tanto de 𝑥 como de 𝑦, entonces,
cuando derivemos parcialmente, vamos a aplicar la regla de la cadena:

∫ 𝐹 ∙ 𝑑𝑟 = ∬ (𝑁𝑥 + 𝑁𝑧 ∙ 𝑔𝑥 + (𝑃𝑥 + 𝑃𝑧 ∙ 𝑔𝑥 ) ∙ 𝑔𝑦 + 𝑃 ∙ 𝑔𝑦𝑥


𝐶1 𝐷
− (𝑀𝑦 + 𝑀𝑧 ∙ 𝑔𝑦 + (𝑃𝑦 + 𝑃𝑧 ∙ 𝑔𝑦 ) ∙ 𝑔𝑥 + 𝑃 ∙ 𝑔𝑥𝑦 )) 𝑑𝐴

∫ 𝐹 ∙ 𝑑𝑟 = ∬ (𝑁𝑥 + 𝑁𝑧 ∙ 𝑔𝑥 + 𝑃𝑥 ∙ 𝑔𝑦 + 𝑃𝑧 ∙ 𝑔𝑥 ∙ 𝑔𝑦 + 𝑃 ∙ 𝑔𝑦𝑥 − 𝑀𝑦 − 𝑀𝑧 ∙ 𝑔𝑦 − 𝑃𝑦 ∙ 𝑔𝑥
𝐶1 𝐷
− 𝑃𝑧 ∙ 𝑔𝑦 ∙ 𝑔𝑥 − 𝑃 ∙ 𝑔𝑦𝑥 ) 𝑑𝐴

Si se cumple el Teorema de Clairaut, entonces:

∫ 𝐹 ∙ 𝑑𝑟 = ∬ (𝑁𝑥 + 𝑁𝑧 ∙ 𝑔𝑥 + 𝑃𝑥 ∙ 𝑔𝑦 − 𝑀𝑦 − 𝑀𝑧 ∙ 𝑔𝑦 − 𝑃𝑦 ∙ 𝑔𝑥 ) 𝑑𝐴
𝐶1 𝐷

Reagrupamos:

∫ 𝐹 ∙ 𝑑𝑟 = ∬ ((𝑁𝑧 − 𝑃𝑦 ) ∙ 𝑔𝑥 + (𝑃𝑥 − 𝑀𝑧 ) ∙ 𝑔𝑦 + 𝑁𝑥 − 𝑀𝑦 ) 𝑑𝐴
𝐶1 𝐷

Y llegamos a una expresión parecida al rotor de 𝐹.


o Ahora trataremos de llegar a la misma expresión con la otra parte de la igualdad de la
definición.

∬ ∇ × 𝐹 ∙ 𝑛 𝑑𝜎 = ∬ (𝑃𝑦 − 𝑁𝑧 , 𝑀𝑧 − 𝑃𝑥 , 𝑁𝑥 − 𝑀𝑦 ) ∙ 𝑛 𝑑𝜎
𝑆 𝐷

Donde 𝑛 es el vector normal a la superficie. La superficie parametrizada era 𝑟(𝑥, 𝑦), entonces
su vector normal es:

𝑟𝑥 (𝑥, 𝑦) = (1,0, 𝑔𝑥 (𝑥, 𝑦))

𝑟𝑦 (𝑥, 𝑦) = (0,1, 𝑔𝑦 (𝑥, 𝑦))

𝑟𝑥 (𝑥, 𝑦) × 𝑟𝑦 (𝑥, 𝑦) = (−𝑔𝑥 (𝑥, 𝑦), −𝑔𝑦 (𝑥, 𝑦), 1)

𝑟𝑥 × 𝑟𝑦 = (−𝑔𝑥 , −𝑔𝑦 , 1)

Como habíamos dicho, la superficie estaba orientada positivamente, o sea que la componente
𝑧 del vector normal tenía que ser positivo, entonces este vector está bien. Ahora,
reemplazando en la ecuación de la integral:

∬ ∇ × 𝐹 ∙ 𝑛 𝑑𝜎 = ∬ (𝑃𝑦 − 𝑁𝑧 , 𝑀𝑧 − 𝑃𝑥 , 𝑁𝑥 − 𝑀𝑦 ) ∙ (−𝑔𝑥 , −𝑔𝑦 , 1) 𝑑𝐴


𝑆 𝐷

∬ ∇ × 𝐹 ∙ 𝑛 𝑑𝜎 = ∬ (−(𝑃𝑥 − 𝑁𝑧 ) ∙ 𝑔𝑥 − (𝑀𝑧 − 𝑃𝑥 ) ∙ 𝑔𝑦 + 𝑁𝑥 − 𝑀𝑦 ) 𝑑𝐴
𝑆 𝐷

∬ ∇ × 𝐹 ∙ 𝑛 𝑑𝜎 = ∬ ((𝑁𝑧 − 𝑃𝑥 ) ∙ 𝑔𝑥 + (𝑃𝑥 − 𝑀𝑧 ) ∙ 𝑔𝑦 + 𝑁𝑥 − 𝑀𝑦 ) 𝑑𝐴
𝑆 𝐷

Y llegamos a la misma expresión que la anterior,

o Y concluimos que:

∫ 𝐹 ∙ 𝑑𝑟 = ∬ ∇ × 𝐹 ∙ 𝑛 𝑑𝜎
𝐶1 𝑆

Nota:
• Lo que dice este teorema es que si tenemos una superficie en la cual la curva frontera es 𝐶 ,
entonces todas las superficies que tengan la misma la misma curva frontera,
independientemente de la superficie, la integral de línea va a ser la misma.

• También se puede aplicar para superficies con agujeros. Si están bien orientadas, el
teorema es válido.

• Esta es la versión del teorema de Green tangencial generalizada para el espacio, ya que
evaluamos el rotor del campo vectorial y tenemos una curva plana.

Teorema de la Divergencia de Gauss


Nota:

• Esta es la versión del teorema de Green en forma normal para el espacio, ya que evaluamos
la diferencia del campo vectorial en la superficie cerrada.

• Para otras regiones con agujeros, podemos aplicarlo, pero la superficie que abarca la otra
superficie tiene orientación hacia afuera y la superficie adentro de la otra, tiene orientación
hacia adentro.

Laplaciano

Nota:
En los mínimos de una función el laplaciano va a ser positivo y en los máximos, negativo

Unidad 5 - Ecuaciones Diferenciales


Ordinarias
Ecuaciones Diferenciales
Clasificaciones de las ED
Las ecuaciones diferenciales parciales se clasifican:

• Por tipo:

▪ Ordinarias: Solo dependen de una variable independiente.

𝑑2 𝑦
+ 5 ∙ 𝑠𝑒𝑛(𝑦) = 0
𝑑𝑥 2

• Parciales: Estas dependen de más de una variable independiente.

𝜕𝑢 𝜕2𝑢
=𝑘∙ 2
𝜕𝑥 𝜕𝑡
• Por orden: El orden de la ecuación depende de la mayor derivada presente en esta.

• Por linealidad:

▪ Lineales: Para que una función sea lineal, todas las derivadas de la función tienen
que estar multiplicadas por una función de la variable independiente

𝑑2 𝑦 𝑑𝑦
2
+ cos(𝑥) ∙ − 𝑒 𝑥 ∙ 𝑦 = sin2(𝑥)
𝑑𝑥 𝑑𝑥
▪ No lineales: Todas las demás ecuaciones lineales.
𝑑𝑦
∙𝑦 =1
𝑑𝑥
Nota:
Cuando la ecuación diferencial lineal tiene coeficientes que son funciones que varían, entonces
se dice que la ecuación diferencial tiene coeficientes no constantes.

Soluciones de las ED
Nota:

• A veces tenemos que la solución tiene un intervalo donde está definido, pero la ecuación
diferencial a la cual se le buscó la solución tiene otro intervalo. Entonces el intervalo de la
solución tiene que coincidir con el intervalo de la ecuación.

• Cuando ponemos el dominio de una función o el intervalo donde se comporta como una
solución de la ecuación, tenemos que asegurarnos que este intervalo sea conexo.

• A veces tenemos más de una familia de soluciones, entonces tenemos que elegir una, ver
si sirve y asignarle un intervalo en donde este se comporte como solución de la ED.

Condiciones de Iniciales y de Frontera

Nota:
• La cantidad de condiciones iniciales que necesitamos para poder resolver tienen que ser la
misma cantidad que el orden de la ecuación diferencial.

• Para las condiciones de frontera, también necesitamos la misma cantidad de condiciones


como el orden de la ecuación diferencial. En este caso, el intervalo donde se comporta como
solución va a ser el intervalo que contenga a los valores que nos da las condiciones de
frontera.

• En los problemas con valores de frontera, podemos obtener tres casos. Que las solución sea
única, que tenga infinitas soluciones o que no tenga solución las condiciones impuestas.

Teorema de Existencia y Unicidad de Solución para PVI


de Primer Orden

Campos Direccionales

Nota:
• Los vectores que se grafican a la derecha de la definición es la pendiente, o valor que
tomaría la ecuación diferencial de primer orden en todos los puntos del plano 𝑥𝑦.

• Si nosotros graficamos una solución, podemos ver que en los puntos donde coincide el
campo de direcciones con el gráfico de la solución las pendientes van a coincidir. Es decir
que con el campo direccional vamos a poder analizar qué forma tomarían las soluciones.

Separación de Variables
Cuando tenemos una ED del tipo:

𝑦 ′ = 𝑔(𝑥) ∙ 𝑝(𝑦)

Si despejamos:

ℎ(𝑦(𝑥)) ∙ 𝑦 ′ (𝑥) = 𝑔(𝑥)

Donde:
1
ℎ(𝑦(𝑥)) =
𝑝(𝑦(𝑥))

Entonces podemos agregar 𝐻, que va a ser una primitiva de h:

𝐻′ = ℎ

Entonces:

𝐻 ′ (𝑦(𝑥)) ∙ 𝑦 ′ (𝑥) = ℎ(𝑦(𝑥)) ∙ 𝑦 ′ (𝑥)

Al llegar a esta expresión podemos ver que para derivar 𝐻(𝑦(𝑥)) se aplicó la regla de la
cadena, o sea que si reemplazamos esta expresión en la ecuación inicial e integramos ambos
lados tenemos:

𝐻 ′ (𝑦(𝑥)) ∙ 𝑦 ′ (𝑥) = 𝑔(𝑥)

𝐻(𝑦(𝑥)) = ∫ 𝑔(𝑥) 𝑑𝑥 + 𝐶

De acá vamos a obtener una solución implícita. Si queremos expresar la solución como
explícita, entonces despejamos si se puede.

Nota:

• En la práctica haremos:

𝑑𝑦
ℎ(𝑦) ∙ = 𝑔(𝑥)
𝑑𝑥
ℎ(𝑦) 𝑑𝑦 = 𝑔(𝑥) 𝑑𝑥

Integramos ambos miembros y resolvemos:

𝐻(𝑦) = ∫ ℎ(𝑦) 𝑑𝑦 = ∫ 𝑔(𝑥) 𝑑𝑥 + 𝐶

• Cuando despejamos y hacemos este método, es probable que perdamos alguna solución
singular. Cuando lleguemos a la expresión de la solución, nos tenemos que asegurar que
en la ED inicial no perdamos algunas soluciones.
Ecuaciones Diferenciales Lineales de Primer Orden

La forma estándar para expresar a esta ecuación es:

𝑦 ′ + 𝑃(𝑥) ∙ 𝑦 = 𝑓(𝑥)

Donde:

𝑎0 (𝑥)
𝑃(𝑥) =
𝑎1 (𝑥)
𝑔(𝑥)
𝑓(𝑥) =
𝑎1 (𝑥)

Ahora con esto, lo que hacemos es multiplicar un factor integrante 𝜇(𝑥), tal que utilicemos la
derivación de una multiplicación:

𝜇(𝑥) ∙ 𝑦 ′ + 𝜇(𝑥) ∙ 𝑃(𝑥) ∙ 𝑦 = 𝜇(𝑥) ∙ 𝑓(𝑥)

Entonces vamos a tener que:

𝜇′ (𝑥) = 𝜇(𝑥) ∙ 𝑃(𝑥)

Esto es una ED separable, entonces:

𝑑𝜇
= 𝜇 ∙ 𝑃(𝑥)
𝑑𝑥
𝑑𝜇
= 𝑃(𝑥) 𝑑𝑥
𝜇

Si integramos:

ln(𝜇) = ∫ 𝑃(𝑥) 𝑑𝑥 + 𝐶

𝜇 = 𝑒 ∫ 𝑃(𝑥) 𝑑𝑥+𝐶

𝜇 = 𝑒 𝐶 ∙ 𝑒 ∫ 𝑃(𝑥) 𝑑𝑥

𝜇 = 𝑘 ∙ 𝑒 ∫ 𝑃(𝑥) 𝑑𝑥

Pero no vamos a tener en cuenta a la constante, porque esta puede que nos haga perder
alguna solución, pero si la vamos a agregar al final del procedimiento. Entonces:

𝜇 = 𝑒 ∫ 𝑃(𝑥) 𝑑𝑥
Ahora con esto, podemos escribir la ecuación diferencial como:

𝑑
(𝑦(𝑥) ∙ 𝜇(𝑥)) = 𝜇(𝑥) ∙ 𝑓(𝑥)
𝑑𝑥
Si integramos ahora:

𝑦(𝑥) ∙ 𝜇(𝑥) = ∫ 𝜇(𝑥) ∙ 𝑓(𝑥) 𝑑𝑥 + 𝐶

Ahora si necesitamos agregar y considerar la constante de la integral indefinida. Si


reemplazamos y despejamos:

𝑦(𝑥) ∙ 𝑒 ∫ 𝑃(𝑥) 𝑑𝑥 = ∫ 𝑒 ∫ 𝑃(𝑥) 𝑑𝑥 ∙ 𝑓(𝑥) 𝑑𝑥 + 𝐶

𝑦(𝑥) = 𝑒 − ∫ 𝑃(𝑥) 𝑑𝑥 ∙ ∫ 𝑒 ∫ 𝑃(𝑥) 𝑑𝑥 ∙ 𝑓(𝑥) 𝑑𝑥 + 𝐶 ∙ 𝑒 − ∫ 𝑃(𝑥) 𝑑𝑥

Al llegar a esta expresión, llegamos a la solución de una ecuación diferencial lineal de primer
orden.

Nota:
Absorbemos la constante de la primer integral que calculamos con la segunda constante.

Ecuaciones Diferenciales Exactas

Para que podamos ver esto, necesitamos que se cumpla:

𝑁𝑥 = 𝑀𝑦

Aparte, la región tiene que ser abierta, conexa y simplemente conexa. Entonces nosotros para
resolver este tipo de ecuaciones vamos a proponer una solución, dada implícitamente donde
es igualada a una constante, o sea:

𝑆(𝑥, 𝑦) = 𝐶

Entonces para encontrar a nuestra solución, vamos a tener que:

𝜕𝑆
(𝑥, 𝑦) = 𝑀(𝑥, 𝑦)
𝜕𝑥
𝜕𝑆
(𝑥, 𝑦) = 𝑁(𝑥, 𝑦)
𝜕𝑦

Entonces reemplazamos en la ecuación y tenemos:

𝑀(𝑥, 𝑦) + 𝑁(𝑥, 𝑦) ∙ 𝑦 ′ = 0
𝜕𝑆 𝜕𝑆
(𝑥, 𝑦) + (𝑥, 𝑦) ∙ 𝑦 ′ = 0
𝜕𝑥 𝜕𝑦

Donde la derivada de 𝑥 es 1. Entonces, si esto se cumple, vamos a tener que 𝑆(𝑥, 𝑦) = 𝐶 va a


ser una solución implícita de la ED si 𝑆 es una función potencial del campo vectorial 𝐹 =
(𝑀, 𝑁).

Nota:
• Si nos dan una ecuación diferencial exacta, para poder ver si se cumple el intervalo que
tomamos nosotros, tenemos que despejar la derivada y ver cuando se anula el
denominador.

• Si nos dan un PVI, tenemos que asegurarnos que la solución que encontremos sea única,
ya que tenemos que encontrar una región abierta conexa donde la solución se comporte
como tal.

Ecuaciones de Bernoulli
Cuando tenemos una ED del tipo:

𝑦 ′ (𝑥) = 𝑝(𝑥) ∙ 𝑦(𝑥) + 𝑞(𝑥) ∙ 𝑦 𝑛 (𝑥)

Siendo 𝑛 un número natural mayor que 1, estas ecuaciones se resuelven de la siguietne


manera. Reemplazamos a:

𝑉 = 𝑦1−𝑛

Y cuando derivemos nos va a quedar:

1
𝑉′ = ∙ 𝑦′
𝑦𝑛
1
Entonces, dividimos a la expresión por 𝑦𝑛 y luego reemplazamos por 𝑉 y 𝑉 ′ a cada término que
se pueda reemplazar. Luego nos quedará una ecuación diferencial lineal para resolver.

Ecuaciones Diferenciales Ordinarias Lineales de Segundo


Orden
Las ecuaciones diferenciales ordinarias lineales de segundo orden va a ser del tipo:

𝑃(𝑥) ∙ 𝑦 ′′ (𝑥) + 𝑄(𝑥) ∙ 𝑦 ′ (𝑥) + 𝑅(𝑥) ∙ 𝑦(𝑥) = 𝐺(𝑥)

Donde 𝑃, 𝑄, 𝑅 y 𝐺 son funciones continuas para un intervalo abierto 𝐼 y 𝑃(𝑥) ≠ 0 para todo
𝑥 ∈ 𝐼.

Nota:

• Se denomina homogénea cuando 𝐺(𝑥) = 0 para todo 𝑥 ∈ 𝐼 y cuando es distinta de cero


para algún valor de 𝑥 , entonces se llama no homogénea.

• La ecuación homogénea asociada a:

𝑃(𝑥) ∙ 𝑦 ′′ (𝑥) + 𝑄(𝑥) ∙ 𝑦 ′ (𝑥) + 𝑅(𝑥) ∙ 𝑦(𝑥) = 𝐺(𝑥)


Es:

𝑃(𝑥) ∙ 𝑦 ′′ (𝑥) + 𝑄(𝑥) ∙ 𝑦 ′ (𝑥) + 𝑅(𝑥) ∙ 𝑦(𝑥) = 0

Solución Única de los PVI

Principio de Superposición en Ecuaciones Diferenciales


Lineales Homogéneas

Vamos a demostrar el caso donde 𝑛 = 2. Por hipótesis tenemos que 𝑦1 (𝑥) es solución del
sistema al igual que 𝑦2 (𝑥). Entonces tenemos que probar que 𝑦(𝑥) = 𝑐1 ∙ 𝑦1 (𝑥) + 𝑐2 ∙ 𝑦2 (𝑥)
también es solución del sistema. Entonces derivamos:

𝑦 ′ (𝑥) = 𝑐1 ∙ 𝑦1′ (𝑥) + 𝑐2 ∙ 𝑦2′ (𝑥)

𝑦 ′′ (𝑥) = 𝑐1 ∙ 𝑦1′′ (𝑥) + 𝑐2 ∙ 𝑦2′′ (𝑥)

Sustituimos en la ecuación diferencial lineal homogénea:

𝑎2 (𝑥) ∙ 𝑦 ′′ (𝑥) + 𝑎1 (𝑥) ∙ 𝑦 ′ (𝑥) + 𝑎0 (𝑥) ∙ 𝑦(𝑥) = 0

𝑎2 (𝑥) ∙ (𝑐1 ∙ 𝑦1′′ (𝑥) + 𝑐2 ∙ 𝑦2′′ (𝑥)) + 𝑎1 (𝑥) ∙ (𝑐1 ∙ 𝑦1′ (𝑥) + 𝑐2 ∙ 𝑦2′ (𝑥)) + 𝑎0 (𝑥)
∙ (𝑐1 ∙ 𝑦1 (𝑥) + 𝑐2 ∙ 𝑦2 (𝑥)) = 0

Sacamos factor común para 𝑐1 y 𝑐2 :

𝑐1 ∙ (𝑎2 (𝑥) ∙ 𝑦1′′ (𝑥) + 𝑎1 (𝑥) ∙ 𝑦1′ (𝑥) + 𝑎0 (𝑥) ∙ 𝑦1 (𝑥)) + 𝑐2


∙ (𝑎2 (𝑥) ∙ 𝑦2′′ (𝑥) + 𝑎1 (𝑥) ∙ 𝑦2′ (𝑥) + 𝑎0 (𝑥) ∙ 𝑦2 (𝑥)) = 0

Por hipótesis teníamos que tanto 𝑦1 (𝑥) e 𝑦2 (𝑥) eran soluciones, entonces:

𝑐1 ∙ (0) + 𝑐2 ∙ (0) = 0
0=0

Y se verifica el teorema.

Nota:

• De acá podemos ver que la solución trivial 𝑦 = 0 es siempre una solución del sistema.

• En la definición solo están las soluciones 𝑦1 e 𝑦2 , pero pueden haber 𝑘 soluciones ya que
no hay relación entre la cantidad de soluciones y el orden de la ED.

• Toda combinación lineal de las soluciones, son nuevas soluciones de la ED.

• El teorema funciona y se verifica para más soluciones de la ED.

Familias de Funciones

Nota:
Dos funciones pueden ser linealmente independiente en un intervalo 𝐼 , pero en otro 𝐼 pueden
ser linealmente dependiente.

Wronskiano

Nota:
• Si tenemos que dos funciones son linealmente dependientes, entonces por propiedades de
las matrices, este determinante tiene que ser nulo para todo 𝑥 perteneciente al intervalo.

• Si existe por lo menos un 𝑥 en el intervalo 𝐼 donde el Wronskiano es disntinto del nulo,


entonces la familia es linealmente independiente en 𝐼 .

Teorema de las Soluciones de una ED


Nota:
Un conjunto fundamental de las soluciones de una ED de orden 𝑛 es aquel conjunto que cumple:

▪ Cada una de las funciones es solución de la ED.

▪ Hay tantas soluciones como el orden de la ED.

▪ Cada una de las soluciones es linealmente independiente con las otras en el intervalo 𝐼.

Existencia del Conjunto Fundamental

Teorema de Solución General de las ED Homogéneas

Demostraremos el caso donde 𝑛 = 2. Entonces tenemos una ED del tipo:

𝑎2 (𝑥) ∙ 𝑦 ′′ (𝑥) + 𝑎1 (𝑥) ∙ 𝑦 ′ (𝑥) + 𝑎0 (𝑥) ∙ 𝑦(𝑥) = 0

Y vamos a tener un conjunto fundamental que por hipótesis son soluciones linealmente
independiente de la ED:

{𝑦1 (𝑥), 𝑦2 (𝑥)}

Lo que queremos demostrar es que para cualquier solución que nosotros encontremos para la
ED se puede expresar como combinación lineal del conjunto fundamental en el intervalo 𝐼.
Entonces vamos a llamar a alguna solución de la ED como 𝜙 en 𝐼 y también vamos a elegir un
punto 𝑥0 ∈ 𝐼. Como el Wronskiano es distinto de 0 para todo 𝑥 ∈ 𝐼, entonces para 𝑥0 también
va a ser distinto del 0. Entonces vamos a hacer un sistema de ecuaciones evaluado en 𝑥0 :

𝑐 ∙ 𝑦 (𝑥 ) + 𝑐2 ∙ 𝑦2 (𝑥0 ) = 𝑘1
{ 1 1′ 0
𝑐1 ∙ 𝑦1 (𝑥0 ) + 𝑐2 ∙ 𝑦2′ (𝑥0 ) = 𝑘2
Donde 𝑐1 y 𝑐2 son constantes. Vamos a igualar a 𝑘1 y 𝑘2 con la imagen de la solución 𝜙 y su
derivada evaluada en 𝑥0 , ya que la teníamos como una solución de la ED:

𝑘1 = 𝜙(𝑥0 )

𝑘2 = 𝜙 ′ (𝑥0 )

Ahora tenemos un sistema de dos ecuaciones con dos incógnitas, entonces evaluamos el
determinante del sistema para ver si tiene solución única o infinitas soluciones:

𝑦1 (𝑥0 ) 𝑦2 (𝑥0 )
| |≠0
𝑦1′ (𝑥0 ) 𝑦2′ (𝑥0 )

Como esta expresión es la misma que el Wronskiano, por hipótesis teníamos que este era
distinto de 0 para todo 𝑥 ∈ 𝐼, entonces tampoco lo va a ser en 𝑥0 . Entonces tenemos que este
sistema tiene solución única, la cual va a ser:

(𝑐1 , 𝑐2 ) = (𝑐̅1 , 𝑐̅2 )

Lo cuales estos son fijos y los usaremos para construir una función:

𝐺(𝑥) = 𝑐̅1 ∙ 𝑦1 (𝑥) + 𝑐̅2 ∙ 𝑦2 (𝑥)

Por el teorema de superposición para ecuaciones diferenciales homogéneas tenemos que una
combinación lineal de dos o más soluciones de una ED también es una solución de la ED.
Entonces esta nueva función que definimos también será una solución de la ED. Ahora si
tenemos este PVI:

𝑎2 (𝑥) ∙ 𝑦 ′′ (𝑥) + 𝑎1 (𝑥) ∙ 𝑦 ′ (𝑥) + 𝑎0 (𝑥) ∙ 𝑦(𝑥) = 0


{ 𝑦(𝑥0 ) = 𝑘1
𝑦 ′ (𝑥0 ) = 𝑘2

Ahora vamos a ver que esta función es una solución de este PVI. Si evaluamos la nueva función
y su derivada en el punto 𝑥0 tenemos:

𝐺(𝑥0 ) = 𝑐̅1 ∙ 𝑦1 (𝑥0 ) + 𝑐̅2 ∙ 𝑦2 (𝑥0 ) = 𝑘1

𝐺(𝑥0 ) = 𝑐̅1 ∙ 𝑦1′ (𝑥0 ) + 𝑐̅2 ∙ 𝑦2′ (𝑥0 ) = 𝑘2

Esto se cumple por el sistema de ecuaciones que habíamos definido anteriormente que se
verificaron que estos eran las soluciones únicas. Por lo tanto, se cumple que esta función es
una solución del PVI. Pero como habíamos definido antes, 𝜙 también es solución de este PVI,
ya que era por hipótesis una solución de la ED y cumple con las condiciones iniciales de esta.
Pero por el teorema de existencia y unicidad de la solución de un PVI de orden 𝑛 tenemos que:

𝐺(𝑥) = 𝜙(𝑥)

Entonces:

𝜙(𝑥) = 𝑐̅1 ∙ 𝑦1 (𝑥) + 𝑐̅2 ∙ 𝑦2 (𝑥)

Y queda demostrado que para cualquier solución de la ED se puede expresar como


combinación lineal del conjunto fundamental de la ED.

Nota:
Este teorema asegura que un conjunto fundamental de soluciones de una ED lineal homogénea
de orden 𝑛 es una familia generadora del espacio vectorial de funciones solución de esta ED. O
sea que todas las soluciones de la ED se pueden expresar por esta combinación lineal.

ED Homogéneas con Coeficientes Constantes


Cuando tenemos una ED del tipo:

𝑎 ∙ 𝑦 ′′ (𝑥) + 𝑏 ∙ 𝑦 ′ (𝑥) + 𝑐 ∙ 𝑦(𝑥) = 0

Vamos a proponer una solución:

𝑦(𝑥) = 𝑒 𝑟∙𝑥

Sus derivadas van a ser:

𝑦 ′ (𝑥) = 𝑟 ∙ 𝑒 𝑟∙𝑥

𝑦 ′′ (𝑥) = 𝑟 2 ∙ 𝑒 𝑟∙𝑥

Reemplazamos en la ED:

𝑎 ∙ 𝑟 2 ∙ 𝑒 𝑟∙𝑥 + 𝑏 ∙ 𝑟 ∙ 𝑒 𝑟∙𝑥 + 𝑐 ∙ 𝑒 𝑟∙𝑥 = 0

Sacamos factor común:

(𝑎 ∙ 𝑟 2 + 𝑏 ∙ 𝑟 + 𝑐) ∙ 𝑒 𝑟∙𝑥 = 0

Entonces como 𝑒 𝑟∙𝑥 nunca se anula, encontramos la ecuación auxiliar:

𝑎 ∙ 𝑟2 + 𝑏 ∙ 𝑟 + 𝑐 = 0

Ahora podemos encontrar las raíces:

−𝑏 + √𝑏 2 − 4 ∙ 𝑎 ∙ 𝑐
𝑟1 =
2∙𝑎

−𝑏 − √𝑏 2 − 4 ∙ 𝑎 ∙ 𝑐
𝑟2 =
2∙𝑎
Del discriminante podemos sacar 3 casos:

• Caso 1: 𝑏 2 − 4 ∙ 𝑎 ∙ 𝑐 > 0

Cuando se cumple esto, buscamos las raíces. Obtenemos 𝑟1 y 𝑟2 y ahora probamos que las
soluciones 𝑒 𝑟1 ∙𝑥 y 𝑒 𝑟2 ∙𝑥 son soluciones linealmente independiente en en todo ℝ, para esto
utilizamos el Wronskiano:

𝑒 𝑟1 ∙𝑥 𝑒 𝑟2 ∙𝑥
𝑊(𝑦1 ,𝑦2 ) (𝑥) = | |
𝑟1 ∙ 𝑒 𝑟1 ∙𝑥 𝑟2 ∙ 𝑒 𝑟2 ∙𝑥

𝑊(𝑦1 ,𝑦2 ) (𝑥) = 𝑒 𝑟1 ∙𝑥 ∙ 𝑟2 ∙ 𝑒 𝑟2 ∙𝑥 − 𝑒 𝑟2 ∙𝑥 ∙ 𝑟1 ∙ 𝑒 𝑟1 ∙𝑥

𝑊(𝑦1 ,𝑦2 ) (𝑥) = 𝑒 (𝑟1 +𝑟2 )∙𝑥 ∙ (𝑟2 − 𝑟1 )


Como el determinante es positivo, tenemos que estas dos raíces son distintas y reales,
entonces el Wronskiano nunca se anula. Entonces la solución general de la ecuación diferencial
es:

𝑦(𝑥) = 𝑐1 ∙ 𝑒 𝑟1 ∙𝑥 + 𝑐2 ∙ 𝑒 𝑟2 ∙𝑥

Esta solución está definida para todos los valores de 𝑥 ∈ ℝ.

• Caso 2: 𝑏 2 − 4 ∙ 𝑎 ∙ 𝑐 = 0

Cuando se cumple esto, vamos a tener dos raíces iguales:

−𝑏 ± √𝑏 − 4 ∙ 𝑎 ∙ 𝑐 −𝑏
𝑟= =
2∙𝑎 2∙𝑎
Entonces proponemos dos soluciones:

𝑦1 (𝑥) = 𝑒 𝑟∙𝑥

𝑦2 (𝑥) = 𝑥 ∙ 𝑒 𝑟∙𝑥

Pero tenemos que verificar que la segunda solución verifica la ecuación, entonces la derivamos

𝑦2′ (𝑥) = 𝑒 𝑟∙𝑥 + 𝑥 ∙ 𝑟 ∙ 𝑒 𝑟∙𝑥

𝑦2′′ (𝑥) = 𝑟 ∙ 𝑒 𝑟∙𝑥 + 𝑟 ∙ 𝑒 𝑟∙𝑥 + 𝑥 ∙ 𝑟 2 ∙ 𝑒 𝑟∙𝑥 = 2 ∙ 𝑟 ∙ 𝑒 𝑟∙𝑥 + 𝑥 ∙ 𝑟 2 ∙ 𝑒 𝑟∙𝑥

Y la reemplazamos:

𝑎 ∙ 𝑦2′′ (𝑥) + 𝑏 ∙ 𝑦2′ (𝑥) + 𝑐 ∙ 𝑦2 (𝑥) = 0

𝑎 ∙ (2 ∙ 𝑟 ∙ 𝑒 𝑟∙𝑥 + 𝑥 ∙ 𝑟 2 ∙ 𝑒 𝑟∙𝑥 ) + 𝑏 ∙ (𝑒 𝑟∙𝑥 + 𝑥 ∙ 𝑟 ∙ 𝑒 𝑟∙𝑥 ) + 𝑐 ∙ (𝑥 ∙ 𝑒 𝑟∙𝑥 ) = 0

(𝑎 ∙ (2 ∙ 𝑟 + 𝑥 ∙ 𝑟 2 ) + 𝑏 ∙ (1 + 𝑥 ∙ 𝑟) + 𝑐 ∙ 𝑥) ∙ 𝑒 𝑟∙𝑥 = 0

(2 ∙ 𝑟 ∙ 𝑎 + 𝑥 ∙ 𝑟 2 ∙ 𝑎 + 𝑏 + 𝑏 ∙ 𝑥 ∙ 𝑟 + 𝑐 ∙ 𝑥) ∙ 𝑒 𝑟∙𝑥 = 0

Agrupamos:

(2 ∙ 𝑟 ∙ 𝑎 + 𝑏 + 𝑥 ∙ (𝑟 2 ∙ 𝑎 + 𝑏 ∙ 𝑟 + 𝑐)) ∙ 𝑒 𝑟∙𝑥 = 0

En la ecuación podemos ver que aparece la ecuación auxiliar, que teníamos que era igual a 0,
y también tenemos a:

2∙𝑟∙𝑎+𝑏

Si reemplazamos el valor que teníamos de la raíz tenemos:

−𝑏
2∙( )∙𝑎+𝑏 =0
2∙𝑎
Por lo tanto, 𝑦2 (𝑥) también es una solución de la ED. Ahora tenemos que ver si son linealmente
independiente. Utilizamos el Wronskiano:

𝑒 𝑟∙𝑥 𝑥 ∙ 𝑒 𝑟∙𝑥
𝑊(𝑦1 ,𝑦2 ) (𝑥) = | |
𝑟 ∙ 𝑒 𝑟∙𝑥 𝑒 𝑟∙𝑥
+ 𝑥 ∙ 𝑟 ∙ 𝑒 𝑟∙𝑥
𝑊(𝑦1 ,𝑦2 ) (𝑥) = 𝑒 𝑟∙𝑥 ∙ (𝑒 𝑟∙𝑥 + 𝑥 ∙ 𝑟 ∙ 𝑒 𝑟∙𝑥 ) − 𝑥 ∙ 𝑒 𝑟∙𝑥 ∙ 𝑟 ∙ 𝑒 𝑟∙𝑥
𝑊(𝑦1 ,𝑦2 ) (𝑥) = 𝑒 2∙𝑟∙𝑥 ∙ (1 + 𝑥 ∙ 𝑟) − 𝑥 ∙ 𝑒 2∙𝑟∙𝑥 ∙ 𝑟

𝑊(𝑦1 ,𝑦2 ) (𝑥) = 𝑒 2∙𝑟∙𝑥 ∙ (1 + 𝑥 ∙ 𝑟 − 𝑥 ∙ 𝑟)

𝑊(𝑦1 ,𝑦2 ) (𝑥) = 𝑒 2∙𝑟∙𝑥

Como no se anula para ningún valor de 𝑥 en ℝ, entonces las soluciones son linealmente
independientes. La solución general es:

𝑦(𝑥) = 𝑐1 ∙ 𝑒 𝑟∙𝑥 + 𝑐2 ∙ 𝑥 ∙ 𝑒 𝑟∙𝑥

• Caso 3: 𝑏 2 − 4 ∙ 𝑎 ∙ 𝑐 < 0

Cuando se cumple esto, vamos a buscar las raíces, las cuales nos van a dar números complejos.
Las raíces van a ser:

𝑟1 = 𝛼 + 𝑖 ∙ 𝛽

𝑟2 = 𝛼 − 𝑖 ∙ 𝛽

Siendo:

𝑏
𝛼=−
2∙𝑎

√4 ∙ 𝑎 ∙ 𝑐 − 𝑏 2
𝛽=
2∙𝑎
Entonces tenemos dos soluciones complejas:

𝑧1 (𝑥) = 𝑒 (𝛼+𝑖∙𝛽)∙𝑥

𝑧2 (𝑥) = 𝑒 (𝛼−𝑖∙𝛽)∙𝑥

Si aplicamos la ecuación de Euler:

𝑧1 (𝑥) = 𝑒 𝛼∙𝑥 ∙ 𝑒 𝑖∙𝛽∙𝑥 = 𝑒 𝛼∙𝑥 ∙ (cos(𝛽 ∙ 𝑥) + 𝑖 ∙ sin(𝛽 ∙ 𝑥))

𝑧2 (𝑥) = 𝑒 𝛼∙𝑥 ∙ 𝑒 −𝑖∙𝛽∙𝑥 = 𝑒 𝛼∙𝑥 ∙ (cos(𝛽 ∙ 𝑥) − 𝑖 ∙ sin(𝛽 ∙ 𝑥))

Pero nosotros queremos soluciones reales, entonces aplicamos el principio de superposición


y tomamos combinaciones lineales tales que se nos elimine la parte imaginaria de las
soluciones complejas. Entonces:
1 1
𝑦1 (𝑥) = ∙ 𝑧1 (𝑥) + ∙ 𝑧2 (𝑥) = 𝑒 𝛼∙𝑥 ∙ cos(𝛽 ∙ 𝑥)
2 2
𝑖 𝑖
𝑦2 (𝑥) = − ∙ 𝑧1 (𝑥) + ∙ 𝑧2 (𝑥) = 𝑒 𝛼∙𝑥 ∙ sin(𝛽 ∙ 𝑥)
2 2
Ahora tenemos que asegurarnos que estas soluciones encontradas sean soluciones de la ED.
Entonces la primera solución derivada es:

𝑦1 (𝑥) = 𝑒 𝛼∙𝑥 ∙ cos(𝛽 ∙ 𝑥)

𝑦1′ (𝑥) = 𝛼 ∙ 𝑒 𝛼∙𝑥 ∙ cos(𝛽 ∙ 𝑥) − 𝛽 ∙ 𝑒 𝛼∙𝑥 ∙ sin(𝛽 ∙ 𝑥)


𝑦1′′ (𝑥) = 𝛼 2 ∙ 𝑒 𝛼∙𝑥 ∙ cos(𝛽 ∙ 𝑥) − 𝛼 ∙ 𝛽 ∙ 𝑒 𝛼∙𝑥 ∙ sin(𝛽 ∙ 𝑥) − 𝛼 ∙ 𝛽 ∙ 𝑒 𝛼∙𝑥 ∙ sin(𝛽 ∙ 𝑥) − 𝛽 2 ∙ 𝑒 𝛼∙𝑥
∙ cos(𝛽 ∙ 𝑥)

Si reagrupamos:

𝑦1′ (𝑥) = 𝑒 𝛼∙𝑥 ∙ (𝛼 ∙ cos(𝛽 ∙ 𝑥) − 𝛽 ∙ sin(𝛽 ∙ 𝑥))

𝑦1′′ (𝑥) = 𝑒 𝛼∙𝑥 ∙ cos(𝛽 ∙ 𝑥) ∙ (𝛼 2 − 𝛽 2 ) − 2 ∙ 𝛼 ∙ 𝛽 ∙ 𝑒 𝛼∙𝑥 ∙ sin(𝛽 ∙ 𝑥)

Reemplazamos en la ecuación:

𝑎 ∙ 𝑦1′′ (𝑥) + 𝑏 ∙ 𝑦1′ (𝑥) + 𝑐 ∙ 𝑦1 (𝑥) = 0

𝑎(𝑒 𝛼𝑥 cos(𝛽𝑥) (𝛼 2 − 𝛽 2 ) − 2𝛼𝛽𝑒 𝛼𝑥 sin(𝛽𝑥)) + 𝑏𝑒 𝛼𝑥 (𝛼 cos(𝛽𝑥) − 𝛽 sin(𝛽𝑥))


+ 𝑐𝑒 𝛼𝑥 cos(𝛽𝑥) = 0

Reagrupamos:

𝑒 𝛼𝑥 (𝑎(cos(𝛽𝑥) (𝛼 2 − 𝛽 2 ) − 2𝛼𝛽 sin(𝛽𝑥)) + 𝑏(𝛼 cos(𝛽𝑥) − 𝛽 sin(𝛽𝑥)) + 𝑐 cos(𝛽𝑥)) = 0

𝑒 𝛼𝑥 (cos(𝛽𝑥) (𝑎(𝛼 2 − 𝛽 2 ) + 𝑏𝛼 + 𝑐) + sin(𝛽𝑥) (−2𝑎𝛼𝛽 − 𝛽𝑏)) = 0

Como 𝑒 𝛼𝑥 nunca se anula, solo nos fijamos en lo de adentro y reemplazamos por los valores
que teníamos de 𝛼 y 𝛽:

𝑏2 4𝑎𝑐 − 𝑏 2 𝑏2 𝑏
cos(𝛽𝑥) (𝑎 ( 2
− 2 ) − + 𝑐) + sin(𝛽𝑥) (2𝑎 𝛽 − 𝛽𝑏) = 0
4𝑎 4𝑎 2𝑎 2𝑎

𝑏 2 − 4𝑎𝑐 + 𝑏 2 𝑏2
cos(𝛽𝑥) (( )− + 𝑐) + sin(𝛽𝑥) (𝛽𝑏 − 𝛽𝑏) = 0
4𝑎 2𝑎

𝑏 2 4𝑎𝑐 𝑏 2
cos(𝛽𝑥) ( − − + 𝑐) + sin(𝛽𝑥) (0) = 0
2𝑎 4𝑎 2𝑎

cos(𝛽𝑥) (−𝑐 + 𝑐) = 0

Y concluimos con la primer solución. Ahora seguimos con la segunda:

𝑦2 (𝑥) = 𝑒 𝛼∙𝑥 ∙ sin(𝛽 ∙ 𝑥)

𝑦2′ (𝑥) = 𝛼 ∙ 𝑒 𝛼∙𝑥 ∙ sin(𝛽 ∙ 𝑥) + 𝛽 ∙ 𝑒 𝛼∙𝑥 ∙ cos(𝛽 ∙ 𝑥)

𝑦2′′ (𝑥) = 𝛼 2 ∙ 𝑒 𝛼∙𝑥 ∙ sin(𝛽 ∙ 𝑥) + 𝛼 ∙ 𝛽 ∙ 𝑒 𝛼∙𝑥 ∙ cos(𝛽 ∙ 𝑥) + 𝛼 ∙ 𝛽 ∙ 𝑒 𝛼∙𝑥 ∙ cos(𝛽 ∙ 𝑥) − 𝛽 2 ∙ 𝑒 𝛼∙𝑥


∙ sin(𝛽 ∙ 𝑥)

Reagrupamos:

𝑦2′ (𝑥) = 𝑒 𝛼∙𝑥 ∙ (𝛼 ∙ sin(𝛽 ∙ 𝑥) + 𝛽 ∙ cos(𝛽 ∙ 𝑥))

𝑦2′′ (𝑥) = 𝑒 𝛼∙𝑥 ∙ sin(𝛽 ∙ 𝑥) ∙ (𝛼 2 − 𝛽 2 ) + 2 ∙ 𝛼 ∙ 𝛽 ∙ 𝑒 𝛼∙𝑥 ∙ cos(𝛽 ∙ 𝑥)

Reemplazamos:

𝑎 ∙ 𝑦2′′ (𝑥) + 𝑏 ∙ 𝑦2′ (𝑥) + 𝑐 ∙ 𝑦2 (𝑥) = 0


𝑎(𝑒 𝛼𝑥 sin(𝛽𝑥) (𝛼 2 − 𝛽 2 ) + 2𝛼𝛽𝑒 𝛼𝑥 cos(𝛽𝑥)) + 𝑏𝑒 𝛼𝑥 (𝛼 sin(𝛽𝑥) + 𝛽 cos(𝛽𝑥))
+ 𝑐𝑒 𝛼𝑥 sin(𝛽𝑥) = 0

Reagrupamos:

𝑒 𝛼𝑥 (𝑎(sin(𝛽𝑥) (𝛼 2 − 𝛽 2 ) + 2𝛼𝛽 cos(𝛽𝑥)) + 𝑏(𝛼 sin(𝛽𝑥) + 𝛽 cos(𝛽𝑥)) + 𝑐 sin(𝛽𝑥)) = 0

𝑒 𝛼𝑥 (sin(𝛽𝑥) (𝑎(𝛼 2 − 𝛽 2 ) + 𝑏𝛼 + 𝑐) + cos(𝛽𝑥) (2𝑎𝛼𝛽 + 𝛽𝑏)) = 0

Y llegamos a una ecuación muy similar que la de la primera solución, lo único que cambia son
los cosenos por los senos y algunos signos, pero se verifica que el resultado será 0 nuevamente,
entonces también será una solución de la ED. Ahora comprobaremos que son linealmente
independiente. Aplicamos el Wronskiano:

𝑒 𝛼∙𝑥 ∙ cos(𝛽 ∙ 𝑥) 𝑒 𝛼∙𝑥 ∙ sin(𝛽 ∙ 𝑥)


𝑊(𝑦1 ,𝑦2 ) (𝑥) = | 𝛼∙𝑥 𝛼∙𝑥 |
𝑒 ∙ (𝛼 ∙ cos(𝛽 ∙ 𝑥) − 𝛽 ∙ sin(𝛽 ∙ 𝑥)) 𝑒 ∙ (𝛼 ∙ sin(𝛽 ∙ 𝑥) + 𝛽 ∙ cos(𝛽 ∙ 𝑥))

𝑊(𝑦1 ,𝑦2 ) (𝑥) = 𝑒 2𝛼𝑥 cos(𝛽𝑥) (𝛼 sin(𝛽𝑥) + 𝛽 cos(𝛽𝑥))


− 𝑒 2𝛼𝑥 sin(𝛽𝑥) (𝛼 cos(𝛽𝑥) − 𝛽 sin(𝛽𝑥))

𝑊(𝑦1 ,𝑦2 ) (𝑥) = 𝑒 2𝛼𝑥 (𝛼 cos(𝛽𝑥) sin(𝛽𝑥) + 𝛽 cos 2(𝛽𝑥) − 𝛼 sin(𝛽𝑥) cos(𝛽𝑥) + 𝛽 sin2 (𝛽𝑥))

𝑊(𝑦1 ,𝑦2 ) (𝑥) = 𝛽𝑒 2𝛼𝑥 (cos2 (𝛽𝑥) + sin2(𝛽𝑥))

𝑊(𝑦1 ,𝑦2 ) (𝑥) = 𝛽𝑒 2𝛼𝑥

Y esto es distinto de 0 para todos los reales, ya que 𝛽 es distinto de 0 y la


exponencial no se anula nunca. Y concluímos con la solución general:

𝑦(𝑥) = 𝑒 𝛼∙𝑥 ∙ (𝑐1 ∙ cos(𝛽 ∙ 𝑥) + 𝑐2 ∙ sin(𝛽 ∙ 𝑥))

Nota:
Si existe otra familia de soluciones y hay otra solución general, entonces no influye en nada con
la solución general que nosotros encontramos. Con expresar una solución general válida, es
suficiente.

Función Complementaria
Teorema de Solución General de ED lineales No
Homogéneas

Entonces comenzamos la demostración para 𝑛 = 2:

𝑎2 (𝑥) ∙ 𝑦 ′′ (𝑥) + 𝑎1 (𝑥) ∙ 𝑦 ′ (𝑥) + 𝑎0 (𝑥) ∙ 𝑦(𝑥) = 𝑔(𝑥)

Donde todas las funciones coeficientes de la ED son continuas en 𝐼 al igual que el término
independiente 𝑔(𝑥). Entonces vamos a elegir una solución cualquiera 𝜙(𝑥) en 𝐼 que va a ser
una solución de la ED no homogénea y 𝑦𝑝 va a ser una solución particular la ED también en 𝐼.
Entonces vamos a hacer una nueva función que va a ser la solución diferencia entre estas dos
soluciones y veremos que van a ser una solución de la ED homogénea asociada. Entonces:

𝑎2 (𝑥) ∙ (𝜙 ′′ − 𝑦𝑝′′ ) + 𝑎1 (𝑥) ∙ (𝜙 ′ − 𝑦𝑝′ ) + 𝑎0 (𝑥) ∙ (𝜙 − 𝑦𝑝 )

𝑎2 (𝑥) ∙ 𝜙 ′′ − 𝑎2 (𝑥) ∙ 𝑦𝑝′′ + 𝑎1 (𝑥) ∙ 𝜙 ′ − 𝑎1 (𝑥) ∙ 𝑦𝑝′ + 𝑎0 (𝑥) ∙ 𝜙 − 𝑎0 (𝑥) ∙ 𝑦𝑝

(𝑎2 (𝑥) ∙ 𝜙 ′′ + 𝑎1 (𝑥) ∙ 𝜙 ′ + 𝑎0 (𝑥) ∙ 𝜙) − (𝑎2 (𝑥) ∙ 𝑦𝑝′′ + 𝑎1 (𝑥) ∙ 𝑦𝑝′ + 𝑎0 (𝑥) ∙ 𝑦𝑝 )

Por hipótesis teníamos que ambas soluciones eran soluciones de la ED no homogénea,


entonces:

(𝑎2 (𝑥) ∙ 𝜙 ′′ + 𝑎1 (𝑥) ∙ 𝜙 ′ + 𝑎0 (𝑥) ∙ 𝜙) − (𝑎2 (𝑥) ∙ 𝑦𝑝′′ + 𝑎1 (𝑥) ∙ 𝑦𝑝′ + 𝑎0 (𝑥) ∙ 𝑦𝑝 )
= 𝑔(𝑥) − 𝑔(𝑥) = 0

Entonces, si tenemos al conjunto fundamental {𝑦1 , 𝑦2 } para la ecuación diferencial homogénea


asociada, entonces tenemos que esta solución diferencia se va a poder expresar como una
combinación lineal entre las soluciones de la familia del conjunto fundamental:

𝜙 − 𝑦𝑝 = 𝑐̅1 ∙ 𝑦1 + 𝑐̅2 ∙ 𝑦2

Si despejamos:

𝜙 = 𝑐̅1 ∙ 𝑦1 + 𝑐̅2 ∙ 𝑦2 + 𝑦𝑝

Como esta combinación lineal es una solución de la ED homogénea asociada:

𝑦𝑐 = 𝑐̅1 ∙ 𝑦1 + 𝑐̅2 ∙ 𝑦2
Entonces tenemos que cualquier solución de la ED no homogénea se puede expresar como:

𝜙 = 𝑦𝑐 + 𝑦𝑝

Principio de Superposición para ED lineales No


Homogéneas

Demostramos para el caso donde 𝑛 = 2 y 𝑘 = 3. Entonces por hipótesis vamos a tener que
𝑦𝑝1 va a ser solución de:

𝑎2 (𝑥) ∙ 𝑦 ′′ (𝑥) + 𝑎1 (𝑥) ∙ 𝑦 ′ (𝑥) + 𝑎0 (𝑥) ∙ 𝑦(𝑥) = 𝑔1 (𝑥)

𝑦𝑝2 va a ser solución de:

𝑎2 (𝑥) ∙ 𝑦 ′′ (𝑥) + 𝑎1 (𝑥) ∙ 𝑦 ′ (𝑥) + 𝑎0 (𝑥) ∙ 𝑦(𝑥) = 𝑔2 (𝑥)

Y 𝑦𝑝3 va a ser solución de:

𝑎2 (𝑥) ∙ 𝑦 ′′ (𝑥) + 𝑎1 (𝑥) ∙ 𝑦 ′ (𝑥) + 𝑎0 (𝑥) ∙ 𝑦(𝑥) = 𝑔3 (𝑥)

Entonces la solución:

𝑦𝑝 = 𝑦𝑝1 + 𝑦𝑝2 + 𝑦𝑝3

Va a ser una solución de:

𝑎2 (𝑥) ∙ 𝑦 ′′ (𝑥) + 𝑎1 (𝑥) ∙ 𝑦 ′ (𝑥) + 𝑎0 (𝑥) ∙ 𝑦(𝑥) = 𝑔1 (𝑥) + 𝑔2 (𝑥) + 𝑔3 (𝑥)

Se comprueba:

𝑎2 (𝑥) ∙ (𝑦𝑝′′1 + 𝑦𝑝′′2 + 𝑦𝑝′′3 ) + 𝑎1 (𝑥) ∙ (𝑦𝑝′ 1 + 𝑦𝑝′ 2 + 𝑦𝑝′ 3 ) + 𝑎0 (𝑥) ∙ (𝑦𝑝1 + 𝑦𝑝2 + 𝑦𝑝3 )

Reagrupamos:

𝑎2 (𝑥) ∙ 𝑦𝑝′′1 + 𝑎2 (𝑥) ∙ 𝑦𝑝′′2 + 𝑎2 (𝑥) ∙ 𝑦𝑝′′3 + 𝑎1 (𝑥) ∙ 𝑦𝑝′ 1 + 𝑎1 (𝑥) ∙ 𝑦𝑝′ 2 + 𝑎1 (𝑥) ∙ 𝑦𝑝′ 3 + 𝑎0 (𝑥)
∙ 𝑦𝑝1 + 𝑎0 (𝑥) ∙ 𝑦𝑝2 + 𝑎0 (𝑥) ∙ 𝑦𝑝3
(𝑎2 (𝑥) ∙ 𝑦𝑝′′1 + 𝑎1 (𝑥) ∙ 𝑦𝑝′ 1 + 𝑎0 (𝑥) ∙ 𝑦𝑝1 ) + (𝑎2 (𝑥) ∙ 𝑦𝑝′′2 + 𝑎1 (𝑥) ∙ 𝑦𝑝′ 2 + 𝑎0 (𝑥) ∙ 𝑦𝑝2 )
+ (𝑎2 (𝑥) ∙ 𝑦𝑝′′3 + 𝑎1 (𝑥) ∙ 𝑦𝑝′ 3 + 𝑎0 (𝑥) ∙ 𝑦𝑝3 )

Por hipótesis tenemos:

𝑔1 (𝑥) + 𝑔2 (𝑥) + 𝑔3 (𝑥)

Y se comprueba el teorema.

Métodos de los Coeficientes Indeterminados


Este método es para resolver ED no homogéneas con funciones componentes constantes.
Entonces para resolver estas, lo primero que haremos será encontrar una solución de la ED
homogénea asociada a esta y luego una solución particular 𝑦𝑝 . Para encontrar esta solución
paticular, vamos a proponer soluciones del tipo:

Nota:
• Si al buscar una solución y evaluarla, nos da 0, entonces necesitamos agregarle un factor
𝑥 a toda la solución y probar. Si vuelve a pasar, entonces lo mismo.

• Si la solución tiene más de uno de estos términos, entonces le buscaremos una solución
particular a cada término y luego involucraremos todas en la solución general.

Método de Variación de Parámetros


Lo que hacemos es desarrollar las derivadas de la solución que se propone y reemplazarla en
la ecuación:

𝑦𝑝 = 𝑢1 𝑦1 + 𝑢2 𝑦2

𝑦𝑝′ = 𝑢1′ 𝑦1 + 𝑢1 𝑦1′ + 𝑢2′ 𝑦2 + 𝑢2 𝑦2′

𝑦𝑝′′ = 𝑢1′′ 𝑦1 + 𝑢1′ 𝑦1′ + 𝑢1′ 𝑦1′ + 𝑢1 𝑦1′′ + 𝑢2′′ 𝑦2 + 𝑢2′ 𝑦2′ + 𝑢2′ 𝑦2′ + 𝑢2 𝑦2′′

Reemplazamos y reagrupamos

𝑎𝑦𝑝′′ + 𝑏𝑦𝑝′ + 𝑐𝑦𝑝 = 𝐺

𝑎(𝑢1′′ 𝑦1 + 𝑢1′ 𝑦1′ + 𝑢1′ 𝑦1′ + 𝑢1 𝑦1′′ + 𝑢2′′ 𝑦2 + 𝑢2′ 𝑦2′ + 𝑢2′ 𝑦2′ + 𝑢2 𝑦2′′ )
+ 𝑏(𝑢1′ 𝑦1 + 𝑢1 𝑦1′ + 𝑢2′ 𝑦2 + 𝑢2 𝑦2′ ) + 𝑐(𝑢1 𝑦1 + 𝑢2 𝑦2 ) = 𝐺
𝑑 ′
𝑢1 (𝑎𝑦1′′ + 𝑏𝑦1′ + 𝑐𝑦1 ) + 𝑢2 (𝑎𝑦2′′ + 𝑏𝑦2′ + 𝑐𝑦2 ) + 𝑎 (𝑢 𝑦 + 𝑢2′ 𝑦2 ) + 𝑏(𝑢1′ 𝑦1 + 𝑢2′ 𝑦2 )
𝑑𝑥 1 1
+ 𝑎(𝑢1′ 𝑦1′ + 𝑢2′ 𝑦2′ ) = 𝐺

Los primeros dos términos se puede ver que dan iguales a 0, ya que son soluciones de la
función complementaria de la ED. Ahora supondremos que:

𝑢1′ 𝑦1 + 𝑢2′ 𝑦2 = 0

Entonces nos queda:

𝑎(𝑢1′ 𝑦1′ + 𝑢2′ 𝑦2′ ) = 𝐺


𝐺
𝑢1′ 𝑦1′ + 𝑢2′ 𝑦2′ =
𝑎
Entonces con estas dos gualdades, podemos hacer un sistema de ecuaciones para poder
resolver este método:

𝑢1′ 𝑦1 + 𝑢2′ 𝑦2 = 0
{ ′ ′ 𝐺
𝑢1 𝑦1 + 𝑢2′ 𝑦2′ =
𝑎
Al resolver este sistema de ecuaciones, llegamos a los resultados de las derivadas de los
coeficientes que necesitamos. Ahora solo anti derivamos y podemos expresar nuestra solución
general en un intervalo 𝐼:

𝑦 = 𝑐1 𝑦1 + 𝑐2 𝑦2 + 𝑢1 𝑦1 + 𝑢2 𝑦2

Nota:

• Este método no tiene restricciones de orden de la ecuación diferencial ni del término


independiente.
• Cuando anti derivemos nuestras soluciones del sistema tenemos que colocar la constante,
pero esta también se absorbe por la otra constante de la solución de la función
complementaria.
Ecuaciones del Movimiento Libre No Amortiguado
La ecuación del MAS es:

𝑚𝑦 ′′ + 𝑘𝑦 = 0

Resolvemos y tenemos raíces imaginarias ya que ambos coeficientes son positivos. Entonces
la solución del sistema es:

𝑦 = 𝑐1 cos(𝜔𝑡) + 𝑐2 sin(𝜔𝑡)

Donde:

𝑘
ω=√
𝑚

Pero a la solución también podemos escribirla como:

𝑦 = 𝐴 sin(𝜔𝑡 + 𝜙)

Si desarrollamos le seno de la suma tenemos:

𝑦 = 𝐴 sin(𝜙) cos(𝜔𝑡) + 𝐴 cos(𝜙) sin(𝜔𝑡)

Entonces podríamos tener estas igualdades:

𝑐1 = 𝐴 sin(𝜙)

𝑐2 = 𝐴 cos(𝜙)

Para poder despejar 𝐴 podemos elevar al cuadrado ambas igualdades y sumarlas, entonces:

𝑐12 + 𝑐22 = 𝐴2 sin2(𝜙) + 𝐴2 cos 2(𝜙)

𝑐12 + 𝑐22 = 𝐴2

√𝑐12 + 𝑐22 = 𝐴

Y si dividimos las igualdades anteriores podemos sacar el desfasaje:

𝑐1 𝐴 sin(𝜙)
=
𝑐2 𝐴 cos(𝜙)
𝑐1
= tan(𝜙)
𝑐2

Nota:
También podemos sacar la frecuencia natural, que es:
𝜔
𝐹𝑟𝑒𝑐𝑢𝑒𝑐𝑖𝑎 𝑁𝑎𝑡𝑢𝑟𝑎𝑙 =
2𝜋
Ecuaciones del Movimiento Libre Amortiguado
La ecuación del MAS amortiguado es:

𝑚𝑦 ′′ + 𝑏𝑦 ′ + 𝑘𝑦 = 0

En esta ecuación podemos tener 3 casos:

• En sub amortiguado tenemos:

𝑏 2 − 4𝑚𝑘 < 0

O sea que las raíces complejas. La solución general es:

𝑦 = 𝑒 𝛼𝑡 (𝑐1 cos(𝛽𝑡) + 𝑐2 sin(𝛽𝑡))

Pero podemos hacer lo mismo que en el MAS no amortiguado, entonces:

𝑦 = 𝑒 𝛼𝑡 𝐴 sin(𝛽𝑡 + 𝜙)

Vemos en el gráfico que es un movimiento oscilatorio.

• En sobre amortiguado tenemos:

𝑏 2 − 4𝑚𝑘 > 0

O sea que las raíces son reales. Las solución general va a ser:

𝑦 = 𝑐1 𝑒 𝑟1 𝑡 + 𝑐2 𝑒 𝑟2 𝑡

Vemos en el gráfico que no es un movimiento oscilatorio, sino uno exponencial.

• En críticamente amortiguado tenemos:

𝑏 2 − 4𝑚𝑘 = 0

O sea que las raíces son reales e iguales. Las solución general va a ser:
𝑦 = 𝑐1 𝑒 𝑟𝑡 + 𝑐2 𝑡𝑒 𝑟𝑡

Vemos en el gráfico que no es un movimiento oscilatorio, sino uno exponencial.

En este ejemplo, cuando 𝑏 = 12 se ve la línea celeste donde es un movimiento sobre


amortiguado y cuando 𝑏 = 10, un movimiento críticamente amortiguado.

Ecuaciones del Movimiento Forzado


LA ecuación del MAS forzado es:

𝑚𝑦 ′′ + 𝑏𝑦 ′ + 𝑘𝑦 = 𝑓(𝑡)

Dividimos todo por la masa:

𝑦 ′′ + 2𝜆𝑦 ′ + 𝜔2 𝑦 = 𝐹(𝑡)

Cuando tenemos:

𝐹(𝑡) = 𝐹0 sin(𝛾𝑡)

O:

𝐹(𝑡) = 𝐹0 cos(𝛾𝑡)

La solución será:

𝑦𝐺 = 𝑦𝑐 + 𝑦𝑝

Donde 𝑦𝑐 ya sabemos como se encuentra y 𝑦𝑝 también. Si el amortiguamiento está presente


en la ecuación, entonces tenemos que 𝑦𝑐 tiene a 0 cuando 𝑡 tiende a ∞, entonces a esta se le
denomina término transitorio y a 𝑦𝑝 término estable.

Unidad 6 - Series de Fourier


Producto Escalar de Funciones en un Intervalo
Nota:

• Dos funciones pueden ser ortogonales en un intervalo, pero en otro intervalo capaz no son
ortogonales.

• Que sean ortogonales dos funciones, no tiene ninguna relación con los gráficos de estas
funciones.

Familias Ortogonales de Funciones

Tenemos que probar que esta familia de funciones es ortogonal, para eso tenemos que probar
que cada una de estas es ortogonal con las demás. Empezamos evaluando la función 1 con las
demás y lo haremos para el intervalo [0,2𝑝]:
2𝑝
𝑛𝜋𝑥 𝑝 𝑛𝜋𝑥 2𝑝 𝑝
∫ 1 sin ( ) 𝑑𝑥 = (− cos ( )) = − (1 − 1) = 0
0 𝑝 𝑛𝜋 𝑝 0 𝑛𝜋
2𝑝
𝑛𝜋𝑥 𝑝 𝑛𝜋𝑥 2𝑝
∫ 1 cos ( ) 𝑑𝑥 = ( sin ( )) = 0
0 𝑝 𝑛𝜋 𝑝 0

Y probamos que la función es ortogonal a las demás. Ahora tenemos que probar para la función
𝑛𝜋𝑥
sin ( ):
𝑝

2𝑝
𝑛𝜋𝑥 𝑚𝜋𝑥
∫ sin ( ) cos ( ) 𝑑𝑥
0 𝑝 𝑝

Si 𝑚 = 𝑛, entonces podemos aplicar una sustitución e integrar:


𝑛𝜋𝑥
𝑢 = sin ( )
𝑝
𝑝 𝑛𝜋𝑥
𝑑𝑢 = cos ( ) 𝑑𝑥
𝑛𝜋 𝑝
𝑛𝜋 𝑛𝜋𝑥
𝑑𝑢 = cos ( ) 𝑑𝑥
𝑝 𝑝
0
𝑛𝜋
∫ 𝑢 𝑑𝑢 = 0
0 𝑝

Son ortogonales. Si 𝑚 ≠ 𝑛, entonces podemos aplicar la sustitución trigonométrica de:


1
sin(𝛼) cos(𝛽) = (sin(𝛼 + 𝛽) + sin(𝛼 − 𝛽))
2
Entonces:
2𝑝
1 𝑛𝜋𝑥 𝑚𝜋𝑥 𝑛𝜋𝑥 𝑚𝜋𝑥
∫ (sin ( + ) + sin ( − )) 𝑑𝑥
0 2 𝑝 𝑝 𝑝 𝑝
2𝑝 (𝑛 + 𝑚)𝜋𝑥 (𝑛 − 𝑚)𝜋𝑥
1
∫ (sin ( ) + sin ( )) 𝑑𝑥
0 2 𝑝 𝑝
2𝑝 (𝑛 + 𝑚)𝜋𝑥 2𝑝 (𝑛 − 𝑚)𝜋𝑥
1 1
∫ sin ( ) 𝑑𝑥 + ∫ sin ( ) 𝑑𝑥
0 2 𝑝 0 2 𝑝
2𝑝 2𝑝
1 𝑝 (𝑛 + 𝑚)𝜋𝑥 1 𝑝 (𝑛 − 𝑚)𝜋𝑥
(− cos ( )) + (− cos ( ))
2 (𝑛 + 𝑚)𝜋 𝑝 2 (𝑛 − 𝑚)𝜋 𝑝
0 0

1 𝑝 1 𝑝
(− ) (1 − 1) + (− ) (1 − 1)
2 (𝑛 + 𝑚)𝜋 2 (𝑛 − 𝑚)𝜋

=0

Y concluimos que son ortogonales. Ahora solo queda probar que estas son ortogonales con las
mismas funciones evaluadas con 𝑚 ≠ 𝑛. Entonces:
2𝑝
𝑛𝜋𝑥 𝑚𝜋𝑥
∫ sin ( ) sin ( ) 𝑑𝑥
0 𝑝 𝑝

Para esto utilizamos la sustitución:


1
sin(𝛼) sin(𝛽) = (cos(𝛼 − 𝛽) − cos(𝛼 + 𝛽))
2
Entonces:
2𝑝
1 𝑛𝜋𝑥 𝑚𝜋𝑥 𝑛𝜋𝑥 𝑚𝜋𝑥
∫ (cos ( − ) − cos ( + )) 𝑑𝑥
0 2 𝑝 𝑝 𝑝 𝑝
2𝑝 (𝑛 − 𝑚)𝜋𝑥 2𝑝 (𝑛 + 𝑚)𝜋𝑥
1 1
∫ cos ( ) 𝑑𝑥 − ∫ cos ( ) 𝑑𝑥
0 2 𝑝 0 2 𝑝
2𝑝 2𝑝
1 𝑝 (𝑛 − 𝑚)𝜋𝑥 1 𝑝 (𝑛 + 𝑚)𝜋𝑥
( sin ( )) − ( sin ( ))
2 (𝑛 − 𝑚)𝜋 𝑝 0
2 (𝑛 + 𝑚)𝜋 𝑝 0

=0

Entonces estas funciones son ortogonales. Ahora con:


2𝑝
𝑛𝜋𝑥 𝑚𝜋𝑥
∫ cos ( ) cos ( ) 𝑑𝑥
0 𝑝 𝑝

Utilizamos:
1
cos(𝛼) cos(𝛽) = (cos(𝛼 + 𝛽) + cos(𝛼 − 𝛽))
2
Entonces:
2𝑝
1 𝑛𝜋𝑥 𝑚𝜋𝑥 𝑛𝜋𝑥 𝑚𝜋𝑥
∫ (cos ( + ) + cos ( − )) 𝑑𝑥
0 2 𝑝 𝑝 𝑝 𝑝
2𝑝 (𝑛 + 𝑚)𝜋𝑥 2𝑝 (𝑛 − 𝑚)𝜋𝑥
1 1
∫ cos ( ) 𝑑𝑥 + ∫ cos ( ) 𝑑𝑥
0 2 𝑝 0 2 𝑝
2𝑝 2𝑝
1 𝑝 (𝑛 + 𝑚)𝜋𝑥 1 𝑝 (𝑛 − 𝑚)𝜋𝑥
( sin ( )) + ( sin ( ))
2 (𝑛 + 𝑚)𝜋 𝑝 0
2 (𝑛 − 𝑚)𝜋 𝑝 0

=0

Y concluimos que la familia de funciones es una familia es ortogonal.

Nota:
• Esta familia se la denomina sistema trigonométrico.

• La función 1 también es periódica, y todos los números reales son sus periodos, excepto el
0.

Familias Ortogonales Completas

Nota:
El sistema trigonométrico definido antes es una familia completa, pero una familia como:
𝑛𝜋𝑥
{1, cos ( ) , 𝑛 = 1,2,3, … }
𝑝
𝑛𝜋𝑥
Es una familia ortogonal, pero no completa, ya que conocemos una función 𝑠𝑖𝑛 ( 𝑝
) que es
ortogonal a cada una de las funciones de la familia.

Serie de Fourier
La serie de Fourier se crea a partir del sistema trigonométrico que hemos encontrado.
Entonces suponemos que podemos expresar a una función periódica como:

1𝜋𝑥 1𝜋𝑥 2𝜋𝑥 2𝜋𝑥


𝑓(𝑥) = 𝑐0 + 𝑎1 cos ( ) + 𝑏1 sin ( ) + 𝑎2 cos ( ) + 𝑏2 sin ( )+⋯
𝑝 𝑝 𝑝 𝑝

Lo que hacemos ahora es multiplicar a todos los términos por 1 e integrarlos. Como tenemos
𝑛𝜋𝑥 𝑛𝜋𝑥
que la función contante 1 es ortogonal con las funciones cos ( ) y sin ( ) en [−𝑝, 𝑝],
𝑝 𝑝
entonces desaparecen todas las integrales y nos quedamos con:
𝑝 𝑝
∫ 𝑓(𝑥) 𝑑𝑥 = ∫ 𝑐0 𝑑𝑥
−𝑝 −𝑝
𝑝
∫ 𝑓(𝑥) 𝑑𝑥 = 2𝑝𝑐0
−𝑝

1 𝑝
∫ 𝑓(𝑥) 𝑑𝑥 = 𝑐0
2𝑝 −𝑝

Y encontramos como sacar el primer coeficiente. Luego hacemos un procedimiento similar con
1𝜋𝑥
las demás funciones de la familia. Multiplicamos a ambos lados por cos ( 𝑝
) e integramos. Se
nos anularán todas las integrales de la derecha de la igualdad y solo nos quedaremos con una:
𝑝 𝑝
1𝜋𝑥 1𝜋𝑥
∫ 𝑓(𝑥) cos ( ) 𝑑𝑥 = ∫ 𝑎1 cos 2 ( ) 𝑑𝑥
−𝑝 𝑝 −𝑝 𝑝
𝑝
1𝜋𝑥
∫ 𝑓(𝑥) cos ( ) 𝑑𝑥 = 𝑝𝑎1
−𝑝 𝑝

1 𝑝 1𝜋𝑥
∫ 𝑓(𝑥) cos ( ) 𝑑𝑥 = 𝑎1
𝑝 −𝑝 𝑝

Y encontramos el segundo término. Pero como hemos elegido 𝑛 = 1, podemos hacer este
procedimiento con todo 𝑛, entonces:

1 𝑝 𝑛𝜋𝑥
∫ 𝑓(𝑥) cos ( ) 𝑑𝑥 = 𝑎𝑛
𝑝 −𝑝 𝑝
𝑛𝜋𝑥
Similarmente hacemos lo mismo para sin ( 𝑝
):

1 𝑝 𝑛𝜋𝑥
∫ 𝑓(𝑥) sin ( ) 𝑑𝑥 = 𝑏𝑛
𝑝 −𝑝 𝑝

Y hemos encontrado todos los términos de lo que llamaremos serie de Fourier. Entonces si
tenemos una función definida en [−𝑝, 𝑝], podemos obtener que:

𝑛𝜋𝑥 𝑛𝜋𝑥
𝑓(𝑥)~𝑐0 + ∑ (𝑎𝑛 cos ( ) + 𝑏𝑛 sin ( ))
𝑝 𝑝
𝑛=1

No se pone el igual porque se dice que esta serie genera a 𝑓.

Nota:
Se ha mostrado con [−𝑝, 𝑝], pero también funciona para [0,2𝑝].

Convergencia de las Series de Fourier


Nota:

• Si 𝑓 es continua en un punto 𝑥 donde está definida, entonces la serie de Fourier converge a


𝑓 evaluada en ese punto.

• Como esta serie está definida para todos los ℝ, entonces en las discontinuidades de la
función, la serie convergerá al promedio de las derivadas laterales.

• Para los extremos de los intervalos, la serie convergerá a:

𝑓(−𝑝 +) + 𝑓(𝑝 −)
2

Funciones Periódicas

Funciones Pares e Impares

Serie de Cosenos
Serie de Senos

Extensiones Pares e Impares

También podría gustarte