Está en la página 1de 237

Facultad de Ingenierı́a

UNLP

Matemática C

Módulo II

VI Transformaciones Lineales

2020
2020

2019
2

Temario:
1. Clase 1: Introducción. Definición. Ejemplos básicos. Proyección. Reflexión. Rotación.
Casos especiales. Imagen y espacio nulo de una transformación lineal. Propiedades
fundamentales. Isomorfismos.

2. Clase 2: Representación matricial. Ejemplos. Diferentes representaciones de acuerdo


a las bases consideradas (cambio de base). Representación matricial y caracterı́sticas
de la transformación. Matrices Semejantes. Propiedades. Composición de transfor-
maciones lineales. Ejemplos. Aplicaciones.
6.1. INTRODUCCIÓN 3

6.1. Introducción
Estudiaremos aquı́ una clase de funciones denominadas transformaciones lineales,
que transforman un vector v de un espacio vectorial V en otro vector w de un espacio
vectorial W , cumpliendo con ciertas condiciones. Es decir, son casos especiales de funciones
F : V → W entre dos espacios vectoriales. Se las puede puede pensar como funciones de
“una sola variable”, donde el argumento de la función es un vector del espacio vectorial
V , y el “valor” de la función es un vector del espacio vectorial W .
Si V = W , de modo que transforma un vector v de V en otro vector w del mismo
espacio V , la transformación lineal se denomina usualmente operador lineal.
Usaremos la notación L : V −→ W para describir una transformación lineal:
L (v) = w, v ∈V, w ∈W
Veremos que una transformación lineal L de un espacio vectorial n-dimensional V en
otro espacio vectorial m-dimensional W podrá representarse por una matriz A de m × n.
Esto permitirá trabajar con la matriz A para discutir las caracterı́sticas y propiedades de
la transformación L, como ası́ también, en ciertos casos, determinar las propiedades de la
matriz A a partir de las propiedades de la transformación lineal que representa.

6.1.1. Definición general

Definición.
Una función L : V −→ W de un espacio vectorial V en otro espacio vectorial W (ambos
sobre el mismo conjunto de escalares) es una transformación lineal si satisface

L (αv1 + βv2 ) = αL (v1 ) + βL (v2 )

para todo par de vectores v1 y v2 de V y todo par de escalares α, β. Es decir,

L (v1 + v2 ) = L (v1 ) + L (v2 ) para todo v1 y v2 en V


L (αv) = αL (v) para todo v en V y α escalar

En particular, para α = 0 la última ecuación implica que toda transformación lineal


L : V −→ W satisface
L(0V ) = 0W
con 0V y 0W los vectores nulos de V y W , ya que L(0V ) = L(0v) = 0L(v) = 0W .

V W

x LHxL

Αx+Βy ΑLHxL+ ΒLHyL

L:V™W
4

Ejemplos 6.1.1: Transformaciones lineales de <2 en <2


Comenzaremos con algunos ejemplos básicos:

1. Transformación de dilatación (escalamiento):


 
x1
Si x = x1 e1 + x2 e2 = es un vector de R2 , definimos, como primer ejemplo,
x2
 
3x1
L (x) = 3x =
3x2

L es una transformación lineal, ya que

L (αx) = 3 (αx) = α (3x) = αL (x)


L (x + y) = 3 (x + y) = 3x + 3y = L (x) + L (y)

verificándose que L(0) = 0. Geométricamente, L tiene el efecto de “dilatar” el vector


x, multiplicando su longitud por un factor 3 y conservando su dirección y sentido:
x2

LHxL = 3x

x
x1

Podemos expresar L(x) en forma matricial como (verificar!)


  
3 0 x1
L(x) =
0 3 x2

2. Proyección ortogonal sobre el eje x1 :


Definimos ahora  
x1
L (x) = x1 e1 =
0
     
x1 y1 αx1 + βy1
Si x = ,y= , entonces αx + βy = . Luego
x2 y2 αx2 + βy2

L (αx + βy) = (αx1 + βy1 ) e1 = α (x1 e1 ) + β (y1 e1 )


= αL (x) + βL (y)

lo que prueba que L es una transformación lineal.


Geométricamente, L (x) es la proyección del vector x sobre el eje x1
6.1. INTRODUCCIÓN 5

x2

x1
LHxL = x1e1

Podemos expresar L(x) en forma matricial como (verificar!)


  
1 0 x1
L(x) =
0 0 x2

3. Reflexión respecto del eje x1 :


Definimos  
x1
L (x) = x1 e1 − x2 e2 =
−x2
Esta tranformación satisface
 
αx1 + βy1
L (αx + βy) =
− (αx2 + βy2 )
   
x1 y1
= α +β
−x2 −y2
= αL (x) + βL (y)
⇒ L es un operador lineal.
Geométricamente, L (x) es la reflexión del vector x respecto (o a través) del eje x1 .

x2

x1

LHxL

Podemos expresar L(x) en forma matricial como (verificar)


  
1 0 x1
L(x) =
0 −1 x2
6

4. Rotación de ángulo π/2 antihorario:


 
x1
Si x = x1 e1 + x2 e2 = definimos
x2
 
−x2
L (x) = −x2 e1 + x1 e2 =
x1

Vemos que cumple


     
− (αx2 + βy2 ) −x2 −y2
L (αx + βy) = =α +β
αx1 + βy1 x1 y1
= αL (x) + βL (y)

⇒ L es una transformación lineal.


Geométricamente, L (x) representa la rotación de ángulo θ = π/2 (en sentido anti-
horario) del vector x:

x2

LHxL

А2 x

x1

Podemos expresar L(x) en forma matricial como (verificar)


  
0 −1 x1
L(x) =
1 0 x2

5. Transformación de escalamiento general


En general, el operador Lc definido por
 
cx1
Lc (x) = cx =
cx2

con c un escalar fijo, es una transformación lineal, como podrá el lector probar
fácilmente.
Si c > 0, Lc tiene el efecto de multiplicar la longitud del vector x por el factor de
escala c, dilatando el vector un factor c si c > 1 y contrayendo el vector un factor c
si 0 < c < 1, pero siempre conservando su dirección y sentido.
6.1. INTRODUCCIÓN 7

Si c = 1, la transformación resultante

L1 (x) = x

se denomina operador identidad y se la denota como I: I(x) = x ∀ x ∈ V .


I no modifica ningún vector.
Si c = 0, la transformación resultante

L0 (x) = 0

se denomina operador nulo. Envı́a a todos los vectores de V al vector nulo 0 ≡ 0V .


Si c < 0, Lc tendrá el efecto de invertir el sentido del vector, dilatándolo si c < −1,
contrayéndolo si −1 < c < 0 y conservando su longitud si c = −1, en cuyo caso
coincide con el operador de inversión.
Podemos expresar Lc (x) en forma matricial como
  
c 0 x1
L(x) =
0 c x2

6. Inversión:
Corresponde a  
−x1
L (x) = −x =
−x2
La linealidad de L es inmediata:
     
− (αx1 + βy1 ) −x1 −y1
L (αx + βy) = =α +β
− (αx2 + βy2 ) −x2 −y2
= αL (x) + βL (y)

Geométricamente, L (x) es el vector opuesto a x.

x2

x1

LHxL = -x

Podemos expresar L(x) en forma matricial como


  
−1 0 x1
L(x) =
0 −1 x2

Observar que el operador de inversión puede obtenerse como caso particular de otras
transformaciones. Por ejemplo,
8

1. La transformación de escala con c = −1

2. Una rotación de ángulo π (en sentido anti-horario o sentido horario)

Esta última puede también lograrse mediante dos rotaciones sucesivas de ángulo π/2 (por
ejemplo, ambas en sentido antihorario): Si R rota al vector x en π/2 antihorario, entonces
   
−x2 −x1
R (R (x)) = R = = −x
x1 −x2

Si definimos el cuadrado L2 de un operador L (transformación de V en V ) mediante

L2 (x) ≡ L (L (x))

entonces el operador de inversión L puede expresarse en términos del operador de rotación


previo como
L = R2
Ejemplos de transformaciones no lineales:

1. Si  
−x1 x2
F (x) = −x1 x2 e1 + x2 e2 =
x2
obtenemos
 
αx1 x2
F (αx) = − (αx1 ) (αx2 ) e1 + (αx2 ) e2 = α
x2
6= αF (x) (excepto para α = 0 o 1 o x1 x2 = 0)

⇒ F no es una transformación lineal.

2. Traslación:
La traslación Ta suma a todo vectir x un vector fijo a:

Ta (x) = x + a

Si a 6= 0, Ta no es una transformación lineal, ya que por ejemplo, Ta (0) = a 6= 0 y


Ta (x1 + x2 ) = a + x1 + x2 6= Ta (x1 ) + Ta (x2 ).
Ası́, no podrá representarse directamente mediante una matriz aplicada a x.

Problemas 6.1.1

1. (i) Definir la proyección ortogonal en R3 sobre el plano-xy y mostrar que es una


transformación lineal. Graficar.
(ii) Definir la proyección ortogonal en R3 sobre el eje x y mostrar que es una trans-
formación lineal. Graficar.
(iii) ¿Qué es la proyección al origen? ¿ Puede considerarse una transformación lineal?
6.1. INTRODUCCIÓN 9

2. Considerar la transformación L : R2 −→ R2 dada por


   
x x/2
L =
y y/3

i) Verificar que es lineal. Expresarla en la forma matricial L(x) = Ax.


ii) Hallar las imágenes L(v) de los vectores (10 ), (01 ), (11 )
iii) Dar una interpretación geométrica de L.
iv) La imagen por L de un conjunto de vectores C se define como
L(C) = {L(v), v ∈ C}. Probar que la imagen L(C) bajo esta aplicación de la elipse
  
x 2 2
C= | (x /4) + (y /9) = 1
y

es una circunferencia de radio 1.

Ejemplos de Transformaciones de Rn en Rm
 
x1
1. Sea x = y L : R2 −→ R1 , definida por
x2

L (x) = x1 + x2

L es una transformación lineal, ya que

L (αx + βy) = (αx1 + βy1 ) + (αx2 + βy2 )


= α (x1 + x2 ) + β (y1 + y2 ) = αL (x) + βL (y)

L asocia a cada vector x ∈ R2 un escalar


 dado por x1 + x2 . Puede ser expresada en
 x1
forma matricial como L(x) = 1 1 .
x2
 
x2
2. Sea L : R2 −→ R3 definida por L (x) = x1 
x1 + x2
Se verifica fácilmente que L es lineal (probar!) y que puede ser escrita también como
 
0 1  
x
L(x) = 1 0 1
x2
1 1

6.1.2. Ejemplos de transformaciones lineales en otros espacios


1. Dado un espacio vectorial V arbitrario, el operador identidad I : V −→ V se define
por
I (v) = v para todo v ∈ V
Es, obviamente, una transformación lineal (verificar!).
Notar que no existe I : V −→ W si W = 6 V , aun si V y W tienen la misma
dimensión.
10

2. La transformación nula 0 : V −→ W se define por

0 (v) = 0W para todo v ∈ V

Es, obviamente, una transformación lineal (verificar!), que generaliza el operador


nulo L0 visto anteriormente.
3. Transformación definida por una matriz A.
Dada una matriz A de m × n, se puede definir una transformación lineal asociada
L : Rn −→ Rm dada por
L (x) = A x
Es fácil ver que L cumple las propiedades de linealidad:

L (αx + βy) = A (αx + βy)


= αAx + βAy
= αL (x) + βL (y)

Por lo tanto, cualquier matriz A de m × n puede verse como asociada a una trans-
formación lineal L : Rn −→ Rm . Más aun, veremos luego que toda transformación
lineal L : Rn −→ Rm es de la forma anterior (para alguna matriz A de m × n).
4. Sea L : C[a,b] −→ R1 definida por
Z b
L (f ) = f (x) dx
a

L es oviamente una transformación lineal, ya que si f y g son dos vectores cuales-


quiera de C[a,b] , entonces
Z b
L (αf + βg) = (αf + βg) (x) dx
a
Z b Z b
= α f (x) dx + β g (x) dx
a a
= αL (f ) + βL (g)

A diferencia de las anteriores, esta transformación lineal, cuyo dominio es un espacio


vectorial de dimensión infinita, no puede representarse mediante una matriz.
5. Sea D : C ∞ −→ C ∞ el operador derivada en el espacio C ∞ de funciones reales
f : R −→ R derivables a todo orden, definida por

D(f ) = f 0

es decir, D(f )(x) = f 0 (x). Se la suele denotar directamente como D = d


dx
.
D es obviamente un operador lineal, ya que si f y g ∈ C ∞ ,

D(αf + βq) = (αf + βg)0 = αf 0 + βg 0 = αD(f ) + βD(g)


d2
Nótese que D2 es el operador derivada segunda dx2
:

D2 (f ) = D(D(f )) = D(f 0 ) = f 00
6.2. IMAGEN Y NÚCLEO DE UNA TRANSFORMACIÓN LINEAL 11

Dado que C ∞ tiene dimensión infinita, D no puede representarse mediante una


matriz (pero si se restringe el dominio a un subespacio de C ∞ de dimensión finita, tal
como el espacio Pn de polinomios de grado ≤ n, D sı́ podrá representarse mediante
una matriz, como veremos luego).

Importante: Si L : V → W es una transformación lineal, se cumplen siempre las si-


guientes reglas o propiedades:

1. L (0V ) = 0W

2. Si v1 , . . . , vn ∈ V , entonces

L (α1 v1 + · · · + αn vn ) = α1 L (v1 ) + · · · + αn L (vn )

3.
L (−v) = −L (v) ∀ v ∈ V

Se dejan las demostraciones para el lector.

Problema 6.1.2
1. Sea L : V −→ W una transformación lineal y sean w1 = L(v1 ), . . . , wk = L(vk ) las
imágenes de k vectores v1 , . . . , vk de V .
a) Mostrar que si el conjunto de los vectores {v1 , . . . , vk } es linealmente dependiente
⇒ {w1 , . . . , wk } es linealmente dependiente.
b) Mostrar que si {v1 , . . . , vk } es linealmente independiente ⇒ el conjunto {w1 , . . . , wk }
no es necesariamente independiente. Dar un ejemplo (considere proyecciones orto-
gonales sobre un cierto eje o la transformación nula).

6.2. Imagen y núcleo de una transformación lineal


Sea L : V −→ W una transformación lineal
1. Núcleo de L: es el conjunto de vectores v de V que son transformados o enviados
al vector nulo 0W de W . Es decir,
Nu (L) = {v ∈ V : L (v) = 0W }

2. Imagen de un subespacio S de V : es el conjunto de vectores w de W que son


imagen por L de vectores v de S, es decir,
L (S) = {w ∈ W : w = L (v) para algún v ∈ S} = {L(v), v ∈ S}

3. Imagen de L: Es la imagen L (V ) de todo el espacio vectorial V :


Im(L) = L(V ) = {L(v), v ∈ V } ⊂ W

Notar que la imagen por L del Nu(L) es el vector nulo 0W de W : L(Nu(L)) = {0W }.
Cada uno de estos conjuntos de vectores es un subespacio en los respectivos
espacios vectoriales:
12

V W V W

NuHLL S LHSL
0V 0W 0V 0W

L:V™W L:V™W

Teorema.
Si L : V −→ W es una transformación lineal, entonces

1. Nu (L) es un subespacio de V

2. Si S es un subespacio de V , L (S) es un subespacio de W . Esto implica en particular


que la imagen Im(L) = L(V ) es un subespacio de W .

3. Si V es de dimensión finita, la suma de la dimensión de la imagen Im(L) y la


dimensión del núcleo Nu(L) es la dimensión del espacio V :

dim Im (L) + dim Nu (L) = dim V

Demostración de 1. En primer lugar, L(0V ) = 0W , por lo que 0V ∈ Nu(L). Además,


si v1 y v2 ∈ Nu (L),

L (v1 + v2 ) = L (v1 ) + L (v2 ) = 0W + 0W = 0W


L (αv1 ) = αL (v1 ) = 0W

por lo que v1 + v2 y αv1 ∈ Nu (L). El núcleo es pues cerrado por la suma y multiplicación
por un escalar, siendo entonces un subespacio.
Demostración de 2. L(S) contiene al 0W pues L(0V ) = 0W . Además, si w1 y w2 son
vectores en L (S), existen v1 y v2 en S tales que w1 = L(v1 ), w2 = L(v2 ). Entonces

αw1 = αL (v1 ) = L (αv1 ) para v1 ∈ S


w1 + w2 = L (v1 ) + L (v2 ) = L (v1 + v2 ) para v1 y v2 ∈ S

Como S es un subespacio, ambos αv1 y v1 + v2 pertenecen también a S, por lo que


αw1 ∈ L(S) y w1 + w2 ∈ L(S). Luego, L (S) es cerrado por la suma y multiplicación por
un escalar, siendo entonces un subespacio.
Demostración de 3. Partiendo de una base B = {v1 , . . . , vk , vk+1 , . . . , vn } de V tal que
{vk+1 , . . . , vn } es una base de Nu(L) (L(vk+1 ) = . . . = L(vn ) = 0W ), todo v ∈ V puede
escribirse como v = α1 v1 + . . . + αk vk + αk+1 vk+1 + . . . + αn vn . Entonces,

L(v) = L(α1 v1 + . . . + αk vk + αk+1 vk+1 + . . . + αn vn )


= α1 L(v1 ) + . . . + αk L(vk ) + αk+1 L(vk+1 ) + . . . + αn L(vn )
= α1 L(v1 ) + . . . + αk L(vk )

por lo que {L(v1 ), . . . , L(vk )} genera Im(L). Además, {L(v1 ), . . . , L(vk )} es linealmente
independiente, pues si 0W = α1 L(v1 ) + . . . + αk L(vk ) = L(α1 v1 + . . . + αk vk ) ⇒
α1 v1 + . . . + αk vk ∈ Nu(L) y entonces α1 v1 + . . . + αk vk = β 1 vk+1 + . . . + β n vn . Pero por
ser los vi linealmente independientes, α1 = . . . = αk = β k+1 = . . . = β n = 0. Por lo tanto,

dim Im(L) + dim Nu(L) = k + (n − k) = n = dim V


6.2. IMAGEN Y NÚCLEO DE UNA TRANSFORMACIÓN LINEAL 13

Ejemplos 6.2

1. Sea L : R2 −→ R2 definida por


 
x1
L (x) =
0

(operador
 de proyección). Es obvio que L (x) = 0 si y sólo si x1 = 0, es decir,
x1
x = ∈ Nu (L) si y sólo si x1 = 0. Por lo tanto, Nu (L) es el subespacio
x2  
0
1-dimensional de R2 generado por el vector e2 = , es decir, es el eje x2 , como
1
es obvio geométricamente (graficar!):
 
0
Nu(L) =
1

Por otra parte, dado que L(x) = x1 e1 , la imagen Im(L) = L(V ) es el conjunto de
vectores proporcionales a e1 , es decir, el subespacio 1-dimensional de R2 generado
por el vector e1 , que geométricamente es el eje x1 :
 
1
Im(L) =
0

Se verifica que dim Im(L) + dim Nu(L) = 1 + 1 = 2 = dim V (V = R2 ).


Nótese que L(x) = Ax, con A = (10 00 ), y que Nu(L) coincide con el espacio nulo de
A = (10 00 ), mientras que Im(L) coincide con el espacio columna de A.

2. Sea L : R3 −→ R2 definida por


 
x1 + x2
L (x) =
x2 + x3

x1 + x 2 = 0
Si x ∈ Nu (L), entonces . Resolviendo el sistema, si la variable
x2 + x 3 = 0
   
t 1
independiente es x3 = t, se tiene x2 = −x3 , x1 = x3 , es decir, x = −t = t −1:
  
t 1
* 1 +
Nu(L) = −1
1

Por otro lado, vemos que


     
1 0 1
L(x) = x1 + x3 + x2
0 1 1

con x1 , x2 , x3 arbitrarios, por lo que la imagen será R2 :


         
1 0 1 1 0
Im(L) = , , = , = R2
0 1 1 0 1
3
Se verifica que dim Im(L) + dim Nu(L)
 = 2+ 1 = 3 = dim V (V = R ). Nótese
1 1 0
también que L(x) = Ax, con A = , coincidiendo Nu(L) con el espacio
0 1 1
nulo de A y Im(L) con el espacio columna de A (ver problema 6.2.7).
14

Problemas 6.2
1. Verificar que las siguientes transformaciones L : R3 −→ R2 son lineales, y determinar
Nu(L), la imagen
 Im(L) y sus dimensiones,junto  con una base de los mismos:
x   x  
x 2x + y
(a) L y =
  (b) L y =
 
x+y+z −4x − 2y
z z
2 2
2. Idem 1. para
 las siguientes
     L: R −→ R :
transformaciones
x y x 0
(a) L = (b) L =
y −x y y
Interprételas geométricamente.
3. Importante: Sea L : Rn → Rm la transformación lineal definida por una matriz A
de m × n:
L(x) = Ax
Probar que:
a) El núcleo Nu(L) es el espacio nulo de la matriz A.
b) La imagen Im(L) es el espacio generado por las columnas de la matriz A (o
sea, el espacio columna de la matriz).
c) La igualdad dim Im(L) +dim Nu(L) = dim V es equivalente a
rango (A) + nulidad (A) = n
d) Verifique estos resultados para las transformaciones del ejercicio 2., escribiéndolas
en la forma L(x) = Ax.
4. Determinar si son lineales las siguientes transformaciones L : R2×2 −→ R. En caso
de que lo seanhalle su núcleo e imagen.
a b
(a) L( ) = a + d (Traza de la matriz)
c d 
a b
(b) L( ) = ad − bc (Determinante de la matriz)
c d
5. a) Determine si la traza de una matriz cuadrada A de n × n, definida por
n
X
T r(A) = aii = a11 + . . . + ann
i=1

es una transformación lineal T : Rn×n −→ R.


b) Indique si el determinante det(A) de una matriz cuadrada A de n × n, es una
transformación lineal det : Rn×n −→ R.
6. Halle el núcleo e imagen del operador identidad I : V → V , y del operador nulo
0:V →V.
7. Mostrar que una función f : < → < cuya gráfica es una recta no es necesariamente
una transformación lineal L : < → < (considere por ejemplo la recta y = mx + 1).
8. Mostrar que ∀ k ≥ 1, la derivada k-ésima Dk = dk /dtk en el espacio P de polinomios
(de grado arbitrario) es una transformación lineal. ¿Cual es su núcleo e imagen?
6.3. PROPIEDADES FUNDAMENTALES. ISOMORFISMOS 15

9. Importante: Propiedades geométricas de una transformación lineal.

a) Pobar que toda transformación lineal L : R2 → R2 con Nu(L) = {0V } transfor-


ma rectas R = {r0 +tn, t ∈ R}, n 6= 0, en rectas, y segmentos Q = {r0 +tn, t ∈
[t0 , t1 ]}) en segmentos. ¿Qué puede suceder si dim Nu(L) ≥ 1? ¿Siguen siendo
válidos estos resultados en R3 ? ¿ y en Rn ?
b) Probar que toda transformación lineal L : R2 → R2 con Nu(L) = {0V } trans-
forma rectas y segmentos paralelos (caracterizados por un mismo vector n 6= 0
pero distintos r0 ) en rectas y segmentos paralelos. Generalizar a R3 y Rn . ¿Pue-
de extenderse el resultado a planos paralelos en R3 ?
 
−x2
c) Si L(x) = , determine la imagen por L de las rectas paralelas y = 2x y
x1
y = 2x + 1. Grafique e interprete el resultado.
d ) Dados u, v ∈ R2 , i) probar que el segmento de recta que los conecta es el
conjunto Q = {tv + (1 − t)u, t ∈ [0, 1]}. Verifı́quelo para u = (1, 0), v = (0, 1).
ii) Mostrar que su imagen L(Q) bajo una transformación lineal L : R2 → R2 es
el segmento derectaentre L(u) y L(v). Generalizar a R3 y Rn .
−x2
iii) Si L(x) = , determine la imagen por L del segmento de recta entre
x1
u = (1, 0) y v = (0, 1). Graficar.
e) Un subconjunto C ⊂ Rn es convexo si para cualquier par de puntos de C el
segmento de recta que los conecta yace enteramente en C, es decir,

u ∈ C, v ∈ C ⇒ tv + (1 − t)u ∈ C ∀ t ∈ [0, 1]

Por ejemplo, todo subespacio de Rn es un conjunto convexo (probar!). Pero un


conjunto convexo no necesariamente es un subespacio. Por ejemplo, en R2 un
cı́rculo “lleno” C = {(x, y) ∈ R2 , x2 + y 2 ≤ 1} es un conjunto convexo (pro-
bar!). En cambio, el cı́rculo {(x, y) ∈ R2 , x2 +y 2 = 1} no es un conjunto convexo.

Probar que toda transformación lineal L : Rn → Rm transforma un conjunto


convexo en un conjunto convexo. Dé un ejemplo.

6.3. Propiedades fundamentales. Isomorfismos


1. Si L : V −→ W es una transformación lineal, con V un espacio vectorial de di-
mensión finita n y B = {v1 , . . . , vn } una base arbitraria de V , entonces L queda
completamente determinada por los n vectores {L(v1 ), . . . , L(vn )}, es decir, por las
n imágenes de los vectores de la base.
En efecto, si v ∈ V , entonces

v = α 1 v 1 + . . . + α n vn

y por lo tanto

L(v) = L(α1 v1 + . . . + αn vn ) = α1 L(v1 ) + . . . + αn L(vn )


16

es decir, L(v) es una combinación lineal de los n vectores L(v1 ), . . . , L(vn ).


La imagen L(V ) es entonces el espacio generado por estos n vectores:

L(V ) = hL(v1 ), . . . , L(vn )i

Nótese, no obstante, que el conjunto {L(v1 ), . . . , L(vn )} puede ser linealmente de-
pendiente (por ej., algunos vectores L(vi ) puden ser nulos), en cuyo caso no será
una base de L(V ).

2. Una transformación lineal L : V −→ W es inyectiva (o monomorfismo) si


L(v1 ) 6= L(v2 ) ∀ v1 6= v2 . Es fácil ver que es inyectiva si y sólo si Nu(L) = {0V }.
En efecto, L inyectiva ⇒ L(v) 6= L(0V ) = 0W ∀ v 6= 0V , por lo que Nu(L) = {0V }.
Y si Nu(L) = {0V } ⇒ L(v1 ) − L(v2 ) = L(v1 − v2 ) 6= 0W ∀ v1 6= v2 , por lo que L
es inyectiva.

3. Si Nu(L) = {0V } y {v1 , . . . , vk } ⊂ V es linealmente independiente, el conjunto


{L(v1 ), . . . , L(vk )} es linealmente independiente. En otras palabras, si la trans-
formación lineal L es inyectiva, conserva la independencia lineal.
En efecto, si

0W = α1 L(v1 ) + . . . + αk L(vk ) = L(α1 v1 + . . . + αk vk )

entonces α1 v1 + . . . + αk vk ∈ Nu(L), por lo que α1 v1 + . . . + αk vk = 0V . Pero esto


implica α1 = α2 = . . . = αk = 0 por ser {v1 , . . . , vk } linealmente independiente. Por
lo tanto, {L(v1 ), . . . , L(vk )} es linealmente independiente.
En particular, si {v1 , . . . , vn } es una base de V ⇒ {L(v1 ), . . . , L(vn )} es una base
de la imagen Im(L) = L(V ), pues por lo anterior, es linealmente independiente y
por la propiedad 1, genera la imagen. Por lo tanto, para L : V → W inyectiva,
dim Im(L) = n y dim Nu(L) = 0, verificándose que

dim Im(L) + dim Nu(L) = n + 0 = n = dim V

Esto también implica que si L : V → W es inyectiva, necesariamente


dim V ≤ dim W pues Im(V ) ⊂ W .

4. Si L : V −→ W es una transformación lineal y L(V ) = W ⇒ L es sobreyectiva


(epimorfismo). En este caso la imagen L(V ) es todo el codominio W , es decir, cubre
todo W , por lo que el conjunto {L(v1 ), . . . , L(vn )} genera W .
Además, en este caso se cumple que

dim V = dim Im(L) + dim Nu(L) = dim W + dim Nu(L)

por lo que necesariamente dim V ≥ dim W .


6.3. PROPIEDADES FUNDAMENTALES. ISOMORFISMOS 17

Isomorfismos:
5. Si L : V ⇒ W es una transformación lineal biyectiva, es decir, que es a la vez
inyectiva (Nu(L) = {0V }) y sobreyectiva (L(V ) = W ) ⇒ se dice que L es un
isomorfismo. Si V = W al isomorfismo se lo denota automorfismo.
Si L es un isomorfismo y dim V = n, con B = {v1 , . . . , vn } una base de V ⇒

{L(v1 ), . . . , L(vn )}

es una base de W , pues son linealmente independientes (por ser L inyectiva) y


generan W (por ser L sobreyectiva). Un isomorfismo transforma entonces cualquier
base de V en una base de W .
Por lo tanto, V y W deben tener la misma dimensión n (cuando son de dimen-
sión finita). Para un isomorfismo se verifica entonces que

dim Im(L) + dim Nu(L) = n + 0 = dim V = dim W

6. Una función L : V −→ W tiene inversa L−1 : W −→ V si y sólo si L es biyectiva.


Por lo tanto, si L : V −→ W es una transformación lineal, L tendrá inversa
L−1 : W −→ V si y sólo si L es un isomorfismo:

L(v) = w ⇒ v = L−1 (w)

cumpliéndose que
L(L−1 (w)) = L(v) = w ∀ w ∈ W
L−1 (L(v)) = L−1 (w) = v ∀v∈V
es decir,
LL−1 = IW , L−1 L = IV
donde IW y IV son los operadores identidad en W y V .
La inversa L−1 : W −→ V de un isomorfismo L es también un isomorfismo
(probar!), es decir, una transformación lineal biyectiva.

7. Se dice que dos espacios vectoriales V , W son isomorfos si existe un isomorfismo


L : V −→ W entre ellos. Si V y W son de dimensión finita ⇒ V y W son isomorfos
si y sólo si tienen la misma dimensión (probar!).

Ejemplo 6.3 Sea L : R2 ⇒ R2 la transformación dada por


 
x1 + x2
L(x) =
x1 − x 2
 
x1
Se verifica en primer lugar que L es lineal y que ∀ x = = x1 e1 + x2 e2 ∈ R2 ,
x2
       
x1 x2 1 1
L(x) = + = x1 + x2 = x1 L(e1 ) + x2 L(e2 )
x2 −x2 1 −1
18
   
1 1
con L(e1 ) = , L(e2 ) = , por lo que basta conocer L(e1 ) y L(e2 ) para determinar
1 −1
L(x) para cualquier x ∈ R2 .
Se comprueba también que Nu(L) = 0, pues si x1 +x2 = 0 y x1 −x2 = 0 ⇒ x1 = x2 = 0
(verificar!). Por lo tanto L es inyectiva. Y finalmente, vemos que la imagen de L es
       
1 1 1 1
L(V ) = {x1 + x2 , x1 , x2 ∈ R} = , = R2
1 −1 1 −1

por lo que L es también sobreyectiva. Este resultado puede también obtenerse directa-
mente de
dim Im(L) = dim V − dim Nu(L) = 2 − 0 = 2
L es entonces un automorfismo, es decir, un isomorfismo entre V y V , con V = R2 .
L tendrá entonces inversa L−1 : R2 −→ R2 , dada por (verificar!)
   
−1 x1 1 x1 + x2
L =
x2 2 x1 − x2

Notemos finalmente que podemos expresar L(x) como


  
1 1 x1
L(x) =
1 −1 x2

y L−1 (x) como   


−1 1 1 1 x1
L (x) =
2 1 −1 x2
siendo la matriz que representa a L−1 la inversa de la matriz que representa a L.

Problemas 6.3

1. Si L : V −→ V es un operador lineal y {v1 , . . . , vn } es una base de V , probar


(a) Si L(vi ) = 0 para cada elemento de la base entonces L es la transformación
lineal nula.
(b) Si L(vi ) = vi para cada vector de la base entonces L es la identidad.
(c) Si existe un escalar r tal que L(vi ) = rvi para cada vector de la base entonces
L(v) = rv para todo los vectores en V .

2. Sea L : V → W una transformación lineal y supongamos que L(v1 ) = w1 , . . . ,


L(vk ) = wk para vectores v1 , . . . , vk de V .
(a) Si {w1 , . . . , wk } genera W , ¿debe {v1 , . . . , vk } generar V ? Pensar, por ejemplo,
en transformaciones de <3 , sobre <2 .
(b) Si {v1 , . . . , vk } genera V , ¿debe {w1 , . . . , wk } generar W ? Pensar por ejemplo
en L : <2 −→ <3 .
(c) Si ahora L es un isomorfismo (que implica dim V = dim W en espacios de
dimensión finita) ¿ cual es la respuesta a (a) y (b)?

3. Si L : V → W es inyectiva, mostrar que la imagen L(S) de un subespacio de


dimensión m de V es un subespacio de dimensión m de W .
6.3. PROPIEDADES FUNDAMENTALES. ISOMORFISMOS 19

4. Importante: Sea L : Rn → Rm la transformación lineal definida por una matriz A


de m × n:
L(x) = Ax
probar que:
a) L es inyectiva si y sólo si rango(A) = n. Esto implica n ≤ m.
b) L es sobreyectiva si y sólo si rango(A) = m. Esto implica n ≥ m.
c) L es biyectiva (isomorfismo) si y sólo si rango(A) = m = n, es decir, si y sólo si
A es una matriz cuadrada no singular.
d) Probar que en c), L−1 : Rn → Rn está dada por

L−1 (x) = A−1 (x)

e) Discuta las implicancias de los resultados anteriores para el sistema de ecuaciones


lineales (de m × n)
L(x) = b
En particular, muestre que
i) Es compatible si y sólo si b ∈ Im(L).
ii) Es compatible ∀ b ∈ Rm si y sólo si L es sobreyectiva
iii) La solución, cuando existe, es única si y sólo si L es inyectiva
iv) La solución existe y es única ∀ b ∈ Rm si y sólo si L es biyectiva (isomorfismo),
es decir si y sólo si m = n y A es no singular.

5. Importante: Sea V un espacio vectorial de dimensión n, con (v1 , . . . , vn ) una base


(ordenada) de V , tal que si v ∈ V ,

v = x1 v 1 + . . . + xn v n

Sea L : V −→ Rn la transformación lineal definida por


 
x1
 .. 
L(v) =  . 
xn

Es decir, L(v) = [v]B es el vector columna de coordenadas de v en la base B.


a) Mostrar que L está bien definida, es decir, que [v]B existe y es único ∀ v ∈ V .
b) Mostrar que L es una transformación lineal.
c) Mostrar que L es un isomorfismo (es decir, Nu(L) = {0V }, Im(L) = Rn ).
Este resultado muestra en forma explı́cita que todo espacio V de dimensión n (con
escalares reales) es isomorfo a Rn , es decir, que existe una correspondencia biyectiva
entre ambos.
d) ¿Cual es la inversa L−1 ?

6. Mostrar que dos espacios V , W son isomorfos si y sólo si tienen la misma dimensión.

7. Mostrar que la inversa de un isomorfismo L : V −→ W es un isomorfismo, es decir,


que L−1 es lineal y biyectiva.
20

6.4. Representación matricial de transformaciones


lineales
Veremos ahora que cualquier transformación lineal L entre espacios vectoriales de dimen-
sión finita V y W se puede representar mediante una matriz A, que dependerá de las
bases que se consideren en V y W .
En primer lugar consideramos transformaciones de Rn en Rm :
L : Rn −→ Rm
Asumimos primero que la base en V = Rn es la base canónica Bc = {e1 , . . . , en }.
Dado x ∈ Rn , podemos representarlo como
 
x1
 .. 
x =  .  = x1 e 1 + . . . + xn e n
xn
Como L es lineal,
L (x) = x1 L (e1 ) + . . . + xn L (en )
Luego si para cada ej , j = 1, . . . , n, se tiene
 
a1j
L (ej ) = aj =  ... 
 
amj
entonces
   
a11 a1n
L(x) = x1  ...  + . . . + xn  ... 
   
am1 amn
  
a11 . . . a1n x1
 .. ... .
..   ... 
=  .
 

am1 . . . amn xn
es decir,
L(x) = Ax
con A la matriz de m × n
 
a11 . . . a1n
 .. .. .. 
A = (L(e1 ), . . . , L(en )) =  . . . 
am1 . . . amn
La matriz A se denomina representación matricial de L en la bases canónicas de
R y Rm . Queda completamente determinada por las n imágenes L(ej ) de los vectores de
n

la base canónica. Se emplea también la notación


A = [L]Bc
Bc

o simplemente A = [L]Bc . La representación de L con respecto a otras bases será una


matriz diferente, pero también de m × n.
6.4. REPRESENTACIÓN MATRICIAL DE TRANSFORMACIONES LINEALES 21

Ejemplos 6.4
 
3 2 x1 + x2
1. Sea L : R −→ R , definida por L (x) = (ejemplo anterior). Tenemos
x2 + x3
     
1   0   0  
1 1 0
a1 = L (e1 ) = L 0 =
  , a2 = L 1 =
  , a3 = L 0 = 
0 1 1
0 0 1
Por lo tanto,  
1 1 0
A = (a1 , a2 , a3 ) =
0 1 1
Verificación:
 
  x1  
1 1 0   x1 + x2
Ax = x2 = = L (x)
0 1 1 x2 + x3
x3

2. Dada A de m × n, consideremos la transformación lineal L : Rn −→ Rm dada por


L(x) = Ax
Es fácil ver que
 
0
. . . a1n  ... 
   
a11 . . . a1j 
 a 1j
 .. .. .. .. ..  1 =  ..  = a
L(ej ) = Aej =  . . . . .     .  j
.
am1 . . . amj . . . amm  ..  amj
0
con aj la columna j-ésima de A, por lo que la representación matricial de L en
las bases canónicas de Rn y Rm es precisamente A:
[L]BBc = (L(e1 ), . . . , L(e2 )) = A
c

 
a b
Por ejemplo, si A = ,
c d
    
a b x1 ax1 + bx2
L(x) = =
c d x2 cx1 + dx2
y entonces

   
a b 1 a
L(e1 ) = = = a1
c d 0 c
    
a b 0 b
L(e2 ) = = = a2
c d 1 d
por lo que (a1 , a2 ) = A.
El problema 6.2.3 implica entonces que la imagen Im(L) de una transformación
lineal L : Rn → Rm es el espacio columna de A = [L]B
Bc (es decir, el espacio generado
c

por los vectores columna de A) mientras que el núcleo Nu(L) es espacio nulo de A.
22

3. Rotación general en R2 . Tomemos la transformación L : R2 −→ R2 , tal que a cada


vector x lo hace rotar un ángulo θ, en sentido antihorario:
x2 x2

LHe2L
LHxL e2

LHe1L
Θ

x
Θ
Θ
x1
x1 e1

Tenemos    
cos θ − sin θ
L (e1 ) = y L (e2 ) =
sin θ cos θ
Por lo tanto  
cos θ − sin θ
A = (L (e1 ) , L (e2 )) =
sin θ cos θ
Entonces, para rotar un ángulo θ un vector x de R2 en sentido antihorario, se debe
multiplicar A por x:
    
cos θ − sin θ x1 x1 cos θ − x2 sin θ
y = L(x) = Ax = =
sin θ cos θ x2 x1 sin θ + x2 cos θ
Problemas 6.4
1. Hallar la matriz que representa, respecto de las bases canónicas, las siguientes trans-
formaciones lineales y escribir la forma explı́cita de L(x):
(a) La aplicación L : R2 → R2 que representa una dilatación con factor c1 a lo largo
del eje x y c2 a lo largo del eje y.
(b) La reflexión L : R2 → R2 respecto de la recta y = x.
(c) La rotación L : R2 → R2 de ángulo π/4 antihorario.
(d) La rotación L : R3 → R3 de ángulo θ antihorario alrededor del eje z.
(e) Idem anterior pero alrededor del eje y.
(f ) La proyección L : R3 −→ R3 sobre 
el plano
 xy.     
2 2 1 1 0 −2
(g) L : R → R lineal, definida por L = ,L = .
0 1 2 2
     
1   1   1  
3 2 1 1 0
(h) L : R → R lineal, definida por L 0 = , L 1 = , L 1 = .
1 −1 0
0 0 1
(i) Determinar la imagen y núcleo de las transformaciones anteriores.

2. Mostrar, determinando las imágenes L(e1 ) y L(e2 ), que la siguiente matriz


 
cos(2θ) sin(2θ)
A=
sin(2θ) − cos(2θ)

representa en la base canónica la reflexión L : R2 −→ R2 respecto de la recta y = mx


que forma un ángulo θ con el eje x (m = tan θ). Verificar resultados previos.
6.4. REPRESENTACIÓN MATRICIAL DE TRANSFORMACIONES LINEALES 23

6.4.1. Caso general:


Consideremos una transformación lineal general L : V −→ W entre espacios vectoria-
les V y W de dimensión n y m respectivamente. Sean
BV = (v1 , . . . , vn ) , BW = (w1 , . . . , wm )
bases ordenadas de V y W . Cualquier vector v ∈ V puede escribirse en términos de los
vectores de la base BV :
v = x1 v 1 + . . . + xn v n
 
x1
siendo [v]BV = ... = x el vector de coordenadas de v con respecto a la base BV .
 

xn
Por lo tanto, para L lineal,
L(v) = x1 L(v1 ) + . . . + xn L(vn )
Si ahora escribimos L(v) y L(vj ) en términos de los vectores de la base BW ,
L(v) = y1 w1 + . . . + ym wm
L(vj ) = a1j w1 + . . . + amj wm , j = 1, . . . , m
tal que sus vectores de coordenadas en la base BW son
   
y1 a1j
[L(v)]BW =  ...  = y , [L(vj )]BW =  ...  = aj
   
ym amj
obtenemos
y = [L(v)]BW = x1 [L(v1 )]BW + . . . + xn [L(vn )]BW
   
a11 a1n
= x1  ...  + . . . + xn  ... 
   
am1 amn
  
a11 . . . a1n x1
 .. . .. .
..   ... 
=  .
 

am1 . . . amn xn
= Ax
es decir,
[L(v)]BW = A[v]BV
donde A es la matriz de m × n
 
a11 . . . a1n
A = ([L(v1 )]BW , . . . , [L(vn )]BW ) =  ... .. .. 

. . 
am1 . . . amn
Esta matriz A se denomina representación matricial de L respecto de las bases
BV de V y BW de W . La denotaremos también como A = [L]B BW .
V

El resultado se puede resumir en el siguiente esquema gráfico:


24

V W

L:V™W
v w=LHvL

x=@vDBV y=Ax
A Î Rmxn =@LHvLDBW

Rn Rm

Ejemplos 6.4.1
1. Sea L : R3 −→ R2 la transformación lineal definida por
L(x) = x1 b1 + (x2 + x3 ) b2
donde x = x1 e1 + x2 e2 + x3 e3 y
   
1 −1
b1 = , b2 =
1 1
Tenemos
L (e1 ) = b1 = 1b1 + 0b2
L (e2 ) = L(e3 ) = b2 = 0b1 + 1b2
Por lo tanto, la representación matricial de L con respecto a las bases Bc = (e1 , e2 , e3 )
de V = R3 y BW = (b1 , b2 ) de W = R2 es
 
Bc 1 0 0
A = [L]BW = ([L(e1 )]BW ), [L(e2 )]BW , [L(e3 )]BW ) =
0 1 1
Ası́,  
  x1  
1 0 0   x1
[L(x)]BW = x2 =
0 1 1 x2 + x 3
x3
que implica justamente L(x) = x1 b1 + (x2 + x3 )b2 .
En cambio, en la base canónica de R2 obtenemos (probar!)
 
Bc 1 −1 −1
Ac = [L]Bc = (L(e1 ), L(e2 ), L(e3 )) =
1 1 1
con  
  x1  
1 −1 −1   x1 − x2 − x3
[L(x)]Bc = x2 =
1 1 1 x1 + x2 + x3
x3
es decir, L(x) = (x1 −x2 −x3 )e1 +(x1 +x2 +x3 )e2 , que coincide con x1 b1 +(x2 +x3 )b2 .
6.4. REPRESENTACIÓN MATRICIAL DE TRANSFORMACIONES LINEALES 25

d
2. Sea D : P2 → P2 el operador derivada D = dx en el espacio de polinomios de grado
≤ 2. Como base ordenada de P2 consideramos B = (1, x, x2 ). Tenemos
D(1) = 0, D(x) = 1, D(x2 ) = 2x
Por lo tanto, su representación matricial en la base B es
 
0 1 0
A = [D]B 2
B = ([D(1)]B , [D(x)]B , [D(x )]B ) =
0 0 2
0 0 0
 
a0
2
Para p(x) = a0 + a1 x + a2 x ∈ P2 tenemos [p]B = a1  y entonces

a2
    
0 1 0 a0 a1
[D(p)]B = A[p]B = 0 0 2
   a1 = 2a2 
 
0 0 0 a2 0
que implica D(p) = a1 + 2a2 x + 0x2 = a1 + 2a2 x. Al ser P2 de dimensión 3, todo
operador lineal en P2 puede entonces ser representado por una matriz de 3 × 3, tal
como un operador en R3 .

Relación entre las propiedades de L y la matriz de representación


Sea L : V → W una transformación lineal, con dim V = n, dim W = m, y
A = [L]BV
BW

la matriz que la representa con respecto a bases BV de V y BW de W . El rango y la


nulidad de A no dependen de las bases elegidas, pues coinciden, respectivamente, con
la dimensión de la imagen y del núcleo de L (los que no dependen de la representación).
En efecto, los n vectores columna aj ∈ Rm de A son las coordenadas de las n imágenes
L(vj ) ∈ W en la base BW . Como la correspondencia entre vectores y sus coordenadas en
una base es un isomorfismo (Problema 6.3.5), la dimensión del subespacio de Rm generado
por las n columnas de A (es decir, el rango de A) es la misma que la del subespacio
de W generado por las n imágenes L(vj ), es decir, la misma que la dimensión de la
imagen Im(L). Análogamente, los vectores x ∈ Rn del espacio nulo de A (Ax = 0) son
las coordenadas de los vectores v ∈ V del núcleo Nu(L) (L(v) = 0W ), y por lo tanto la
dimensión del espacio nulo de A (la nulidad de A) coincidirá con la del núcleo de L.

Se cumple entonces que

rango(A) = dim Im(L) , nulidad(A) = dim Nu(L)

para cualquier representación matricial A = [L]B


BV de L. Por lo tanto, la relación
W

dim Im(L) + dim Nu(L) = dim V

resulta equivalente a
rango (A) + nulidad (A) = n
26

Los vectores ∈ Rm de una base del espacio columna de A son las coordenadas en la
base BW de los vectores de una base de la imagen Im(L), mientras que los vectores ∈ Rn
de una base del espacio nulo de A son las coordenadas en la base BV de los vectores
de una base del núcleo Nu(L). Por lo tanto, pueden obtenerse bases de estos espacios
mediante los métodos ya conocidos para obtener bases de los espacios columna y nulo de
una matriz. Y la ecuación L(v) = w es equivalente al sistema lineal A[v]BV = [w]BW .

Problemas 6.4 (continuación)


1. 3. A partir de consideraciones
 geométricas,
  encontrar la representación matricial [L]B
B
1 1 2 2
respecto de la base B = ( , ) de la transformación lineal L : R −→ R que
1 −1
refleja todo vector respecto de la recta y = x. Mostrar que dicha matriz es diagonal.
Comparar con la matriz que la representa en la base canónica [L]B Bc .
c

2. 4. Sea D : P3 → P3 el operador derivada en el espacio de polinomios de grado ≤ 3.


a) Determine su representación matricial A en la base B = (1, x, x2 , x3 ).
b) Halle el núcleo y la imagen de D en este espacio, y su relación con el espacio
columna y nulo de A.

6.5. Cambio de base


Determinaremos ahora en forma explı́cita la relación entre las representaciones matri-
ciales de una transformación lineal L en distintas bases. La ventaja de “cambiar de base”
es la posibilidad de encontrar una base en la que la matriz representativa de L sea simple
(por ejemplo, diagonal) y por lo tanto sus propiedades esenciales (rango, imagen, etc.)
resulten evidentes.
Consideremos primero un operador lineal L : V → V , con V de dimensión finita n.
Recordemos que si B = (v1 , . . . , vn ) y B 0 = (v10 , . . . , vn0 ) son dos bases de V , podemos
escribir cualquier vector v ∈ V en las formas
v = x1 v 1 + . . . + xn v n
= x01 v10 + . . . + x0n vn0
   
x1 x01
Las coordenadas x = [v]B =  ...  y x0 = [v]B 0 =  ...  en estas bases se relacionan
   
xn x0n
por
x0 = S −1 x
o en forma equivalente,
x = Sx0
donde
S = [v10 ]B , . . . , [vn0 ]B


es la matriz de cambio de base (o matriz de transición), de n × n y no singular, formada


por las coordenadas de los vectores de la base B 0 en la base B. Por lo tanto, escribiendo
L(v) = y1 v1 + . . . + yn vn
= y10 v10 + . . . + yn0 vn0
6.5. CAMBIO DE BASE 27

con y = [L(v)]B = Ax = A[v]B , y0 = [L(v)]B 0 = A0 x0 = A0 [v]B 0 , obtenemos


y0 = S −1 y
= S −1 Ax
= S −1 ASx0
es decir,

0 0
Si A = [L]B B
B es la representación de L en la base B y A = [L]B 0 su representación en la
0 0
base B , las matrices A y A se relacionan por

A0 = S −1 AS

donde S = [v10 ]B . . . [vn0 ]B es la matriz de cambio de base.




Notar que si se conoce A0 , la relación anterior permite obtener A como (probar!)

A = SA0 S −1
Podemos resumir el resultado en el siguiente esquema gráfico:

L:V™V
vÎV w=LHvL

x=@vDB y=Ax
ÎRn A Ε Rnxn =@wDB
S S-1

x'=@vDB' y'=A'x'
ÎRn A' = S-1AS Ε Rnxn =@wDB'

Ejemplo 6.5.1 Consideremos   nuevamente


  la reflexión L : R2 −→ R2respecto
 de la recta
1 −1 1
y = x. En la base B 0 = ( , ), formada por el vector v10 = perteneciente a
1
  1 1
−1
la recta y el vector v20 = perpendicular a la recta, la representacion es obvia, ya
1
que L(v10 ) = v10 mientras que L(v20 ) = −v20 (véase problema 6.4.3):
 
0 1 0
A =
0 −1
   
1 0
Para hallar la representación matricial A de L en la base canónica B = ( , ),
0 1
determinamos primero la correspondiente matriz de cambio de base,
 
0 0 1 −1
S = ([v1 ]B , [v2 ]B ) =
1 1
28
 
1 1
y su inversa S −1 = 21 . Luego
−1 1
   
0 −1 1 −1 1 0 1/2 1/2
A = SA S =
1 1 0 −1 −1/2 1/2
 
0 1
=
1 0

Este resultado coincide con el hallado previamente (problema 6.4.1 (b)).

6.5.1. Matrices semejantes

Dos matrices A y A0 de n × n son semejantes si y sólo si existe una matriz no singular


S tal que
A0 = S −1 AS
Si A0 es semejante a A, entonces, multiplicando la igualdad anterior por S a izquierda y
por S −1 a derecha, obtenemos

SA0 S −1 = S(S −1 AS)S −1 = (SS −1 )A(SS −1 )


= A

es decir, A = R−1 A0 R , con R = S −1 , por lo que A es también semejante a A0 .


Por lo tanto, las matrices A y A0 que representan a un operador lineal L en dos bases
distintas son semejantes.

Dos propiedades fundamentales sobre matrices semejantes son las siguientes:

1. Las matrices semejantes tienen el mismo determinante:

det(A0 ) = det(A)

En efecto,

det(A0 ) = det(S −1 AS)


= det(S −1 )det(A)det(S)
= (det(S))−1 det(A)det(S)
= det(A)

Esto implica que el determinante det(A) es una propiedad del operador lineal L
representado por A, permaneciendo invariante frente a cambios de base.
Ası́, comprobamos en el ejemplo 6.5.1 que det(A0 ) = det(A) = −1.
6.5. CAMBIO DE BASE 29

2. Las matrices semejantes tienen la misma traza:

Tr A0 = Tr A
Pn
donde la traza Tr(A) = i=1 aii es la suma de los elementos diagonales.

En efecto, probemos primero que para matrices A de n × m y B de m × n, se cumple

Tr (AB) = Tr (BA)

Demostración:
n
X n X
X m m X
X n m
X
TrAB = (AB)ii = ( aij bji ) = ( bji aij ) = (BA)jj = TrBA
i=1 i=1 j=1 j=1 i=1 j=1

Luego
Tr A0 = Tr (SAS −1 ) = Tr ((AS −1 )S) = Tr (A(S −1 S)) = Tr A
Este resultado implica que la traza es también una propiedad del operador L representado
por A, permaneciendo invariante frente a cambios de base.
Ası́, comprobamos en el ejemplo 6.5.1 que Tr (A0 ) = Tr(A) = 0.

Finalmente, mencionemos una tercera propiedad relacionada con 1.:

3. Si A y A0 son matrices semejantes de n × n e In es la matriz identidad, entonces

det (A0 − λIn ) = det(A − λIn )

para cualquier escalar λ.

Este determinante (que es un polinomio de grado n en λ denominado polinomio carac-


terı́stico) juega un rol central en la teorı́a de autovalores, como veremos luego.
Demostración:

det(A0 − λIn ) = det(S −1 A0 S − λIn ) = det[S −1 (A − λIn )S]


= (det(S −1 )det(A − λIn )det(S)
= det(A − λIn )
Ası́, comprobamos en el ejemplo 6.5.1 que

0
1 − λ 0 = (1 − λ)(−1 − λ) = λ2 − 1

det(A − λI2 ) =
0 −1 − λ

−λ 1
det(A − λI2 ) = = λ2 − 1 = det(A0 − λI2 )
1 −λ
30

Problemas 6.5
1. Dada L : R3 −→ R3 definida por
 
2 2 0
L(x) = Ax , A = 1 1 2
1 1 2
 
x1
a) Obtener la expresión explı́cita de L(x) para un vector x = x2 .
x2
     
1 −2 1
b) Hallar su representación A0 en la base B 0 =−1 ,  1  , 1.
0 1 1
Verificar que L(v10 ) = 0, L(v20 ) = v20 , y L(v30 ) = 4v30 , y que por lo tanto, A0 es
diagonal.
c) Usar esta representación diagonal para hallar su núcleo e imagen.
d) Usar esta representacióndiagonal
 para interpretar L geométricamente.
0
e) Indique si el vector v = 1 pertenece a la imagen de L.

1
f) Verifique que la traza y determinante permanecen invariantes frente al cambio de
base: Tr(A) =Tr(A0 ), det (A) = det (A0 ).
2. Si la matriz A del problema anterior representa ahora una transformación L : P2 → P2
en la base canónica de P2 , con P2 el espacio de polinomios reales de grado ≤ 2 (y su
base canónica dada por (1, x, x2 )), dé una expresión para L(p) y determine la base
B 0 de P2 donde la representación A0 es diagonal (utilice resultados previos).
3. Considere la reflexión L : R2 → R2 respecto de una recta que pasa por el origen y
que forma un ángulo θ con el eje x, dada por y = mx, con m = tan θ (graficar).
a) Determine, a partir
 de consideraciones
   geométricas, su representación matricial
cos θ − sin θ
A0 en la base B 0 = , formada por un vector perteneciente a la
sin θ cos θ
recta y otro perpendicular a dicha recta (verificar!). Muestre que A0 es diagonal.
b) Utilice a) y cambio de base para obtener la representación matricial A en la base
canónica. Verifique que se obtiene el resultado del problema 6.4.2.
       
2 2 1 2 0 1
4. Sea L : R −→ R definida por L = ,L = .
0 2 1 1
a) Encuentre su representación matricial en la base canónica de R2 y dé una expre-
sión para L(x).    
1 1
b) Encuentre su representación matricial en la base B 0 =( , ), y verifique
−2 1
que es diagonal. c) Determine su núcleo e imagen.
5. a) Muestre que la representación matricial A = [I]B
B del operador identidad I : V → V
con respecto a una base arbitraria B de un espacio vectorial V de dimensión n, es
siempre la matriz identidad In .
b) Muestre que la representación matricial del operador nulo 0 : V → V en cualquier
base B de V es la matriz nula de n × n.
6.6. COMPOSICIÓN DE TRANSFORMACIONES (OPERACIONES SUCESIVAS) 31

6. Muestre que si una matriz B es semejante a una matriz A, entonces:


i) B 2 es semejante a A2 .
ii) Si A no singular, B es no singular y B −1 es semejante a A−1 .

7. Dada L : V → W y A su representación matricial respecto de bases BV de V y


BW de W (con dimV = n, dimW = m) muestre que su representación matricial A0
respecto de bases BV0 de V y BW
0
de W es

A0 = R−1 AS

con S = ([v10 ]BV , . . . , [vn0 ]BV ) la matriz de cambio de base en V (de n × n, no


singular) y R = ([v10 ]BW , . . . , [vn0 ]BW ) la matriz de cambio de base en W (de m × m,
no singular).

6.6. Composición de transformaciones (operaciones


sucesivas)
Consideremos dos transformaciones lineales L : V → W , G : W → U , con V , W ,
U espacios vectoriales. Supongamos que primero aplicamos L sobre un vector v ∈ V , y
luego aplicamos G sobre el vector resultante w = L(v) ∈ W . El resultado es el vector

u = (G L)(v) = G(L(v)) (6.1)

que pertenece al espacio vectorial U :

v→w→u
L G

En (6.1), G L : V → U denota la composición de G con L (también escrita como


G ◦ L), que es también una transformación lineal.

Problemas 6.6.1

1. Demostrar que si L : V → W y G : W → U son transformaciones lineales, entonces


G L : V → U definida por (6.1) es también una transformación lineal (probar que
satisface (G L)(αv1 + βv2 ) = α(G L)(v1 ) + β(G L)(v2 )).

2. Si L : R3 → R2 está definida por L(x, y, z) = (x + y, y + z),


y G : R2 → R2 está definida por G(x, y) = (x + y, 2x − 2y), encontrar una expresión
para (G L)(x, y, z) = G(L(x, y, z)).

6.6.1. Representación matricial de la composición


Consideremos primero que V = Rn , W = Rm y U = Rp , y sean AL (de m×n) y AG (de
p × m) las representaciones matriciales de L y G en las bases canónicas correspondientes,
tal que L(v) = AL (v), G(w) = AG w. Entonces

GL(v) = G(L(v)) = G(AL v) = AG (AL v) = (AG AL )v


32

por lo que la representación matricial de la composición G L con respecto a las bases


canónicas de V y U es el producto AG AL de las matrices que representan a G y a L:

AGL = AG AL (6.2)

Observar que la matriz AG se aplica a la izquierda de la matriz AL . El producto está ası́


bien definido.

Ejemplo 6.4: En el ejercicio 6.6.2, en las bases canónicas de R3 y R2 , obtenemos las


representaciones matriciales (verificar!)
   
1 1 0 1 1
AL = , AG =
0 1 1 2 −2

tal que
   
x   x  
1 1 0   x+y
L y
  = y =
0 1 1 y+z
z z
      
x 1 1 x x+y
G = =
y 2 −2 y 2x − 2y

Por lo tanto,
   
x    x
1 1 1 1 0  
(GL) y  = y
2 −2 0 1 1
z z
 
  x
1 2 1 y 
=
2 0 −2
z
 
x + 2y + z
= (6.3)
2x − 2z
 
1 2 1
o sea, AGL = AG AL = , con (G L)(x, y, z) = (x + 2y + z, 2x − 2z).
2 0 −2
En el caso general, para representaciones matriciales en bases arbitrarias BV , BW y
BU de V , W , U , se obtiene también (se deja la demostración para el lector)

[GL]B BV BW
BU = AG AL con AL = [L]BW , AG = [G]BU
V

Este resultado es válido para espacios vectoriales generales de dimensión finita.

6.6.2. Potencias de operadores lineales


Recordemos que si W = V , la transformación lineal L : V → V se denomina también
operador lineal o endomorfismo. Queda en este caso definido el cuadrado L2 = L L como
la composición de L con L:
L2 (v) = L(L(v)) (6.4)
6.6. COMPOSICIÓN DE TRANSFORMACIONES (OPERACIONES SUCESIVAS) 33

Si AL es la representación matricial de L en una cierta base de V , los resultadoa anteriores


implican que la representación matricial de L2 es el cuadrado de la matriz AL :

AL2 = AL AL = A2L (6.5)

En general, la potencia Lk ∀ k ≥ 2 queda definida por

Lk (v) = L(Lk−1 (v)), k ≥ 2

y su representación matricial es

ALk = AL ALk−1 = AkL

es decir, la potencia k de la matriz AL . Por definición, L0 = I, con I el operador identidad.


Y si L es un operador lineal inversible (o sea un automorfismo: un isomorfismo de V en
V ), de forma que existe la transformación inversa L−1 (tal que L−1 L = IV ) entonces

AL−1 = A−1
L (6.6)

ya que AL−1 AL = In . La representación matricial de la inversa L−1 es la inversa de la


matriz AL que representa a L, como se vió previamente.
   
2 2 x 2x + y
Ejemplo: Si L : R → R está dado por L = , su representación
y −x − 2y
matricial en la base canónica es (probar!)
 
2 1
AL =
−1 −2

La representación matricial de L2 es entonces


    
2 2 1 2 1 3 0
AL2 = AL = =
−1 −2 −1 −2 0 3

de forma que         
2x 3 0 x 3x x
L = = =3
y 0 3 y 3y y
es decir, L2 (x) = 3x, lo que equivale a L2 = 3I, con I el operador identidad.

Además, como AL es no singular, L es inversible y la representación matricial de su


inversa está dada por  
−1 1 2 1
AL−1 = AL =
3 −1 −2
de forma que       
−1 x 1 2 1 x 1 2x + y
L = =
y 3 −1 −2 y 3 −x − 2y
o sea, L−1 = L/3. Se verifica entonces L−1 L = I.
34

Problemas 6.6.2

1. Si L : R3 → R3 queda definido por L(x, y, z) = (y, x, −z),


i) mostrar que en la base canónica,
 
0 1 0
AL =  1 0 0 
0 0 −1
ii) Hallar A2L y verificar que L2 es el operador identidad.
2. Sea P2 el subespacio de los polinomios reales de grado ≤ 2.
d
Si D : P2 → P2 denota el operador derivada (D = dx ),
i) Hallar las representaciones matriciales AD y AD2 de D y la derivada segunda D2
en las base canónica (1, x, x2 ) y verificar que
AD2 = AD AD = A2D

6.6.3. Composición de transformaciones lineales en R2


Consideremos ahora algunos ejemplos de operadores lineales L : R2 → R2 . La reflexión
de un vector v respecto de la recta y = x está dada por (recordar!)
      
x 0 1 x y
L = =
y 1 0 y x
 
0 1
siendo su representación matricial en la base canónica AL = .
1 0
Es evidente de la definición que L2 (xy ) = L(L(xy )) = (xy ) ∀ x, y, o sea, L2 = I (operador
identidad), verificándose que (probar!)
 
2 1 0
AL =
0 1
Es, decir, la inversa de una reflexión L es la misma reflexión L, como es obvio geométri-
camente.
x2 x2

LHvL y=x RHvL

А2
v v
x1 x1

La rotación de ángulo π/2 en sentido antihorario de un vector v está dada por


      
x 0 −1 x −y
R = =
y 1 0 y x
6.6. COMPOSICIÓN DE TRANSFORMACIONES (OPERACIONES SUCESIVAS) 35
 
0 −1
siendo su representación matricial en la base canónica AR = .
1 0
Consideremos ahora la transformación lineal R L que primero refleja un vector respecto de
la recta y = x y luego lo rota un ángulo de π/2 en sentido antihorario. Su representación
matricial en la base canónica será
    
0 −1 0 1 −1 0
A(R L) = AR AL = =
1 0 1 0 0 1
y por lo tanto,       
x −1 0 x −x
RL = =
y 0 1 y y
Esto representa una reflexión respecto del eje y (mostrar!).

Por otro lado, la transformación lineal L R, que primero rota un vector un ángulo de
π/2 en sentido antihorario y luego lo refleja respecto de la recta y = x, queda representa-
da por la matriz
    
0 1 0 −1 1 0
A(L R) = AL AR = =
1 0 1 0 0 −1
y por lo tanto,       
x 1 0 x x
LR = =
y 0 −1 y −y
Esto representa una reflexión respecto del eje x (mostrar!).
x2 x2

v
RLHvL
v
x1

x1

LRHvL

Por lo tanto, vemos que el resultado final depende del orden de la composición, lo
que se refleja en la no conmutatividad del producto matricial asociado.

Se define el conmutador de dos operadores L : V → V , G : V → V como


[G, L] = GL − LG
que es en general un operador no nulo. La matriz que lo representa en una base de V es
el conmutador de las matrices que representan a G y L en dicha base:
A[G,L] = AG AL − AL AG . En el ejemplo anterior se obtiene
     
−1 0 1 0 −1 0
AR AL − AL AR = − =2
0 1 0 −1 0 1
36

que implica RL − LR = 2RL, es decir, LR = −RL.

Recordemos finalmente que la proyección ortogonal de un vector sobre el eje x está dada
por (graficar!)
      
x 1 0 x x
Px = =
y 0 0 y 0

y la proyección ortogonal de un vector sobre el eje y está dada por


      
x 0 0 x 0
Py = =
y 0 1 y y

Problemas 6.6.3

1. a) Hallar la representación matricial en la base canónica de la inversa de los opera-


dores R y L anteriores.
b) ¿Tienen Px y Py inversa?
c) Encuentre la representación matricial de Px Py y Py Px . Justificar el resultado.

2. Sea F : R2 −→ R2 el operador lineal que primero rota todo vector un ángulo π/2
en sentido antihorario y luego lo proyecta sobre el eje x. Hallar su representación
matricial en la base canónica y una expresión para F (xy ).

3. Sea G : R2 −→ R2 el operador lineal que primero proyecta todo vector sobre el eje
x y luego lo rota un ángulo π/2 en sentido antihorario. Hallar su representación
matricial en la base canónica y una expresión para G(xy ).

4. Recordando que la representación matricial en la base canónica de una reflexión


respecto de la recta y = mx, con m = tan θ, es
 
cos 2θ sin 2θ
sin 2θ − cos 2θ

a) Halle su determinante.
b) Muestre que la composición de dos reflexiones es una rotación.

5. Recordando que la representación matricial en la base canónica de una rotación de


ángulo θ antihorario es
 
cos θ − sin θ
sin θ cos θ

a) Halle su determinante.
b) Muestre que la composición de dos rotaciones es otra rotación.
c) Muestre que la composición de una reflexión con una rotación es otra reflexión.

6. Encuentre, a partir de las figuras, la representación matricial en la base canónica de


las siguientes transformaciones lineales L : R2 −→ R2 :
6.6. COMPOSICIÓN DE TRANSFORMACIONES (OPERACIONES SUCESIVAS) 37

x2 x2

LHCL
LHCL
2

C
1
C
Θ
x1

x1
a) 1 1,5 b)
x2 x2

LHCL
C
1
Φ
d
LHCL
c
C
Θ
x1 x1
Θ 1

c) d)
Facultad de Ingenierı́a
UNLP

Matemática C

VI Proyección ortogonal – Bases ortogonales

2019

1
1 Proyección ortogonal
En secciones previas hemos usado la proyección ortogonal de vectores de R3 sobre el
plano xy (subespacio). Asumiendo que el vector está por encima del plano xy, esta pro-
yección es la sombra (“al mediodı́a”) del vector sobre este plano:

PxyHvL
x

En otras palabras, la proyección de v sobre el plano xy es un vector p = Pxy (v) tal


que si alguien camina sobre el plano y se detiene sobre el extremo de p mirando hacia
arriba en lı́nea recta, ve el extremo del vector v.
En esta sección se generalizará este concepto a otras proyecciones.

1.1 Proyección ortogonal sobre una recta


Primero consideramos de nuevo la proyección ortogonal sobre una recta que pasa por
el origen, dirigida por un vector s no nulo.
Proyectar ortogonalmente un vector v sobre esta recta da un punto p sobre la recta
tal que el segmento que une p con v es perpendicular a la recta. Un observador que
camine sobre esa recta y se detenga en el punto p, al mirar hacia arriba (o hacia abajo,
según la posición del vector) en forma perpendicular a la recta, verá el extremo de v:

p
s
x

2
Es decir, ha caminado sobre la recta {cs, c ∈ R} hasta hallar el punto p = cp s de-
terminado por un coeficiente cp , con la propiedad de que el vector v−cp s es ortogonal a cp s.

v
v-c p s

Θ cp s
x

Para determinar cp , basta con observar que la condición anterior implica que el pro-
ducto escalar de estos dos vectores debe ser nulo:
s · (v − cp s) = 0
De aquı́ obtenemos
s·v
cp =
s·s
es decir, cp = |v|
|s|
cos θ, donde θ es el ángulo entre v y s. Estas consideraciones son aplicables
tanto en R o R como en Rn (y también en todo espacio vectorial en el que se ha definido
2 3

un producto escalar!), siendo el plano del dibujo el subespacio de dimensión 2 generado


por v y s.

Definición. Sea v ∈ Rn . La proyección ortogonal de v sobre la recta (que pasa por el


origen) generada por el vector no nulo s ∈ Rn es el vector
s·v
Ps (v) = s
s·s
s
Es decir, Ps (v) = (|v| cos θ) |s| . El resultado depende sólo de la dirección de s y no de su
longitud (o sentido): P(αs) (v) = Ps (v) ∀ α 6= 0. De esta forma, el vector v − Ps (v) es
perpendicular a s:
s · (v − Ps (v)) = 0

Ejemplo 1.1.1 Para proyectar v = (x, y) ∈ R2 ortogonalmente sobre la recta y = 2x,


primero obtenemos un vector que indique la dirección de la recta. Por ejemplo,
 
1
s=
2
Luego  
x
(1, 2) ·    
y 1 x + 2y 1
Ps (v) =   =
1 2 5 2
(1, 2) ·
2

3
 
x
3
Ejemplo 1.1.2 En R la proyección ortogonal de un vector v = y  sobre el eje y

z
es  
 x
0 1 0 · y     
z 0 0
Ps (v) =   1 = y 
 0 0 0
0 1 0 · 1 
0
 
1
Y la proyección de v sobre el vector s = 2 es

3
 
 x
1 2 3 · y  
  
z 1 1
x + 2y + 3z  
Ps (v) =   2 =   2
1 14
 3 3
1 2 3 · 2
3
 
13x − 2y − 3z
1 
Puede verificarse que v − Ps (v) = 14 −x + 5y − 3z  es ortogonal a s.
−3x − 6y + 5z

Distancia mı́nima de v a la recta generada por s.


Es importante destacar que la proyección ortogonal Ps (v) de v sobre la recta generada
por s es, precisamente, el punto de la recta más cercano a v: la distancia al cuadrado
entre v y un punto arbitrario αs de dicha recta está dada por el producto escalar

D2 = |v − αs|2 = (v − αs) · (v − αs)

Para cp = s · v/s · s se obtiene, dado que s · (v − cp s) = 0,

D2 = |v − αs|2 = |v − cp s − (α − cp )s|2
= (v − cp s − (α − cp )s) · (v − cp s − (α − cp )s)
= |v − cp s|2 + (α − cp )2 |s|2
≥ |v − cp s|2
2
La cota inferior Dmin = |v − co s|2 se alcanza pues para α = cp , es decir, para αs igual a
la proyección ortogonal cp s = Ps (v) de v sobre la recta. La distancia mı́nima a la recta
es entonces
Dmin = |v − Ps (v)|

4
Ejercicios 1.1
 
2
1.1 Encontrar la proyección ortogonal de v = sobre las rectas generadas por los
    −1
1 1
vectores i) s = y ii) s = . Determinar también la distancia mı́nima Dmin
1 −2
de v a la recta y verificar que v − Ps (v) es ortogonal a s.
1.2 Idem anterior para:    
    1 1
1 3 2 1
i) s = 2, v = 0 ii) s = 
−1, v = 1
  
1 3
2 1
 
x
1.3 Encontrar la proyección ortogonal de un vector genérico v = ∈ R2 sobre la
  y
1
recta y = 2x (es decir, la recta generada por s = ) y determinar la distancia
2
mı́nima de v a dicha recta.
     
x  1 
1.4 Encontrar la proyección ortogonal de v = y  ∈ R3 sobre la recta c 1 , c ∈ R ,
z 1
 
y determinar la distancia mı́nima de v a dicha recta.
1.5 a) ¿Si v pertenece a la recta generada por s, ¿cual es su proyección ortogonal Ps (v)?
b) ¿Si v es ahora ortogonal a s, ¿Cual es su proyección ortogonal Ps (v)?
s·v
1.6 a) Mostrar que la proyección ortogonal Ps : Rn → Rn dada por Ps (v) = s·s s
(con s 6= 0) es una transformación lineal.
b) ¿Cual es su imagen? ¿Cual es su núcleo?
c) Hallar explı́citamente la matriz representativa de Ps en la base canónica en los
ejercicios 1.3 y 1.4, junto con su núcleo e imagen. Interpretarlos geométricamente.
1.7 a) Mostrar que |Ps (v)| = |v| | cos θ|, con θ el ángulo entre v y s.
b) Mostrar que Pαs (v) = Ps (v) ∀ α ∈ R, α 6= 0 (válido ∀ v, s ∈ Rn , s 6= 0).
1.8 Si D2 (c) = |v − cs|2 = |v|2 − 2cv · s + c2 s · s, verificar, minimzando esta función
respecto de c, que su valor mı́nimo se alcanza para c = cp = s · v/s · s. Concluir que
la distancia mı́nima de v a s es Dmin = |v − Ps (v)|.

1.2 Bases ortogonales y método de ortogonalización de


Gram-Schmidt
Al proyectar un vector v sobre una recta (que pasa por el origen) dirigida por un
vector s, se descompone al vector v en dos componentes ortogonales:
v = Ps (v) + (v − Ps (v))
con Ps (v)·(v−Ps (v)) = 0. Extenderemos ahora esta idea a una base formada por vectores
ortogonales.

5
Definición. Los n vectores no nulos b1 , b2 , . . . , bn son mutuamente ortogonales si todo par de
vectores son ortogonales:
bi · bj = 0 ∀ i 6= j
Es fácil ver que si son no nulos y ortogonales, el conjunto {b1 , b2 , . . . , bn } es necesariamente
linealmente independiente: Si consideramos la combinación lineal nula

c1 b1 + c2 b2 + . . . + cn bn = 0

entonces, multiplicando escalarmente por bi ambos miembros y usando la ortogonalidad para i 6= j,

bi · (c1 b1 + c2 b2 + . . . + cn bn ) = bi · 0
⇒ ci (bi · bi ) = 0

lo que implica ci = 0 ya que bi · bi = |bi |2 6= 0. Esto vale para todo i = 1, . . . , n.

En consecuencia, un conjunto de n vectores ortogonales en un espacio de dimensión n es


necesariamente una base del mismo, ya que son linealmente independientes, y todo conjunto
de n vectores linealmente independientes en un espacio de dimensión n es una base.

Definición. Una base ortogonal B = {b1 , . . . , bn } de un espacio vectorial V es una base formada
por vectores mutuamente ortogonales.

La gran ventaja de tener una base ortogonal B es que si v ∈ V , entonces las coordenadas
de v en esta base, es decir los coeficientes αi en la expansión

v = α 1 b1 + α 2 b2 + . . . + α n bn

pueden obtenerse directamente mediante productos escalares, sin necesidad de resolver


un sistema de ecuaciones: Por ser la base ortogonal, se cumple que

bi · v = bi · (α1 b1 + α2 b2 + . . . αn bn )
= αi (bi · bi )

Por lo tanto, dado que bi · bi = |bi |2 6= 0,

bi · v
αi = , i = 1, . . . , n
bi · bi
Se cumple entonces que
bi · v
α i bi = bi = Pbi (v) , i = 1, . . . , n
bi · bi
Es decir, cada término αi v en la expansión v = α1 b1 + . . . + αn bn es la proyección ortogonal
de v sobre la recta generada por bi .
Además, por la ortogonalidad se cumple también que

|v|2 = v · v
= α21 |b1 |2 + α22 |b2 |2 + . . . + α2n |bn |2
6
Definición. Una base B = {b1 , . . . , bn } de un espacio vectorial V se dice ortonormal si es una
base ortogonal y además los n vectores bi tienen longitud 1:

0 i 6= j
bi · bj = , i, j = 1, . . . , n
1 i=j

En este caso, las fórmulas anteriores se simplifican aun más: Si v ∈ V , los coeficientes αi en

v = α 1 b1 + α 2 b2 + . . . + α n bn

se reducen, dado que |bi |2 = bi · bi = 1 ∀ i, a

α i = bi · v , i = 1, . . . , n

con αi bi = Pbi (v) = (bi · v) bi . Además:

|v|2 = v · v = α21 + α22 + . . . + α2n


    

 1 0  

 0 0 
La base canónica de Rn , Bc = e1 =  ..  , . . . , en =  ..  es un ejemplo de base ortonormal.
   

 .  .  
 
 0 1 

    
1 −1
Ejemplo 1.2.1 La base B = b1 = , b2 = es una base ortogonal de R2 ,
1 1
b1 ·b2 = 0, y b1 6= 0, b2 6= 0. No es ortonormal, ya que b1 · b1 = b2 · b2 = 2 6= 1.
ya que 
x
Si v = ∈ R2 , podemos escribir v como
y
   
1 −1
v = α1 + α2
1 1
donde los coeficientes α1 , α2 (las coordenadas de v en esta base) pueden obtenerse como
   
 x  x
1 1 · −1 1 ·
b1 · v y x+y b2 · v y −x + y
α1 = = = , α2 = = =
b1 · b1 2 2 b2 · b2 2 2
Por lo tanto,    
x+y 1 y − x −1
v= +
2 1 2 1
Además, |v|2 = x2 + y 2 = 2(α21 + 
α22 ).    
0 1 −1
Ejemplo 1.2.2 La base B = = b01 √1 0
, b 2 = √21
es una base ortonor-
21 1
mal de R2 , ya que b01 · b02 = 0, y además b01 ·b01 = b02 · b02 = 1. Es la base canónica de R2
x
rotada 45o en sentido antihorario. Si v = ∈ R2 , podemos escribir v como
y
   
0 1 1 0 1 −1
v = α1 √ + α2 √
2 1 2 1

7
donde los coeficientes α01 , α02 (las coordenadas de v en esta base) están dadas por
   
0 0 1  x x+y 0 0 1  x −x + y
α 1 = b1 · v = √ 1 1 · = √ , α2 = b2 · v = √ −1 1 · = √
2 y 2 2 y 2
Por lo tanto,    
x+y 1 1 y − x 1 −1
v= √ √ + √ √
2 2 1 2 2 1
Además, |v|2 = x2 + y 2 = α01 2 + α02 2 .

Método de ortogonalización de Gram-Schmidt


Todo conjunto de n vectores mutuamente ortogonales y no nulos de Rn es una base
de Rn , pero no toda base de Rn es un conjunto de vectores mutuamente ortogonales. No
obstante, es siempre posible ortogonalizar la base.

Método de Gram-Schmidt. Dado un conjunto M = {v1 , . . . , vm } linealmente independiente


de m vectores vi ∈ V , que generan un subespacio Sm ⊂ V de dimensión m, los m vectores

k1 = v1
k1 · v2
k2 = v2 − Pk1 (v2 ) = v2 − k1
k1 · k1
k1 · v3 k2 · v3
k3 = v3 − Pk1 (v3 ) − Pk2 (v3 ) = v3 − k1 − k2
k1 · k1 k2 · k2
.. ..
. .
m−1 m−1
X X ki · vm
km = vm − Pki (vm ) = vm − ki
i=1 i=1
ki · ki

forman una base ortogonal del mismo subespacio Sm (del cual M es una base no ortogonal):

ki · kj = 0 ∀ i 6= j
Demostración: Partiendo de k1 = v1 , se propone k2 = v2 −αk1 , con α determinado por la condición

k1 · k2 = k1 · v2 − αk1 · k1 = 0

De aqui se obtiene α = (k1 · v2 )/(k1 · k1 ), y por lo tanto la expresión anterior paraPk2 .


i−1
Se procede en forma análoga con los restantes vectores: proponiendo ki = vi − j=1 αj ki para
2 ≤ i ≤ m, las
Pi−1condiciones k j · ki = 0 para j < i conducen a α j = (k j · vi )/(kj · k j ) y por lo tanto
a ki = vi − j=1 Pkj (vi ).
La expresión final es clara: a cada vector vi se le restan sus proyecciones ortogonales sobre los
vectores kj anteriores, de forma que ki contenga solo la componente de vi ortogonal a todos ellos.
Notemos que ki 6= 0, ya que si ki = 0, vi serı́a combinación lineal de los vectores anteriores, lo que
es imposible por ser M linealmente independiente. Además, por ser ortogonales y no nulos, los m
vectores ki son también linealmente independientes. Y generan el mismo espacio Sm , ya que son
todos combinaciones lineales de los vectores de M .
Si m = n = dim V , se obtiene ası́ una base ortogonal del espacio completo. √
Para obtener una base ortonormal, basta normalizar luego los vectores: ki → ki0 = ki / ki · ki .

8
    
 1 1 
Ejemplo 1.2.3 Consideremos M = v1 = 1 , v2 = 2 . Este conjunto es li-
  
1 0
 
nealmente independiente pero no ortogonal, siendo la base de un subespacio S2 de di-
mensión 2 de R3 (plano que pasa por el origen). Mediante el método anterior, podemos
obtener una base ortogonal de S2 : tenemos k1 = v1 y
 
 1
  1 1 1 · 2        

1 0 1 1 1 0
k2 = v2 − Pk1 (v2 ) = 2 −
    1 = 2 − 1 =
       1
0  1 1 0 1 −1
1 1 1 · 1
1
3
que resulta ortogonal a k1 = v1 . Si se desea ahora
 una
 base ortogonal de R que
1
contenga a k1 y k2 , podemos considerar por ej. v3 = 0, ya que {v1 , v2 , v3 } resulta

0
linealmente independiente. Se obtiene (notar que con esta elección k2 · v3 = 0)
       
1 1 0 2
1 1
k3 = v3 − Pk1 (v3 ) − Pk2 (v3 ) = 0 − 1 − 0  1  = −1
3 3
0 1 −1 −1

k1 √
que es ortogonal a k1 y k2 . Y el conjunto { √ 3
, k22 , √3k3
2
} es una base ortonormal de R3 .

Ejercicios 1.2

2.1 Determinar una base ortogonal


 del
 espacio
 generado por los vectores
    1 1 
 1 1 


        
1 0 1 1

a) 1 , −1 , b)  ,  c) ,
 1  0 
 1 2
1 1
  
 
1 0
 

2.2 Determinar una base ortonormal de R3 que contenga al vector (1, −1, 1).

2.3 a) Hallar una base ortogonal del plano S = {(x, y, z) ∈ R3 , x + y − 2z = 0}.


b) Expresar un vector general v = (x, y, z) ∈ S como combinación lineal de los
vectores de la base hallada en a).

2.4 Determinar una base ortogonal de R3 que contenga a la base de S hallada en 2.3.a).
T T
2.5 Hallar un vector v que sea ortogonal a v1 = 1 1 1 1 y a v2 = 1 2 3 2 .

2.6 Explicar lo que ocurre cuando se aplica el método de Gram-Schmidt


aunconjunto
   li- 
 1 2 2 
nealmente dependiente. Como ejemplo, aplicarlo al conjunto M =  2 , 1 , 7 .
   
1 2 2
 

9
2.7 Una gran ventaja de las bases ortonormales es que ellas simplifican la representación
de un vector con respecto a esa base. Por ejemplo,
     
1 1 1
(a) Representar v = respecto de la base no ortogonal B = , de R2 .
3 1 0
Mostrar que v NO es la suma de proyecciones ortogonales sobre cada vector de B.
     
1 o 1 1
(b) Representar ahora v = respecto de la base ortogonal B = , .
3 1 −1
Mostrar que en este caso el vector SÍ es la suma de proyecciones ortogonales sobre
cada vector de esta base.
(c) Mostrar que para una base ortogonal general B o = {k1 , . . . , km } de un subespacio
S de Rn de dimensión no nula m ≤ n, todo vector v ∈ S se escribe en la forma
v = Pk1 (v) + . . . + Pkm (v)
= α1 k1 + . . . + αm kn
donde Pki (v) = projki (v) = αi ki con
ki · v
αi = , i = 1, . . . , m
ki · ki
(Sugerencia: considerar el producto ki ·v y usar la ortogonalidad ki ·kj = 0 si i 6= j).
El resultado vale también para m = n (S = Rn ).
2.8 Mostrar que las columnas de una matriz A de n × n ortogonal forman una base
ortonormal de Rn si y sólo si A−1 = AT . Por ejemplo, la siguiente matriz es ortogonal:
 √ √ 
1/√2 −1/√ 2 0
A = 1/ 2 1/ 2 0
0 0 1

1.3. Subespacios ortogonales. Proyección sobre un subespacio


Al proyectar un vector sobre una recta, se lo descompone en dos partes: una que yace
sobre la recta, Ps (v), y la restante v − Ps (v) que es ortogonal a la recta. Para generalizar
a subespacios arbitrarios, se sigue la misma idea.

Definición. Dos subespacios S1 y S2 de Rn son ortogonales si todo vector de S1 es


ortogonal a todo vector de S2 , es decir, si ∀ v ∈ S1 y ∀ w ∈ S2 se cumple v · w = 0.

Por ejemplo, en R2 el eje x, Sx = {(x, 0), x ∈ R}, es ortogonal al eje y, Sy = {(0, y), y ∈ R},
ya que el primero contiene vectores de la forma v = (x, 0) y el segundo w = (0, y),
cumpliéndose que v · w = 0 ∀ x, y.
Y la recta y = 2x es ortogonal a la recta y = −x/2, ya que la primera contiene vectores
de la forma v = (x, 2x) y la segunda w = (−2y, y), cumpliéndose v · w = 0 ∀ x, y.

Y en R3 , el eje z es perpendicular al eje x y también al plano x y. En general, la recta


r = tn, con r = (x, y, z), t ∈ R y n 6= 0, es perpendicular al plano r · n = 0 (probar!).

10
Definición. El complemento ortogonal de un subespacio S ⊂ Rn se define como el
conjunto de vectores de Rn ortogonales a todo vector de S:

S⊥ = {w ∈ Rn | w es perpendicular a todos los vectores de S }

= {w ∈ Rn | w · v = 0 ∀ v ∈ S }

Es fácil ver que S⊥ es siempre un subespacio de Rn (probar!).

Ası́, en los ejemplos anteriores se verifica que en R2 , el eje y es el complemento ortogonal


del eje x y la recta y = −x/2 el complemento ortogonal de la recta y = 2x.
Y en R3 , el plano xy es el complemento ortogonal del eje z (y el eje z el complemento
ortogonal del plano xy), y la recta r = tn el complemento ortogonal del plano r · n = 0
(y viceversa).

Definición. La proyección ortogonal PS (v) de un vector v ∈ Rn sobre un subespacio


S ⊂ Rn , es la proyección sobre S a lo largo de S⊥ , de forma que se cumpla

PS (v) ∈ S, v − PS (v) ∈ S⊥

Ası́, todo vector v ∈ Rn puede escribirse como suma de un vector de S y otro de S⊥ :

v = PS (v) + (v − PS (v))

El vector PS (v) es entonces el vector de S más cercano a v, y la distancia mı́nima


de v a S es
Dmin = |v − PS (v)|

donde |u| = u · u denota la longitud del vector u.

11
En efecto, la distancia al cuadrado de v a un vector arbitrario wS ∈ S es

D2 = |v − wS |2
= |v − PS (v) − (wS − PS (v))|2
= |v − PS (v)|2 + |wS − PS (v)|2
≥ |v − PS (v)|2

donde hemos utilizado que v − PS (v) es ortogonal a wS − PS (v) dado que v − PS (v) ∈ S⊥
y wS − PS (v) ∈ S. La distancia mı́nima se obtiene entonces para wS = PS (v), en cuyo
caso D = |v − PS (v)| = Dmin .

Veamos ahora como proyectar sobre S. Sea BS = {k1 , . . . , km } una base ortogonal de
S. Entonces, como PS (v) ∈ S,

PS (v) = α1 k1 + . . . + αm km

con ki · PS (v) = αi ki · ki . La condición v − PS (v) ∈ S⊥ implica

ki · (v − PS (v)) = 0 , i = 1, . . . , m

es decir, ki · v = ki · PS (v) = αi ki · ki , de donde

ki · v
αi = , i = 1, . . . , m
ki · ki
Entonces αi ki = Pki (v), por lo que

k1 · v1 km · vm
PS (v) = Pk1 (v) + . . . + Pkm (v) = k1 + . . . + km
k1 · k1 km · km
es decir, PS = Pk1 + . . . + Pkm . La proyección ortogonal de v sobre S es pues la suma de
las proyecciones ortogonales de v sobre los vectores de una base ortogonal de S.

Para obtener PS (v), basta entonces con disponer de una base ortogonal de S, y sumar
las proyecciones sobre los vectores de esta base. Y para obtener una base ortogonal de S,
puede aplicarse Gram-Schmidt a una base arbitraria de S.

Ejemplo 1.3.1. Sea S = {(x, y, z) ∈ R3 , x+y+z = 0}. Este es un plano perpendicular


a n = (1, 1, 1) que pasa por el origen. Como x = −y − z, podemos escribir
      
 x −1 −1 
S = y  = y  1  + z  0  , y, z, ∈ R
z 0 1
 

12
   
 −1 −1 
Por lo tanto, BS =  1 , 0  es una base de S, no ortogonal. Mediante Gram-Schmidt,
 
0 1
 
podemos llegar a la base ortogonal (probar!)
    
 −1 −1 
BSo = k1 =  1  , k2 = −1
0 2
 

De esta forma
k1 · v k2 · v
PS (v) = Pk1 (v) + Pk2 (v) = k1 + k2
k1 · k1 k2 · k2
 
0
Por ejemplo, para v =2,  
−2
4 2 6
PS (v) = k1 + k2 =  0
2 6
2
y la distancia mı́nima de v a S es
√ √
Dmin = |v − PS (v)| = 12 = 2 3

Dimensión de S⊥ . Si ahora BS⊥ = {km+1 , . . . , kp } es una base ortogonal de S⊥ , entonces


v − PS (v) = αm+1 km+1 + . . . + αp kp
con αj = kj · v/(kj · kj ) para j = m + 1, . . . , p ya que kj · PS (v) = 0. Podemos ası́ escribir
cualquier vector v ∈ Rn como
v = PS (v) + (v − PS (v))
= α1 k1 + . . . + αm km + αm+1 km+1 + . . . + αp kp (∗)
Es fácil ver ahora que B = BS ∪ BS⊥ = {k1 , . . . , km , km+1 , . . . , kp } es una base de Rn :

a) La expresión (*) muestra que el conjunto {k1 , . . . , km , km+1 , . . . , kp } genera Rn , ya que todo
v ∈ Rn puede escribirse como combinación lineal de ellos.
b) El conjunto {k1 , . . . , km , km+1 , . . . , kp } es linealmente independiente, ya que son todos no
nulos y ortogonales entre si (ki · kj = 0 si ki ∈ BS y kj ∈ BS⊥ , por pertenecer a subespacios
ortogonales, y además ki · kj = 0 si i 6= j y ambos pertenecen al mismo subespacio, ya que
forman una base ortogonal del mismo).

Por lo tanto p = n y entonces dim S⊥ = p − m = n − dim S, o sea,


dim S + dim S⊥ = n
La suma de las dimensiones de un subespacio S y de su complemento ortogonal S⊥ es siempre
la dimensión total del espacio. Además, se tiene
PS + PS⊥ = In
con In la identidad de n × n y PS⊥ = Pkm+1 + . . . + Pkn = In − PS el proyector sobre S⊥ .

Ejemplo 1.3.2.. Siguiendo con el ej. 1.3.1, setiene


  ⊥
S = {t(1, 1, 1), t ∈R}, ya que S es el
     
 1   −1 −1 1 
plano ortogonal a n = (1, 1, 1). Por lo tanto, BS⊥ =1 y B = BSo ∪BS⊥ = 1  , −1 , 1
1 0 2 1

es una base ortogonal de R3 , cumpliéndose que dim S = 2, dim S⊥ = 1 y dim S + dim S⊥ = 3.

13
Ejemplo 1.3.3. Espacio fila y espacio nulo de una matriz A ∈ Rm×n .

Si S = EF (A) ⊂ Rn es el espacio fila de A, su espacio nulo N u(A) = {X ∈ Rn , AX = 0}


(el conjunto solución del sistema homogéneo asociado) es el espacio ortogonal S⊥ .

En efecto, AX = 0 implica que X debe ser ortogonal a todas las filas de A, por lo que X
será ortogonal a cualquier vector de S = EF (A), es decir, del espacio generado por las filas. La
relación dimensional dim S + dim S⊥ = n implica entonces

dim EF (A) + dim N u(A) = n

Pero esta igualdad es el teorema rango-nulidad, ya que dim EF (A) = r(A) (rango de A) y
dim N u(A) = nul(A) (nulidad de A).

Obtención de S⊥ . Sea BS = {v1 , . . . , vm } una base arbitraria de un subespacio S de


Rn de dimensión m. Para obtener S⊥ , deben resolverse las ecuaciones
vi · w = 0, i = 1, . . . , m
ya que esto asegura que w será ortogonal a todo vector de S (justificar!).
Sea A = (v1 , . . . , vm ) la matriz de n×m formada por los m vectores de la base puestos
en columna. Entonces AT de m × n tendrá los m vectores vi en forma de fila (tal que
S = EC(A) = EF (AT )). Si escribimos w como vector columna de n × 1, las m ecuaciones
anteriores equivalen al sistema de m × n
AT w = 0
Su conjunto solución N u(AT ) (espacio nulo de AT ) es entonces S⊥ , y una base de N u(AT )
será una base de S⊥ .

Ejemplo 1.3.4. Consideremos nuevamente el subespacio S del ejemplo 1.3.1.


   
 −1 −1 
Tenemos BS = 1  ,  0 . Por lo tanto, una forma de hallar S⊥ es resolver el
0 1
   
T T −1 1 0 x
sistema A w = 0, con A = y w =y . Se obtiene
−1 0 1 z
 
  x      
−1 1 0   0 −1 1 0 0 −1 1 0 0
y = ⇒ →
−1 0 1 0 −1 0 1 0 0 −1 1 0
z
 
1
 
 1 
que implica y = z, x = z, con z libre. Por lo tanto, w = z 1 y BS⊥ = 1 .
1 1
 

Este resultado coincide con el obtenido en 1.3.2 para BS⊥ a partir de la definición
original de S. Se obtiene también al mismo resultado si se emplea la base ortogonal BSo
en lugar de BS (probar!).

14
Obtención directa de PS (v): Es también posible obtener la proyección ortogonal PS (v)
sobre un subespacio S ⊂ Rn partiendo directamente de una base arbitraria del mismo, no
necesariamente ortogonal. Si BS = {v1 , . . . , vm } es una base de S, entonces

PS (v) = c1 v1 + . . . + cm vm = Ac

donde A = (v1 , . . . , vm ) es la matriz de n × m cuyas m columnas son los vectores de


la base. Entonces la condición de que v − PS (v) sea ortogonal a S equivale a que sea
ortogonal a todo vector vi de BS , lo que implica

AT (v − Ac) = 0

Por lo tanto, AT v − AT Ac = 0, o sea AT Ac = AT v, de donde (ver problema 3.8 a)

c = (AT A)−1 AT v

Finalmente,
PS (v) = A(AT A)−1 AT v
donde la matriz A(AT A)−1 AT , de n × n, es la representación matricial en la base canónica
del operador de proyección ortogonal PS . Esta matriz no depende de la base de S elegida.

Ejemplo 1.3.5.     
 −1 −1 
3
Consideremos de nuevo el subespacio S ⊂ R generado por la base BS =  1 , 0 .
 
0 1
 
En este caso  
−1 −1  
T −1 1 0
A= 1 0, A =
−1 0 1
0 1
   
T 2 1 T −1 1 2 −1
con A A = , (A A) = 3 y
1 2 −1 2
   
−1 −1    2 −1 −1
1 2 −1 −1 1 0 1
A(AT A)−1 AT =  1 0 = −1 2 −1
3 −1 2 −1 0 1 3
0 1 −1 −1 2
 
0
Para v =2 se obtiene
4
    
2 −1 −1 0 −2
1
PS (v) = −1 2 −1  2 =
  0
3
−1 −1 2 4 2
que coincide con el resultado obtenido en el ejemplo 1.3.1.  
−1 −1
Si se emplea la base ortogonal BSo hallada en 1.3.1, A → 1 −1 y AT A se torna
0 2
diagonal, pero la matriz final A(AT A)−1 AT (y por lo tanto PS (v)) no cambia (probar!).
15
Problemas

3.1 Si S = {(x, y, z) ∈ R3 , x + 2y − z = 0},

a) Hallar una base de S.


b) Determinar una base ortogonal de S utilizando Gram-Schmidt.
c) Hallar la proyección ortogonal de v = (1, 1, 1) sobre S y la distancia mı́nima
de v a S (usar las proyecciones sobre los vectores de la base ortogonal).
d ) Verificar el resultado anterior aplicando la fórmula general matricial PS (v) =
A(AT A)−1 AT v, usando en A la base hallada en a).

3.2 Idem anterior para S = {(x, y, z) ∈ R3 , 2x + y = 0} y v = (1, 1, 1).

3.3 Determinar el subespacio ortogonal S⊥ en los dos casos anteriores, y escribir v como
suma de un vector de S y otro de S⊥ .

3.4 Encontrar el subespacio ortogonal S⊥ , si S es el subespacio generado por las bases

a) BS = {(1, 2)} (V = R2 )
b) BS = {(1, 2, 3)} (V = R3 )
c) BS = {(1, 2, 3), (1, 1, 1)} (V = R3 )
d ) BS = {(1, 1, 1, 1), (1, 0, 1, 0)} (V = R4 )
e) Encontrar en todos los casos una base de BS⊥ y verificar que BS ∪ BS⊥ es base
del espacio V , con dim S + dim S⊥ = dim V .

3.5 ¿Cual es el complemento ortogonal del subespacio nulo? ¿Qué es la proyección or-
togonal sobre dicho subespacio?

3.6 Mostrar que si un vector es ortogonal a todos los vectores de una base de un subes-
pacio S, entonces es ortogonal a todo vector de S.

3.7 Mostrar qué el único vector que puede pertenecer a S y a S⊥ es el vector nulo.

3.8 a) Mostrar que las columnas de una matriz A de m × n forman un conjunto


linealmente independiente si y sólo si AT A es no singular.
b) Probar que si las columnas de una matriz A son mutuamente ortogonales y no
nulas, entonces AT A es diagonal y no singular.
c) Mostrar que la matriz de proyección ortogonal PS = A(AT A)−1 AT sobre un
subespacio S es simétrica. ¿En qué caso se reduce a una matriz identidad?
d ) Probar que dicha matriz de proyección es invariante frente a un cambio de base
de S.

3.9 Probar que D2 = |v−Ac|2 es mı́nimo cuando c satisface la ecuación AT (v−Ac) = 0,


o sea, AT Ac = AT v, y que esto implica Ac = PS (v), con S = EC(A) el espacio
columna de A.

16
1.4 Proyección ortogonal y aproximación de cuadrados mı́nimos
La proyección ortogonal de un vector v ∈ Rn sobre un subespacio S ⊂ Rn puede
también verse como la mejor aproximación al vector v basada en un vector de S. Si se
desea aproximar v mediante un vector wS ∈ S, la mejor aproximación se logra eligiendo
wS como el vector de S más cercano a v, y tal vector es entonces la proyección ortogonal

vS = PS (v) .

Un ejemplo es el sistema de n ecuaciones con m incógnitas

Ac = v

donde A es de n × m, c de m × 1 y v de n × 1, con n ≥ m, tal que el número de ecuaciones


es mayor que el número de incógnitas. Si las columnas de A son independientes, entonces
la solución, si existe, es única, pero tı́picamente el sistema será incompatible, ya que las
columnas de A generan sólo un subespacio S = EC(A) de dimensión m < n de Rn .
En estos casos, se elige en general la “solución” de cuadrados mı́nimos, que es la
que minimiza la cantidad
D2 = |v − Ac|2
Pero D2 es el cuadrado de la distancia de v a un vector Ac de S, y por lo tanto la distancia
mı́nima se logra para c tal que Ac sea la proyección ortogonal de v sobre S:

Ac = PS (v)

de forma que
D = |v − PS (v)| = Dmin
Utilizando las formulas de la sección anterior tenemos que tal c estará dado por

c = (AT A)−1 AT v

es decir, c es la solución del sistema cuadrado de m × m

AT Ac = AT v

donde AT A es de m × m y no singular.

Un ejemplo corriente de aplicación es el ajuste de los valores f (xi ) de una función


f : R → R para un conjunto de puntos (x1 , . . . , xn ), por un polinomio de grado k,

P (x) = c0 + c1 x + c2 x2 + . . . + ck xk (I)

con k normalmente menor o mucho menor que n, y c0 , . . . , ck los coeficientes a ajustar.


Lo que se desea es elegir el polinomio que minimiza la suma de la diferencia de cuadrados
n
X
2
D = [f (xi ) − P (xi )]2 (II)
i=1

17
ya que en general no existirá un polinomio de grado k < n−1 que reproduzca exactamente
los n datos f (xi ), es decir, que satisfaga

P (xi ) = f (xi ) i = 1, . . . , n (III)

Las ecuaciónes (III) forman un sistema de ecuaciones lineales en los coeficientes ci de


P (x):
c0 + c1 xi + c2 x2i + . . . + ck xki = f (xi ), i = 1, . . . , n
que puede escribirse en forma matricial como

Ac = f (IV)

con      
1 x1 . . . xk1 c0 f (x1 )
1 x2 . . . xk2   c1   f (x2 ) 
A =  .. .. , c = , f =
     
. . . . . ..   ..   .. 
.   .   . 
k
1 xn . . . xn ck f (xn )
siendo A de n×m, c de m×1 y f de n×1, con m = k +1. El sistema (IV) es normalmente
incompatible ya que en general k < n y tı́picamente k  n.
La cantidad (II) resulta ası́ la distancia al cuadrado entre los vectores f y Ac:

D2 = |f − Ac|2

El vector c que minimiza D2 es pues aquel tal que Ac = PS (f ), donde S es el subespacio


de Rn generado por las m columnas de A. Está dado entonces por

c = (AT A)−1 AT f (V)

y el valor mı́nimo de D por


Dmin = |f − PS (f )|
con PS (f ) = Ac = A(AT A)−1 AT f .

Notemos que AT A es una matriz simétrica de m × m, y AT f un vector de m × 1, de


elementos n n
X j+l−2
X
T
(A A)jl = xi T
, (A f )j = xj−1
i f (xi )
i=1 i=1

con j, l, = 1, . . . , m y m = k + 1.
Nótese que la dimensión de AT A depende sólo del grado del polinomio y no del número
de puntos a ajustar. Por ejemplo, si k = 2, P (x) = c0 + c1 x + c2 x2 es un polinonio de
grado 2 y AT A es de 3 × 3, independientemente del número n de valores a ajustar.

18
Se muestra en la figura la aproximación de 11 datos f (xi ) por medio de un polinomio de
grado 2 y uno de grado 4. No obstante, debe tenerse en cuenta que si los datos no exhiben
un comportamiento polinomial, el ajuste puede presentar oscilaciones, cuya magnitud
puede aumentar al incrementarse el grado k del polinomio. La matriz AT A se torna
también mal condicionada al aumentar k.

fHxL fHxL
f Hxi L f Hxi L
8 8
c0 +c1 xi +c2 x2i c0 +c1 xi +c2 x2i +c3 x3i +c4 x4i
6 6

4 4

2 2

x x
-1.5 -1.0 -0.5 0.5 1.0 1.5 -1.5 -1.0 -0.5 0.5 1.0 1.5

El formalismo anterior puede extenderse a un ajuste basado en la combinación lineal


de funciones linealmente independientes gj (x), reemplazando P (x) por

G(x) = c1 g1 (x) + . . . + cm gm (x)

En este caso Aij = gj (xi ), y el formalismo puede aplicarse si AT A es no singular, con


n
X n
X
T T
(A A)jl = gj (xi )gl (xi ) , (A f )j = gj (xi )f (xi ) , j, l = 1, . . . , m
i=1 i=1

Ejercicios
4.1 Verifique que la minimización de D2 (II) respecto de los coeficientes cj conduce a la
solución (V).
4.2 Determine el polinomio P2 (x) = c0 + c1 x + c2 x2 que minimiza D2 si los datos son
f (−1,5) = 8,5, f (−0,9) = 2,5, f (−0,3) = 1, f (0) = 0,5, f (0,3) = 0,6, f (0,9) = 1,5,
f (1,5) = 3 (Utilice PC). Estos corresponden a la posición (en una cierta escala) en distintos
tiempos de un móvil con aceleración variable. Si la aceleración fuese constante, ¿como serı́a
el ajuste con este polinomio?

19
Facultad de Ingenierı́a
UNLP

Matemática C

VII Números Complejos


2

7.1. Conceptos básicos


7.1.1. Introducción
Los números complejos constituyen una extensión de los números reales, que permi-
te obtener todas las raı́ces de cualquier polinomio. El conjunto de números complejos,
denotado por la letra C, forma ası́ lo que se denomina un conjunto algebraicamente ce-
rrado. Geométricamente, un número complejo puede representarse mediante un punto
en un plano. El concepto de número compejo extiende pues la recta real a un espacio
bidimensional, denominado plano complejo.
Los números complejos son además utilizados, como veremos, en la representación
de funciones trigonométricas y por ende, de funciones periódicas, siendo por lo tanto su
uso muy extendido en Ingenierı́a y Fı́sica (representación de corriente alterna, análisis de
Fourier, etc.). Asimismo, proporcionan una representación alternativa de vectores en dos
dimensiones, la cual resulta muy conveniente en ciertos problemas bidimensionales (utili-
zada por ejemplo en dinámica de fluidos, electromagnetismo, etc.). La Mecánica Cuántica
está también formulada en términos de una función de onda compleja. En este curso
los utilizaremos en los próximos dos capı́tulos (autovalores y ecuaciones diferenciales).
Históricamente, su introducción se atribuye al matemático italiano Girolamo Cardano
(siglo XVI), en el marco de su solución de ecuaciones cúbicas y cuárticas.

7.1.2. Definición
Comenzamos por definir el número i (unidad imaginaria), que satisface

i2 = −1

De esta forma, la ecuación


z 2 = −1
tendrá las raı́ces z = i y z = −i. Mencionemos que en ciertos contextos se utilizan otras
notaciones para la unidad imaginaria (por ejemplo, en ingenierı́a eléctrica se utiliza j en
lugar de i, ya que i denota la corriente eléctrica).
Un número complejo es de la forma

z = x + y i, x, y ∈ R

donde tanto x como y son números reales. La parte real de z es x, y la parte imaginaria
de z es y (también un número real!):

Re(z) = x, Im(z) = y

Ejercicio: Hallar la parte real e imaginaria de a) z = −2 − 3i, b) z = −i.

Un número complejo cuya parte imaginaria es 0 es identificado como un número real.


Por ejemplo, 5 = 5 + 0i, 0 = 0 + 0i.
También, 0 + yi = yi. Un número complejo no nulo cuya parte real es 0, tal como 5i, se
7.1. CONCEPTOS BÁSICOS 3

dice que es imaginario o imaginario puro.


Además, yi = iy, y x + yi = yi + x. Por ejemplo, 1 + 2i = 1 + i2 = 2i + 1.

Dos números complejos z1 = x1 + iy1 , z2 = x2 + iy2 , son iguales si y sólo si tanto sus
partes reales como imaginarias son respectivamente iguales:

x1 + y 1 i = x2 + y 2 i ⇔ x1 = x2 , y 1 = y 2 (x1 , x2 , y1 , y2 ∈ R)

Por ejemplo, x + yi = 2 + 3i implica x = 2, y = 3 si x e y son reales.

Como hemos mencionado, el conjunto de todos los números complejos se denota


con la letra C:
C = {x + iy, x ∈ R, y ∈ R} ImHzL
Podemos representar un número complejo z = x + yi z=x+yi
mediante un par ordenado (x, y). Este par corresponde y
a un punto o vector en el plano cartesiano, que en este
contexto se denomina plano complejo.

ReHzL
0 x

7.1.3. Conjugación
El conjugado de un número complejo z = x + iy se lo denota como z̄ o z ∗ , y se lo
define como
z̄ = x − iy
de forma que Re(z̄) = Re(z), Im(z̄) = −Im(z). ImHzL
z=x+yi
y
Por ejemplo, i = −i, 1 + 2i = 1 − 2i y 1 − 2i = 1 + 2i y .

Geométricamente, conjugar corresponde a reflejar z


respecto del eje real. 0 ReHzL
x

-y
Obviamente, z̄¯ = z (o sea, (z ∗ )∗ = z). z=x-yi
4

7.1.4. Suma de números complejos


Dados dos números complejos z1 = x1 + y1 i, z2 = x2 + y2 i, su suma se define como

z1 + z2 = (x1 + x2 ) + (y1 + y2 )i ImHzL


z1 +z2
Por ejemplo, (1 + 2i) + (3 − 4i) = 4 − 2i.
z2
Geométricamente, z1 + z2 corresponde al vector suma de los
vectores que representan a z1 y z2 .

z1
ReHzL
0
La resta z1 − z2 es la suma de z1 y el opuesto −z2 = −x2 − y2 i
de z2 :
z1 − z2 = (x1 − x2 ) + (y1 − y2 )i
Por ejemplo, (1 + 2i) − (3 − 4i) = −2 + 6i, (1 + 2i) − (1 + 2i) = 0.
Ejercicio: Indique el significado geométrico de z1 − z2 .

Problema 1: Mostrar que el conjugado de una suma es la suma de los conjugados: y que
el conjugado de una resta es la resta de los conjugados:

z1 ± z2 = z 1 ± z 2

Problema 2: Mostrar que es posible expresar la parte real y la parte imaginaria de un


número complejo z en términos de z y su conjugado z̄:
z + z̄ z − z̄
Re(z) = , Im(z) =
2 2i

7.1.5. Producto de dos números complejos


A partir de la propiedad básica i2 = −1, el producto de dos números complejos
z1 z2 = (x1 + y1 i)(x2 + y2 i) se realiza aplicando la propiedad distributiva (respecto de la
suma) y asociativa (respecto del producto):

(x1 + y1 i)(x2 + y2 i) = x1 (x2 + y2 i) + y1 i(x2 + y2 i)


= x1 x2 + x1 y2 i + y1 x2 i − y1 y2
= (x1 x2 − y1 y2 ) + (x1 y2 + y1 x2 )i (1.1)

Por ejemplo,

(1 + 2i)(3 − 4i) = 3 − 4i + 2i(3 − 4i) = 3 − 4i + 6i + 8


= 11 + 2i (1.2)

Problema 3: Probar que a) z1 z2 = z2 z1 b) z1 (z2 z3 ) = (z1 z2 )z3 c) z1 (z2 +z3 ) = z1 z2 +z1 z3


7.1. CONCEPTOS BÁSICOS 5

Problema 4: Probar que el conjugado de un producto es el producto de los conjugados:

z1 z2 = z 1 z 2

En particular, el producto de un número complejo z por un número real α,

α(x + yi) = αx + αyi

corresponde, geométricamente, a la multiplicación del vector que representa a z por el


escalar real α. Por ejemplo, 3(1 + i) = 3 + 3i.
ImHzL
Por otro lado, el producto de un número complejo z
por la unidad imaginaria i, i z=-y+xi
i(x + yi) = −y + xi
z=x+yi
corresponde, geométricamente, a rotar el vector que
representa a z un ángulo de 90o en sentido antihorario. А2
Por ejemplo, i1 = i, ii = −1, i(1 + i) = −1 + i. ReHzL
0
Problema 5: Probar el enunciado general anterior, recordando que
la matriz que representa a dicha rotación en la base canónica de R2 es
 
0 −1
R= (1.3)
1 0

de forma que R(xy ) = (−y


x ).
En consecuencia, multiplicar un número complejo z por un número imaginario αi (α real)
corresponde, geométricamente, a rotar z un ángulo de 90o en sentido antihorario y luego
multiplicar el vector resultante por el escalar real α.

El significado geométrico de multiplicar a z por un número complejo arbitrario,


(α+iβ)z = αz +iβz, puede obtenerse sumando αz y el vector rotado iβz, pero es más fácil
visualizar el resultado final por medio de la representación polar de un número complejo,
que discutiremos luego.
Potencias de i: Las potencias pares son reales: i2 = −1, i4 = (i2 )2 = 1 y en general,

i2n = (i2 )n = (−1)n (1.4)

Las potencias impares son en cambio imaginarias: i1 = i, i3 = (i2 )i = −i y en general,

i2n+1 = i2n i = (−1)n i (1.5)

Ejercicio: Graficar las potencias de i en el plano complejo.


6

7.1.6. Valor absoluto de un número complejo


El valor absoluto (o módulo) de un número complejo z se define como
p
|z| = x2 + y 2 (1.6)

y es la longitud del vector que lo representa en el plano √ El módulo |z| es siempre


√ complejo.
2 2
un número real no negativo. Por ejemplo: |3+4i| = 3 + 4 = 25 = 5, |i| = 1, |−2| = 2.

Es posible expresar |z| mediante z y su conjugado z̄ como



|z| = z z̄

En efecto, si z = x + yi, con x, y reales, z z̄ = (x + yi)(x − iy) = x2 − (iy)2 = x2 + y 2 = |z|2 .

Problema 6: Probar que |z| = 0 si y sólo si z = 0.


Problema 7: Probar que |z̄| = |z|.
Problema 8: Para z1 , z2 complejos generales, probar que

|z1 z2 | = |z1 ||z2 |

||z1 | − |z2 ||| ≤ |z1 + z2 | ≤ |z1 | + |z2 |


Problema 9: Probar que |z1 − z2 | es, geométricamente, la distancia entre z1 y z2 .

7.1.7. Inverso de un número complejo


El inverso (o recı́proco) z −1 de un número complejo z 6= 0 es el número complejo que
satisface
zz −1 = 1
Para obtenerlo, vimos en el punto anterior que z z̄ = |z|2 6= 0 si z 6= 0. Por lo tanto,

z(z̄/|z|2 ) = |z|2 /|z|2 = 1

de donde
z̄ x − yi
z −1 = 2
= 2 , z 6= 0 (1.7)
|z| x + y2

Notamos aquı́ que el cociente z/α de un número complejo z = x + yi por un número real
α 6= 0 se define como (1/α)z, es decir, z/α = x/α+(y/α)i. Por ejemplo, (2+4i)/2 = 1+2i.

Problema 10: Si z = x + yi 6= 0, probar, escribiendo z −1 = a + ib, que la ecuación


zz −1 = 1 (o sea, xa − yb + (xb + ya)i = 1 + 0i) implica necesariamente a = x/|z|2 ,
b = −y/|z|2 .

Podemos ahora definir


1 z
= z −1 = 2
z |z|
7.1. CONCEPTOS BÁSICOS 7

1
resultado que puede obtenerse multiplicando numerador y denominador de z
por z̄. Por
−i
ejemplo, 1i = −i 2 = −i:
1
= −i
i
verificándose que i(−i) = −i2 = 1. Como segundo ejemplo,
1 1 1−i 1−i 1 1
= = = − i
1+i 1+i1−i 2 2 2
verificándose que (1 + i)(1 − i)/2 = 1.

Problema 11: Probar que para z 6= 0,


 
1 1
=
z z

1
= 1
z |z|

7.1.8. Cociente de dos números complejos


Dados ahora dos números complejos z1 y z2 , con z2 6= 0, definimos el cociente como
z1 z1 z̄2
= z1 z2−1 =
z2 |z2 |2
(x1 + iy1 )(x2 − iy2 )
= (1.8)
x22 + y22
En la práctica, se obtiene este resultado multiplicando numerador y denominador por z̄2 .
Por ejemplo:
1+i (1 + i)(3 − 4i) 7−i
= =
3 + 4i (3 + 4i)(3 − 4i) 25
Problema 12: Probar que para z2 6= 0,
 
z1 z1 z1 |z1 |
= , =
z2 |z2 |
z2 z2

7.1.9. Representaciones reales y propiedades algebraicas


El conjunto C de los números complejos puede ser considerado como el conjunto R2
de pares ordenados (x, y) de números reales, con la suma y producto definidos por

(x1 , y1 ) + (x2 , y2 ) = (x1 + x2 , y1 + y2 ) (1.9)


(x1 , y1 ) · (x2 , y2 ) = (x1 x2 − y1 y2 , x1 y2 + y1 x2 ) (1.10)

Puede mostrarse que el producto ası́ definido resulta conmutativo y asociativo (z1 z2 =
z2 z1 , (z1 z2 )z3 = z1 (z2 z3 ), para zj = (xj , yj ), j = 1, 2, 3), y distributivo con la suma:
8

z1 (z2 + z3 ) = z1 z2 + z1 z3 . De esta forma, denotando a los elementos de la base canónica


como 1 = (1, 0) y i = (0, 1), tenemos

i · i = (0, 1) · (0, 1) = (−1, 0) = −(1, 0) = −1

con 1 · 1 = 1 y 1 · i = i. Además, podemos escribir

(x, y) = x(1, 0) + y(0, 1) = x1 + yi

con lo cual recuperamos la notación estándar z = x + yi si identificamos x con x1.

Los números complejos pueden ser también representados por matrices reales de 2 × 2 de
la forma
     
x −y 1 0 0 −1
z = =x +y (1.11)
y x 0 1 1 0
= xI + yR , x, y ∈ R (1.12)
   
1 0 0 −1
donde I = es la matriz identidad y R = la matriz de rotación
0 1 1 0
definida en (1.3). Obtenemos, con el producto matricial usual, I.I = I, I.R = R.I = R, y
    
0 −1 0 −1 −1 0
R.R = = = −I (1.13)
1 0 1 0 0 −1

por lo que el par I, R constituye una representación matricial real de 1 e i, jugando R el


rol de la unidad imaginaria i. Si z1 = x1 I + y1 R, z2 = x2 I + y2 R, obtenemos, con la suma
y producto matricial usual,

z1 + z2 = (x1 + x2 )I + (y1 + y2 )R

z1 .z2 = z2 .z1 = (x1 x2 − y1 y2 )I + (x1 y2 + y1 x2 )R


con lo cual, identificando 1 = I y i = R, recuperamos las reglas de suma y producto de
los números complejos. Además, el determinante de la matriz (1.11) es el módulo de z:

x −y 2 2
y x = x + y = |z|

Como estructura algebraica, el conjunto de números complejos es, al igual que los
números reales o racionales, un cuerpo. Una estructura algebraica {F, +, ·}, donde F es
un cierto conjunto de números y +, · son operaciones binarias cerradas entre ellos, es un
cuerpo (o campo) si:
i) La suma satisface las propiedades de asociatividad, conmutatividad, existencia de ele-
mento neutro (0, tal que z +0 = z ∀ z ∈ F ) y opuesto (∀ z ∈ F ∃ −z tal que z +(−z) = 0).
ii) El producto es también asociativo y conmutativo, con existencia de elemento neutro 1
(z · 1 = z ∀ z ∈ F ) e inverso z −1 ∀ z 6= 0 (tal que z · z −1 = 1)
iii) El producto es distributivo: z1 · (z2 + z3 ) = z1 · z2 + z1 · z3 .
7.1. CONCEPTOS BÁSICOS 9

Finalmente, considerando escalares reales, el conjunto de los números complejos CR


forma un espacio vectorial de dimensión 2: Todo complejo z = x1 + yi es la combina-
ción lineal de 1 e i, con coeficientes reales x, y, siendo {1, i} linealmente independientes
(x1 + yi = 0 ⇒ x = 0, y = 0).

Si consideramos en cambio escalares complejos, CC es un espacio vectorial de dimen-


sión 1 (Probar!).

7.1.10. Raı́ces de polinomios


Mediante los números complejos, es posible encontrar todas las raı́ces de un polinomio
de grado arbitrario n ≥ 1, y ası́ escribir el mismo como el producto de n polinomios
elementales de grado 1.
Consideremos primero un polinomio de grado 2, P2 (z) = az 2 + bz + c, con a 6= 0, y la
correspondiente ecuación cuadrática

az 2 + bz + c = 0, (a 6= 0) (1.14)

Sabemos que las raı́ces están dadas por la muy conocida fórmula

−b ± b2 − 4ac
z± = (1.15)
2a
Problema 13: Obtener la fórmula (1.15), completando cuadrados.
Problema 14: Probar que para a 6= 0,

az 2 + bz + c = a(z − z+ )(z − z− ) (1.16)

Para a, b y c reales, las raı́ces z± serán entonces:


i) Reales y distintas si b2 > 4ac
ii) Reales e iguales si b2 = 4ac
iii) Complejas conjugadas si b2 < 4ac :
En este caso b2 − 4ac = −(4ac − b2 ), con 4ac − b2 > 0, y por lo tanto,

−b ± i 4ac − b2
z± =
2
con z− = z + . Mediante la introducción de los números complejos, podemos entonces
obtener siempre raı́ces de la ecuación cuadrática (1.15), aún si b2 > 4ac, y ası́ escribir el
polinomio az 2 + bz + c en la forma factorizada (1.16).
Por ejemplo, la ecuación
z 2 + 2z + 2 = 0
posee las raı́ces complejas conjugadas

−2 ± 4 − 8 −2 ± 2i
z± = = = −1 ± i
2 2
10

Ejercicio: Verificar que z± = −1 ± i satisfacen z 2 + 2z + 2 = 0.


Ejercicio: Verificar que z 2 + 2z + 2 = (z + 1 − i)(z + 1 + i)

La fórmula (1.15) es válida también para a, b, c complejos si a 6= 0 (veremos luego


como obtener raı́ces de números complejos), aunque en este caso las raı́ces complejas no
aparecerán necesariamente como pares conjugados.

Los resultados anteriores se generalizan a polinomios de grado arbitrario n ≥ 1. Si

Pn (z) = an z n + an−1 z n−1 + . . . + a1 z + a0 , an 6= 0 (1.17)

es un polinomio de grado n ≥ 1, donde los coeficientes (constantes) ai , i = 0, . . . , n, pueden ser


reales o complejos, la ecuación
Pn (z) = 0
posee siempre al menos una raı́z (real o compleja). Este enunciado constituye el teorema
fundamental del algebra e indica que el cuerpo de los números complejos es algebraicamente
cerrado.
Más aun, existirán siempre n raı́ces z1 , z2 , . . . , zn , en general complejas y no necesariamente
distintas, tales que Pn (zi ) = 0 para i = 1, . . . , n y

Pn (z) = an (z − z1 )(z − z2 ) . . . (z − zn ) (1.18)

Como las raı́ces pueden repetirse, esta igualdad suele escribirse como

Pn (z) = an (z − z1 )m1 (z − z2 )m2 . . . (z − zk )mk (1.19)

donde z1 , . . . , zk denotan ahora raı́ces distintas (zi 6= zj si i 6= j), con 1 ≤ k ≤ n, y mi ,


i = 1, . . . , k, denota la multiplicidad de la raı́z iésima (1 ≤ mi ≤ n, m1 + . . . + mk = n).

Si los coeficientes ai del polinomio son todos reales, entonces las raı́ces complejas aparecen
siempre en pares conjugados.

Problema 15: Probar el enunciado anterior, mostrando primero que si los coeficientes son
reales ⇒ Pn (z) = Pn (z).
7.1. CONCEPTOS BÁSICOS 11

7.1.11. Problemas
1) Realizar las siguientes operaciones, expresando el resultado como z = x + yi, con x, y ∈ R:
1 25
a) (1 − 2i)(3 + 4i) b) − i + (2 + 4i)(2 − ) c) 5 +
2i 3 + 4i
 ∗
1+i 3 + 4i i 2+i 1+i
d) e) f) g) +
1−i 3 − 4i 3−i 1 + i 1 + 1/i

2) Determinar la parte real, la parte imaginaria y el módulo de los resultados de las operaciones
anteriores.

3) Hallar todas las raı́ces de las siguientes ecuaciones, y escribir el polinomio correspon-
diente en la forma factorizada (1.16) o (1.18)–(1.19):

a) z 2 − 2z + 2 = 0 b) 2z 2 + 4 = 0 c) 2z 2 + 2z + 1 = 0
d) z 2 + 2iz = 0 e) z 2 + 2iz − 1 = 0 f ) z4 − 1 = 0

ix + y = i
4) Resolver el sistema
x + iy = −2

√ √ p √
5) Indicar el error en a) −1 = −1 −1 = (−1)(−1) = 1=1

1
q √
y b) 1i = √−1 = −1 1
= −1 = i.

6) Mostrar que la ecuación


|z| = r, r > 0
corresponde geométricamente a un cı́rculo de radio r centrado en el origen, y

|z − z0 | = r, r > 0

a un cı́rculo de radio r centrado en z0 .

7) Mostrar que si z1 = x1 + y1 i, z2 = x2 + y2 i,

Re(z1 z̄2 ) = x1 x2 + y1 y2

por lo que Re(z1 z̄2 ) es el producto escalar de (x1 , y1 ) y (x2 , y2 ).


Dar también una interpretación geométrica a Im(z1 z̄2 ).
12

7.2. Representación polar y fórmula de Euler

7.2.1. Forma polar de un número complejo


A partir del gráfico, vemos que podemos expresar la parte real e imaginaria de
z = x + iy como
ImHzL
z=x+yi
x = |z| cos φ, y = |z| sen φ y=ÈzÈ sin Φ

ÈzÈ
donde
p
|z| = x2 + y 2
Φ
es el valor absoluto de z y φ es el ángulo que forma z ReHzL
con el eje real en el plano complejo, denominado
0 x=ÈzÈ cos Φ
argumento de z o arg(z).
Este ángulo satisface
tan φ = y/x

y el cuadrante al que pertenece queda determinado por los signos de x e y. Normalmente


se toma φ ∈ (−π, π] (valor principal), pero φ + 2nπ resulta equivalente a φ ∀ n entero.

Podemos entonces expresar z = x + iy en términos de |z| y φ como

z = |z|(cos φ + i sen φ) (2.20)

Esta expresión se denomina representación polar del número complejo.


Por ejemplo, si z = 1 + i ⇒ |z| = 2 y tan φ = 1, con x > 0, y > 0, por lo que
φ = π/4. Por lo tanto

1 + i = 2(cos π/4 + i sen π/4)

Ejercicio: Verificar esta igualdad.

Problema 1: Probar que arg(z̄) = −arg(z̄)


7.2. REPRESENTACIÓN POLAR Y FÓRMULA DE EULER 13

La forma polar resulta muy conveniente par el producto y cociente: Si

z1 = |z 1 |(cos φ1 + i sen φ1), z2 = |z 2 |(cos φ2 + i sen φ2)

entonces

z1 z2 = |z1 ||z2 | [cos(φ1 + φ2 ) + i sen(φ1 + φ2 )] (2.21)

o sea, |z1 z2 | = |z1 ||z2 |, arg(z1 z2 ) = arg(z1 ) + arg(z2 ).

Y si z2 6= 0,

z1 |z1 |
= [cos(φ1 − φ2 ) + i sen(φ1 − φ2 )] (2.22)
z2 |z2 |

o sea, |z1 /z2 | = |z1 |/|z2 | y arg(z1 z2 ) = arg(z1 ) − arg(z2 ).

Problema 2: Probar (2.21), utilizando cos(φ1 + φ2 ) = cos φ1 cos φ2 − sen φ1 sen φ2 ,

sen(φ1 + φ2 ) = sen(φ1 ) cos φ2 + cos φ1 sen φ2 .


Problema 3: Probar (2.22), partiendo de z1 /z2 = z1 z̄2 /|z2 |2 y el resultado de los dos problemas
anteriores.

Podemos ver ası́ el significado geométrico del producto z1 z2 : Equivale a rotar z2 un


ángulo φ1 en sentido antihorario, y multiplicar el vector resultante por el escalar real |z1 |:

ImHzL
z3 =z1 z2
Φ3 =Φ1 +Φ2
Èz3 È=Èz1 ÈÈz2 È
Φ3 z2

Φ2 z1

Φ1
ReHzL
0
14

7.2.2. Fórmula de Euler:


La forma polar resulta en realidad más cómoda cuando se utiliza con la famosa fórmula de
Euler para la exponencial de un número imaginario:

eiφ = cos φ + i sen φ (2.23)

Demostremos primero esta igualdad: Definiendo eiφ por medio de la serie exponencial,
y separando en términos pares e impares, obtenemos, utilizando (1.4) y (1.5) (i2n = (−1)n ,
i2n+1 = (−1)n i),


X (iφ)n
e =
n=0
n!
∞ 2n 2n ∞
X i2n+1 φ2n+1
X i φ
= +
n=0
(2n)! n=0
(2n + 1)!
∞ ∞
X (−1)n φ2n X (−1)n φ2n+1
= +i
n=0
(2n)! n=0
(2n + 1)!
= cos φ + i sen φ (2.24)

Con este resultado podemos también evaluar la exponencial de un número complejo


general como

ex+yi = ex eyi = ex (cos y + i sen y) (2.25)

donde x e y son reales. Por ejemplo, e−2+i = e−2 [cos(1) + i sen(1)].

Podemos ahora expresar z en la froma polar como

z = |z| eiφ (2.26)

donde φ = arg(z).

Por ejemplo,
i = eiπ/2
ya que |i| = 1 y arg(i) = π/2. Se comprueba que eiπ/2 = cos π/2 + i sen π/2 = 0 + i = i.
También,
−1 = eiπ
ya que | − 1| = 1, arg(−1) = π. Se comprueba que eiπ = cos π + i sen π = −1 + 0i = −1.

Ejercicio: Mostrar que


1+i
√ = eiπ/4
2
7.2. REPRESENTACIÓN POLAR Y FÓRMULA DE EULER 15

Problema 4: Probar que si z = |z|eiφ ⇒ z̄ = |z|e−iφ y, si z 6= 0,

1 1 −iφ
= e
z |z|

Problema 5: Probar que |eiφ | = 1, y |αeiφ | = |α| (α, φ reales).

Dado que
eiφ1
eiφ1 eiφ2 = ei(φ1 +φ2 ) , = ei(φ1 −φ2 )
eiφ2
resulta entonces obvio, utilizando la forma polar (2.26), que

z1 z2 = |z|1 eiφ1 |z2 |eiφ2 = |z1 ||z2 | ei(φ1 +φ2 ) (2.27)

z1 |z|1 eiφ1 |z1 | i(φ1 −φ2 )


= iφ
= e , z2 6= 0 (2.28)
z2 |z|2 e 2 |z2 |

y por lo tanto obtener las fórmulas (2.21)–(2.22). Resulta también obvio que |z1 z2 | =
|z1 ||z2 |, arg(z1 z2 ) = arg(z1 )+arg(z2 ), y |z1 /z2 | = |z1 |/|z2 |, arg(z1 /z2 ) = arg(z1 )−arg(z2 ).

7.2.3. Potencias de un número complejo

Mediante la forma polar (2.23), resulta muy sencillo calcular cualquier potencia z n para
todo n natural o entero: Dado que (eiφ )n = einφ , obtenemos

z n = (|z|eiφ )n
= |z|n einφ (2.29)
= |z|n [cos(nφ) + i sen(nφ)] (2.30)

La última expresión se denota normalmente fórmula de De Moivre.


Estas expresiones son válidas para n = 0, 1, 2, . . ., y si z 6= 0, también para n = −1, −2, . . ..

Ejercicio: Probar que

(1 + i)n = 2n/2 [cos(nπ/4) + i sen(nπ/4)]

y que por ejemplo, (1 + i)2 = 2i, (1 + i)20 = −210 , (1 + i)−4 = − 14 .

Ejercicio: Representar gráficamente las primeras cuatro potencias de 1 + i.


16

7.2.4. Raı́ces enésimas de la unidad


Consideremos ahora la ecuación
zn = 1
para n ≥ 1. Como 1 = ei0 = ei2kπ para cualquier k entero, vemos que todo número
complejo z = ei2kπ/n satisface z n = 1:
(ei2kπ/n )n = ei2kπ = cos(2kπ) + i sen(2kπ) = 1 k = 0, ±1, ±2, . . .
Por lo tanto, obtenemos ası́ n raı́ces distintas
z0 = 1, z1 = ei2π/n , z2 = ei4π/n , . . . , zn−1 = ei(n−1)2π/n
ya que zn = ein2π/n = ei2π = 1 = z0 .
Las n raı́ces de z n = 1 pueden entonces escribirse como
zk = ei2kπ/n = cos(2kπ/n) + i sen(2kπ/n) , k = 0, . . . , n − 1, (2.31)
Todas las raı́ces satisfacen |zk | = 1, por lo que están sobre el cı́rculo unidad |z| = 1.
Obviamente, z0 = 1 ∀ n.
Las raı́ces aparecen en pares conjugados: z̄k = zn−k , pues e−i2πk/n = ei2π(n−k)/n .
La suma de todas las raı́ces es 0:
z0 + z1 + . . . + zn−1 = 0
Para n = 2, obtenemos obviamente las dos raı́ces cuadradas de 1, z0 = 1, z1 = eiπ = −1.
Las tres raı́ces cúbicas de 1 son en cambio
z0 = 1

i2π/3 1 3
z1 = e = cos(2π/3) + i sin(2π/3) = − + i
2 √2
1 3
z2 = ei4π/3 = cos(4π/3) + i sin(4π/3) = − − i = z̄1
2 2
Finalmente, las 4 raı́ces de z 4 = 1 son
z0 = 1, z1 = ei2π/4 = i, z2 = ei4π/4 = −1, z3 = ei6π/4 = −i = z̄1
Se muestran en la figura las raı́ces cúbicas y cuárticas de 1.

ImHzL ImHzL
3
z =1 z4 =1
z1 =i
z1 =ei2А3

z0 =1 z2 =-1 z0 =1
ReHzL ReHzL
0
0

z2 =ei4А3 z3 =-i
7.2. REPRESENTACIÓN POLAR Y FÓRMULA DE EULER 17

7.2.5. Raı́ces de un número complejo


Podemos ahora fácilmente obtener las n raı́ces de la ecuación

z n = a + ib

para a y b reales arbitrarios. Escribiendo a + ib en la forma polar,



a + ib = reiφ , r = |a + ib| = a2 + b2 , φ = arg(a + ib)

vemos que
zk = r1/n ei(φ+2kπ)/n
satisface
zkn = rei(φ+2kπ) = reiφ = a + ib
para todo k entero. Por lo tanto, las n raı́ces distintas (asumiendo r 6= 0) son
√ √ φ + 2kπ φ + 2kπ
zk = n
r ei(φ+2kπ)/n = n
r [cos( ) + i sen( )] , k = 0, . . . , n − 1
n n
Las n raı́ces son pues de la forma

zk = n
r eiφ/n ei2kπ/n

donde ei2kπ/n son las raı́ces enésimas de la unidad (ecuación (2.31)).


Por ejemplo, la ecuación
z 2 = a + ib

escribimos a + ib = reiφ , con r = a2 + b2 , φ = arg(z), y entonces, las tiene las dos raı́ces
√ √
z0 = reiφ/2 , z1 = rei(φ+2π)/2 = −z0
√ √ √
o sea, z = ± a + ib, con a + ib = reiφ/2 y φ ∈ (−π, π].

Por ejemplo, para resolver la ecuación

z2 = i

escribimos i en la forma polar, i = eiπ/2 , y entonces


1+i
z = ±eiπ/4 = ±[cos(π/4) + i sen(π/4)] = ± √
2
Análogamente, las 4 raı́ces de
z 4 = −3
son, escribiendo −3 = 3eiπ ,
√ √ 1+i
3eiπ/4 =
4 4
z0 = 3 √ , z1 = iz0 , z2 = −z0 , z3 = −iz0
2
18

7.2.6. Funciones complejas


Consideraremos aquı́ funciones complejas de dominio real f : R → C. Estas tienen la
forma general

f (t) = u(t) + iv(t) (2.32)

donde t ∈ R y u(t) = Re[f (t)], v(t) = Im[f (t)] son funciones reales. Un ejemplo de especial
interés es la función exponencial compleja

f (t) = eλt , λ = γ + iω ∈ C (2.33)

con γ, ω reales. Aplicando la fórmula general (2.25), obtenemos

eλt = eγt eiωt


= eγt [cos(ωt) + i sen(ωt)] (2.34)
= eγt cos(ωt) + ieγt sen(ωt) (2.35)

o sea, u(t) = eγt cos(ωt), v(t) = eγt sen(ωt).

Asumiendo u(t) y v(t) derivables, la derivada de f respecto de t es la función compleja

f 0 (t) = u0 (t) + iv 0 (t)

En el caso (2.33) obtenemos, partiendo de (2.35),

(eλt )0 = eγt [γ cos(ωt) − ω sen(ωt) + iγ sen(ωt) + iω cos(ωt)]


= (γ + iω)eγt [cos(ωt) + i sen(ωt)]
= λeλt !! (2.36)

Por lo tanto, la expresión (eλt )0 = λeλt resulta válida también para λ complejo. Este
resultado será esencial a la hora de resolver ecuaciones diferenciales, y puede obtenerse
de forma más general por medio de la teorı́a de funciones analı́ticas de variable compleja,
que no trataremos en este curso.
De la misma forma, la integral de f se define como
Z Z Z
f (t)dt = u(t)dt + i v(t)dt

Se deja como ejercicio mostrar que entonces,

eλt
Z
eλt dt = +c
λ
para λ ∈ C, λ 6= 0, donde c ∈ C es en general una constante compleja.
Problema: La potencia tλ para λ = γ + iω ∈ C y t ∈ R+ se define como

tλ = eλ ln t = eγ ln t eiω ln t
= tγ [cos(ω ln t) + i sen(ω ln t)] (2.37)
7.2. REPRESENTACIÓN POLAR Y FÓRMULA DE EULER 19

donde ln t es el logaritmo natural. Por ejemplo ti = cos(ln t) + i sen(ln t). Se deja como
ejercicio probar que para λ ∈ C, también se obtiene

(tλ )0 = λtλ−1

La aplicación más simple y común de las funciones complejas es la representación de


funciones periódicas, por ejemplo de la forma

u(t) = A cos(ωt + φ) = A[cos ωt cos φ − sen ωt sen φ]

tales como una corriente alterna o la posición de una partı́cula en movimiento oscilatorio
armónico. Resulta en general más conveniente expresar u(t) como

u(t) = Re[Aei(ωt+φ) ]

donde hemos asumido A, ω, φ, t reales. Se verán ejemplos en la parte de Ecuaciones Di-


ferenciales.

Ejemplo: Movimiento circular. El formalismo complejo es también útil para tratar


problemas en dos dimensiones. Por ejemplo, el vector posición de una partı́cula que se
mueve en un cı́rculo de radio r con velocidad angular constante ω es
ImHzL
(x(t), y(t)) = r(cos ωt, sen ωt) v
Podemos escribir este par ordenado en forma compleja como zHtL
r
iωt Ωt
z(t) = re
ReHzL
0
Si r y ω son constantes, la velocidad de la partı́cula será

v(t) = z 0 (t) = iωr eiωt = iωz(t)

donde i indica que la velocidad será tangencial, es decir,


perpendicular a z(t) (recordar el significado de multiplicar por i).
El módulo de la velocidad es el valor absoluto |v(t)| = ω|z(t)| = ωr. La aceleración será

a(t) = z 00 (t) = (iω)2 reiωt = −ω 2 z(t)

es decir, antiparalela a z(t) y de módulo |a(t)| = ω 2 r. Esta es la aceleración centrı́peta.

Problema: Generalizar los resultados anteriores al caso de velocidad angular variable


ω(t), tal que z(t) = reiφ(t) , con φ0 (t) = ω(t). Mostrar que

v(t) = z 0 (t) = iω(t)z(t)

a(t) = z 00 (t) = −ω 2 (t)z(t) + iω 0 (t)z(t)


Interpretar el resultado e identificar la aceleración centrı́peta y la aceleración tangencial.
20

7.2.7. Problemas
1) Encontrar la representación polar z = |z|eiφ de

3+i 1
a) z = 1 − i b) z = c) z = −3i d) z = √ e) z = −i
1+i 1 + 3i
2) Mediante la forma polar, evaluar z n en los casos anteriores, y hallar el valor explı́cito para
n = 6 y n = −3.

3) Dar una expresión de la forma z = x + yi, con x, y ∈ R, para

eiπ/3
a) z = eiπ/6 b) z = c) z = e−i2π/3 eiπ/3
eiπ/2
4) Determinar todos los z que satisfacen

a) z 2 = −i b) z 3 = −1 c) z 4 = i d) z 6 = 1 e) z 2 = 1 − i

5) Resolver las ecuaciones

a) z 2 + 2iz − 1 + i = 0 b) z 2 + 2i = 0 c) z 4 + 2z 2 + 2 = 0

6) Escribir en la forma u(t) + iv(t), con u(t), v(t) funciones reales, las funciones

a) f (t) = e−(1+2i)t b) f (t) = t2 e3it c) f (t) = t1+i

7) Determinar las derivadas de las funciones anteriores, y escribir su parte real y su parte
imaginaria.
Facultad de Ingenierı́a
UNLP

Matemática C

VIII Autovalores y Autovectores


Temario
Clase 1: Introduccion. De niciones. Calculo de autovalores. Polinomio caracterstico.
Autoespacios asociados a los autovalores: calculo de autovectores. Estimacion de
autovalores y localizacion (Crculos de Gershgorin). Operadores geometricos y au-
tovalores. Casos particulares.
Clase 2: Multiplicidad algebraica y geometrica. Autovectores independientes. Bases
de autovectores. Matrices semejantes. Diagonalizacion de matrices. Matrices
simetricas y resultados relacionados, etc..
Clase 3: Algunas Aplicaciones.

2
1 Introduccion
Motivaremos este captulo sobre autovalores discutiendo la ecuacion
ax + 2hxy + by = 1
2 2

donde los coe cientes a, h, y b cumplen que al menos uno es no nulo.


La expresion ax + 2hxy + by se llama forma cuadratica en x e y . Se puede escribir
2 2

como
;  a h x
ax + 2hxy + by = x y : h b : y = xT :A:x
2 2

x  a h
donde x = yA= y . La matriz A se llama matriz de la forma cuadratica.
h b
Objetivo ... Queremos aplicar un cambio de variables apropiado, la rotacion necesaria
 de los ejes x e y, para que las coordenadas de los puntos de esa gura geometrica
respecto de los nuevos ejes x e y satisfagan una ecuacion reducida a la forma canonica:
1 1

 x +  y = 1.
1
2
1 2
2
1

La forma canonica es facil de analizar. Reconocemos a una elipse si los coe cientes
son positivos, o una hiperbola si tienen distinto signo, etc.
... Ahora rotamos los ejes x e y en sentido antihorario mediante el angulo  hasta los
nuevos ejes x e y .
1 1

La ecuacion que describe la rotacion de los ejes se deduce de lo siguiente:


Sea P un punto arbitrario con coordenadas (x; y) respecto a los ejes x e y, y con
coordenadas (x ; y ) respecto a los nuevos ejes x y y .
1 1 1 1

La relacion entre ambas coordenadas se obtiene geometricamente considerando ...


x = OQ = OP cos ( + )
= OP (cos  cos ; sin  sin )
= (OP cos ) cos  ; (OP sin ) sin 
= OR cos  ; PR sin 
= x cos  ; y sin 
1 1

3
De igual manera se obtiene que y = x sin  + y cos .
1 1

As la matriz de transicion de las coordenadas (x ; y ), coordenadas respecto de la


1 1

base nueva (los vectores que dirigen los ejes nuevos), a las coordenadas (x; y) respecto de
la base canonica sabemos que es la matriz S :
cos  ; sin 
S = sin  cos 
As, para cada (x ; y ) se tiene que ...
x cos  ; sin  x 
1 1

y = sin  cos  : y
1

... si denotamos x~ al vector de coordenadas x , y 1 1

x = S:x~
... Notamos que las columnas de S dan las direcciones de los semiejes positivos de
los ejes x e y . La matriz S de rotacion tiene la propiedad especial que det(S ) = 1 (
1 1

ver carlo).
Sabemos, que para obtener las nuevas coordenadas en terminos de las viejas ...
x   cos  sin  
y = x~ = S :x = ; sin  cos  :x
1 ; 1

... Por tanto


x = x cos  + y sin 
1

y = ;x sin  + y cos 
1

Ademas ...
... si reemplazamos en la ecuacion dada
; 
xT :A:x = (S:x~)T :A: (S:x~) = x~T : S T :A:S :x~
... Supongamos ahora, como veremos mas adelante, que es posible elegir un angulo 
tal que S T :A:S sea una matriz diagonal, entonces ...

0
 
xT :A:x = x~T :
0  :x~
1

=  x + y1
2
1 2
2
1

... As encontrando esa rotacion adecuada, la ecuacion original ax + 2hxy + by = 1 2 2

se escribira, en terminos de los nuevos ejes como


 x + y =1
1
2
1 2
2
1

.
Las soluciones de esta ecuacion representan una curva simetrica respecto a los ejes x 1

ey. 1

4
Las columnas de S , las columnas s y s , dan las direcciones de los ejes de simetra.
1 2

Esta matriz es una matriz ortogonal (S T = S ; , veri carlo). 1


 0 
... Ademas, para esa rotacion apropiada se cumple S T :A:S = S ; AS = 0  . 1 1

Desde esaigualdad se obtiene que ...


A:S = S: 0 0 . 1

As si S es la matriz adecuada para cumplir con nuestro objetivo, sus columnas s y 1

s deben satisfacer las ecuaciones siguientes ...


2

A:s =  :s
1 1 1 y A:s =  :s
2 2 2

... Estas ecuaciones establecen restricciones sobre  y  , y determinan los vectores 1 2

s y s , no nulos.
1 2 s 
Para determinar el vector s = s , la primer ecuacion se escribe como
1
11

21

a h s  s 
h b : s = : s (1)
11 11
1
21 21

o
a ;  h
 s  0
h
1

b; : = s
11

0
1 21

... Hemos planteado un sistema homogeneo de 2  2, que debe tener solucion no trivial
(s ; s ) (es el nuevo eje). Por tanto, el determinante de la matriz de ese sistema debe ...
a ;  
11 21

det h
b; =0
1

h 1

... Similarmente,  debe satisfacer la misma ecuacion para hallar el s 6= 0, y tambien


2 2

cumplira ...:
a ;  h

det h
2

b; =0 2

... Por tanto, ambas  y  satisfacen ...


1 2

a ;  h 
det h =0 b;
... Expandiendo el determinante se obtiene ...
 ; (a + b)  + ab ; h = 0
2 2

5
Esta ecuacion tiene las races
q
a + b  (a + b) ; 4 (ab ; h )
2 2

 =
q 2
a + b  (a ; b) + 4h 2 2

= 2
Las races son reales, y son distintas si a 6= b o si h 6= 0.
El caso en que a = b y h = 0 no necesita investigacion porque representa la ecuacion
de una circunferencia.
La ecuacion encontrada  ;(a + b) +ab;h = 0 se llama la ecuacion de los autovalores
2 2

de la matriz A.
... Si conocemos los valores  y  , podremos encontrar s y s , que son las
1 2 1 2

columnas de la matriz de rotacion que se necesita, resolviendo el sistema (1) despues de


reemplazar el valor de  en la ecuacion, y resolviendo la ecuacion similar reemplazando
1

el valor de  .
2

...

2 El \problema de los autovalores"


Ese problema consiste en el planteo ...
... de la ecuacion
A:x = :x (2)
para determinar el valor  para el cual existe algun vector x \no nulo" que satisfaga
la igualdad.
... Esta ecuacion puede mirarse como un sistema lineal de ecuaciones si el vector x
pertenece a R n y A es una matriz de n  n.
Tambien x puede ser un vector en algun otro espacio vectorial V , y A un operador
lineal sobre ese espacio. En tal caso ...
... la ecuacion (2) tambien se aplica a la matriz A^, que representa a A con respecto a
una base [ui] , y al vector de coordenadas x^ del vector x respecto a la misma base.
De nicion Si la ecuacion (2) tiene solucion x no nula, se dice que  es un \autovalor"
de A (del operador o la matriz), y el vector x se llama \autovector" de A, correspondiente
al autovalor .
... Otros nombres dados a  son: valor caracterstico, valor propio o valor principal
del operador (o matriz) A.

El conocimiento de los autovalores de un operador lineal (o matriz) ayuda a comprender


la accion del operador sobre un autovector y sobre un vector cualquiera.

6
... Dado un operador (o matriz de representacion de n  n) A , si podemos construir
una base del espacio compuesta enteramente por autovectores de A, ...
... fu ; : : : ; ung, entonces cualquier vector x puede escribirse como una combinacion
1

lineal de estos autovectores ...


X
n
x = c :u + c :u +    + cn:un =
1 1 2 2 ci:ui
i=1

... La accion de A sobre x es simplemente


A:x = c :A:u + c :A:u +    + cn:A:un
1 1 2 2

= c  :u + c  :u +    + cnn:un
X
1 1 1 2 2 2
n
= (cii) :ui
i
=1

... Por tanto, si (c ; c ; : : : ; cn)T es el vector de coordenadas de x, con respecto a esa


1 2

base de autovectores del operador lineal (o de su matriz de representacion) A, entonces


el vector de las coordenadas de A:x con respecto a la misma base es
0 1 0 10 1
c  0  0 c
BB  c CC BB 0    
1 1 1

0C C B
B cC CC
1

B@ ... CA = B@ ... ... . . .


2 2 2

... C : B
A @.A .
.
2

ncn 0 0    n cn
Conclusion ...(I) La matriz de representacion de un operador A con respecto a una
base de sus autovectores (si existe esa base) es una \matriz diagonal", cuyos coe cientes
en la diagonal son \los autovalores" de A.
Ademas ...
...(II) el efecto de un operador A sobre cualquiera de sus autovectores es simplemente
\escalar al autovector" por el correspondiente autovalor (ui ;! i :ui ), expandiendo o
contrayendo kui k por el factor i (que tambien puede ser igual a cero).
Observacion: En una seccion proxima se vera que \no siempre" se puede tener una
base de autovectores (el lindo resultado (I)).
Ejemplo
4 ;2 2
A = 1 1 y x= 1
4 ;2 2 6
A:x = 1 1 : 1 = 3
2
= 3: 1 = 3:x

Por tanto,  = 3 es un autovalor de A y x = (2; 1)T es un autovector de A asociado


a  = 3.

7
Observacion: (4; 2)T es tambien otro autovector para el mismo autovalor  = 3, por
tanto
4 ;2 4 12 4
1 1 : 2 = 6 = 3: 2
... As cualquier multiplo escalar de (2; 1)T tambien sera un autovector ( asociado al
mismo ), ya que
A: (c:x) = c:A:x = c::x = : (c:x)
Ademas ...
Los autovectores asociados a un particular autovalor  de A, con el agregado del vector
0, forman un subespacio de <n que se denomina \ autoespacio" de A asociado a .
Para ver eso ...
Dado un  que es autovalor ...
Si A:x = :x, y si y tambien satisface
A:y = :y entonces
A: ( :x + :y) = :A:x + :A:y = :x + :y = : ( :x + :y)
esto es ...
( :x + :y) es tambien un autovector deAcon el mismo autovalor 
... As el conjunto de los autovectores correspondientes a un mismo , con
el agregado del vector 0 es un subespacio.
Por ahora, consideramos que A es una matriz real n  n, y x un vector de
<n
....> Como se obtiene el conjunto de \autovectores" asociados a un  ?
La ecuacion de autovalores A:x = :x puede escribirse ...
A:x = :In:x (3)
(A ; :In ) :x = 0 (4)
As estamos buscando vectores \no nulos" x que satisfagan la ecuacion (3). Es decir,
... buscamos soluciones \no triviales" del sistema lineal homogeneo (4). El conjunto
de todas estas soluciones \no nulas" esta en ...
... el subespacio o espacio nulo de la matriz A ; :In : N (A ; :In). Este subespacio
es un subespacio de R n ).
El espacio nulo N (A ; :In) se llama el autoespacio de A correspondiente al autovalor
.
Ademas ...
... si  es un autovalor de A implica que existe algun x no nulo en N (A ; :I ).
Cualquier vector no nulo en N (A ; :I ) es un autovector asociado a . La dimension
N (A ; :I )  1 (por lo menos hay un autovector para ese valor ).
8
La ecuacion (4) tiene solucion x no nula \ si y solo si" la matriz A ; :In es singular.
Por tanto, debe ser ...
det (A ; :In) = 0
... Esta ecuacion se denomina la ecuacion caracterstica de la matriz A.

3 Calculo de los autovalores


Si expandimos el determinante det (A ; :In ) = 0 (recordando la de nicion del determi-
nante) tendremos un polinomio de grado n en la variable 
det (A ; :I ) = p ()

3.1 Polinomio caracterstico


De nicion El p () se llama el polinomio caracterstico de A, y sus races (las solu-
ciones de la ecuacion caracterstica) son los autovalores de A.
... Como cualquier polinomio de grado n...

p () = (;1)n(n + bn; n; + : : : + b  + b )


1
1
1 0

... tiene n races (contando las races multiples) entonces A tiene exactamente n auto-
valores.
Sin embargo, hay que tener en cuenta que ...
 Algunas races pueden repetirse, por tanto A tendra a lo sumo n autovalores \dis-
tintos";
 Algunas races pueden ser numeros complejos, por tanto A puede tener autovalores
complejos (y consecuentemente, autovectores complejos).

Las siguientes proposiciones, correspondientes a una matriz A de n  n, son equivalentes:


  es un autovalor de A.
 (A ; :I ) :x = 0 tiene solucion no trivial.
 N (A ; :I ) 6= f0g.
 A ; :I es singular.
 det (A ; :I ) = 0.
... En la practica, la ultima condicion es la que se usa para determinar los autovalores
de una matriz de n  n (al menos para matrices peque~nas y manejables).
9
3 
Ejemplo Encontrar los autovalores y autovectores de A = 3 ;22
La ecuacion caracterstica es
3 ;  2 
det 3 ;2 ;  = 0
(3 ; ) (;2 ; ) ; 6 = 0
 ;  ; 12 = 0
2

( ; 4) ( + 3) = 0

 = 4 y  = ;3
1 2

Ahora, buscamos el espacio nulo de A ;  :I y de A ;  :I para determinar los


1 2

correspondientes autovectores.
Para hacer esto, resolvemos los correspondientes sistemas homogenos
(A ; i:I ) :x = 0 (i = 1; 2)
Si tomamos  = 4, y resolvemos por eliminacion el sistema
;1 2 ;1 2
1

A ;  :I = 3 6 ;! 0 0
1

se obtiene ...
2
u = : 1
1

esto es ...
... cualquier multiplo no nulo de este vector es un autovector asociado a  = 4; y
este vector es una base para N (A ; 4:I ), que es el autoespacio de ese autovalor.
1

Si consideramos  = ;3
6 2 6 2
2

A ;  :I = 3 1 ;! 0 0
2

al resolver el sistema homogeneo ...


;1
u = : 3
2

como autovector asociado a  . As este vector forma una base de N (A + 3:I ).
2

En este ejemplo ambos \autoespacios" tienen dimension uno.


Para practicar ...
Ejercicios
3.1 Para cada matriz, encontrar el polinomio caracterstico y los autovalores.

10
10 ;9 1 2 0 3 0 0
(a) 4 ;2 (b) 4 3 (c) 7 0 (d) 0 0
1 0
(e) 0 1
X 3.2 Para cada matriz, encontrar la ecuacion caracterstica, los autovalores y los au-
3asociados
tovectores
0
 a cadauno.
3 2

(a) 8 ;1 (b) ;1 0
Otro ejemplo ...
 1 2 1 ;  2 
Ejemplo A = ;2 1 ;! det ;2 1 ;  = 0 ;! (1 ; ) + 4 = 0 2

Por tanto ...


 = 1 + 2i y  = 1 ; 2i <oh-oh!
1 2

... Esto tena que pasar tarde o temprano. No nos habituaremos a los autovalores o
autovectores complejos, aunque haremos algunos comentarios:
Si  es un autovalor complejo de una matriz real A, y su correspondiente autovector es
z, entonces si  es el complejo conjugado de  y z es el complejo conjugado de z ...
 z = A:z = :z = :z
A:z = A:
... Por tanto, z es tambien un autovector de A con autovalor  .
As autovalores y autovectores \complejos de las matrices reales" de n  n siempre
aparecen con su complejo conjugado, es decir aparecen en \pares".

Problema (1)Dada una matriz de dimension n  n, con n impar, veri car que tiene
por lo menos un autovalor real.
Problema (2) Usando los comandos del MATLAB. Los comandos del MATLAB para
calcular autovalores (despues de haber entrado la matriz A = [fila1; fila2; fila3]) es
E = eig(A), dando en E los autovalores.
Para obtener los autovectores: [U; D] = eig (A), da en las columnas de U los autovec-
tores (no garantiza que las columnas de U sean linealmente independientes), y en D los
autovalores. 10 ;9
Aplicar a la matriz A: 4 ;2
(3) Con la ayuda del MATLAB, calcular los autovalores de la matriz de 5  5 cuyos
terminos son aij = i j; . 0
1

1
10 ;9 1
+ 1

(4) Dada la matriz A: @ 4 ;2 0A (a) Usando el MATLAB hallar los autovalores.


0 0 1
Hallar una base del autoespacio de cada autovalor i encontrado, para eso usar : null(A ;
i  In). En general, el comando null(B ), da una base del subespacio nulo de la matriz B .
(b) Explicar porque puede conocer todos los autovectores asociados a cada i, cono-
ciendo las bases halladas en (a).

11
3.2 Localizacion de los autovalores. Crculos de Gershgorin
Objetivo Despues de haber calculado los autovalores de una matriz, y haber visto las
di cultades en calcular las races de los polinomios caractersticos, sabiendo ademas lo
di cil de ese tema cuando las matrices son de dimension n > 4, es importante conocer
el Teorema de Gershgorin. Este teorema nos provee un procedimiento para estimar la
localizacion de los autovalores de cada matriz, y en muchas oportunidades permite sacar
conclusiones sobre los autovalores sin calcularlos.

Teorema Sea A una matriz arbitraria de n  n. Entonces los autovalores  de A estan


localizados en la union de los n discos (en el plano complejo, ya que los autovalores pueden
ser complejos) que satisfacen para cada la i = 1; : : : ; n:
X
j ; ai;ij  jai;j j (5)
j6 i=

siendo ai;i el elemento i-esimo de la diagonal de A, y ai;j con j 6= i los elementos de la


la i-esima, diferentes del ai;i.
Demostracion. Dado  y un correspondiente autovector u, u 6= 0, tal que Au = u. Tal
u se puede normalizar dividiendolo por la mayor componente en valor absoluto de u (u =
(u ; u ; : : : ; uj ; : : : ; un), se divide por la componente ui con mayor juj j, j = 1; : : : ; n), as
1 2

llamamos x a ese vector tal que Ax = x, y tal que ahora sus componentes satisfacen que
jxj j  1 (equivale a decir que la kxk1 = 1 = xi ). Entonces,
X
n
ai;j xj = xi = :
j =1

Por tanto,
X
n
 ; ai;i = ai;j xj ;
j6 i
=

lo que implica que


X
n X
n
j ; ai;ij  jai;j xj j  jai;j j: (6)
j6 i
= j6 i
=

3 
Ejemplo Estimar la localizacion de los autovalores de A = 3 ;22
j ; 3j  2, desde la la 1, y desde la la 2 se obtiene que j ; (;2)j  3. Si fuesen
reales, estaran ( dibujar la recta) entre [;5; 5].

12
3.3 Operadores geometricos y autovalores (para visualizar).
Este ejemplo explica visualmente el signi cado de los autovectores de esta transforma-
cion y visualiza tambien porque los restantes vectores de < no pueden ser autovectores.
2

Consideremos el operador L (x) que re eja un vector (en R ) a traves de la recta y = x,


2

diagonal que corta el primer y tercer cuadrante:

La matriz que representa a L con respecto a la base canonica [e ; e ] es


0 1
1 2

A = (L (e ) ; L (e )) = 1 0
1 2

por tanto ...


x  x 
L (x) = L x
1
= x
2

2 1

>Cuales son los autovalores y los autovectores de A (o, equivalentemente de L)?


Planteamos ...
; 
det (A ; :I ) = det 1 ;1 =  ; 1 = ( + 1) ( ; 1)
2

Tenemos entonces que  = 1 y  = ;1.


Resolvemos (A ;  :I ) :x = 0
1 2

La matriz de este sistema homogeneo ...


;1 1
 1 ;1 1 ;1
1 ;1 que ;! 1 ;1 por eliminacion for las ;! 0 0
Entonces ...
1 asociado a  = 1 es el conjunto:
el autoespacio 1

fu = : 1 para todo 2 <g


1

13
Para el otro autovalor, resolvemos (A ;  :I ) :x = 0
1 1 1 1
2

1 1 ;! 0 0
y ... ;1
... el autoespacio asociado ... u = : 1
2

Lo que sigue explica visualmente el signi cado de los autovectores hallados y explica
tambien porque no hay otros autovectores en esta aplicacion.

Para u = (1; 1)T , el vector permanece sobre el eje de re eccion, y al re ejarlo a traves
del eje retorna al mismo vector u .
1

L (u ) = u = 1:u
1 1 1

Esto es, u es un autovector de L con autovalor 1.


1

Para u = (;1; 1)T , el vector permanece perpendicular al eje de re eccion, y al re e-


jarlo a traves del eje produce el opuesto de u .
2

L (u ) = ;u = ;1:u
2 2 2

Esto es, u es un autovector de L con autovalor ;1.


2

14
Cualquier otra orientacion del vector x al re ejarse a traves del eje \no produce" un
vector que sea multiplo escalar de x: L (x) 6= :x
Solo los dos tipos de vectores u y u tienen la propiedad de conservar la direccion
1 2

invariante (pudiendo cambiar solo el sentido y longitud).

3.4 Singularidad y No-singularidad


>Que papel juega la singularidad o no-singularidad de la matriz A en el problema de los
autovalores?.
(i) Primero, supongamos que A es singular. Entonces det A = 0, y el sistema homogeneo
A:x = 0
tiene solucion no trivial x. Entonces existe un vector no nulo x en R n tal que ...
A:x = 0 = 0:x
As  = 0 es un autovalor de A si A es singular.
Recprocamente, si  = 0 es un autovalor de A, entonces el correspondiente autovec-
tor (no nulo) x debe satisfacer
A:x = :x = 0; ya que  = 0
Esto es, x es una solucion no trivial del sistema lineal A:x = 0, y por tanto A es
\singular".
... Hemos encontrado que: \ A es una matriz de n  n singular si y solo si al
menos uno de sus autovalores es cero".
Entonces, lo anterior se puede expresar de otra manera ...
(ii)Si una matriz A es no-singular, todos sus autovalores deben ser no nulos. Recprocamente,
si A tiene todos sus autovalores no nulos, es no-singular.

Casos especiales...

4 Matrices diagonales
Si A es una matriz diagonal, entonces
0 1
a ; 0  0
BB 0 a ;    
11

0 CC
0 = det (A ; :I ) = det B .. ... ...
22

... CA
@ .
0 0    ann ; 
= (a ; ) (a ; )    (ann ; )
11 22

15
Por tanto ...
 = a ;  = a ;    ; n = ann
1 11 2 22

As los autovalores de una matriz diagonal son los coe cientes de la diagonal faii g
(eso muestra tambien que son todos reales).
Ademas, en este caso los autovectores tambien tienen una forma particularmente sim-
ple. En este caso: son precisamente los vectores de la base canonica e ; e ; : : : ; en, ya 1 2

que
A:e =  :e ; A:e =  :e ; etc
1 1 1 2 2 2

En otros casos, se podran encontrar bases que se puedan usar para obtener
una representacion con una matriz diagonal ...?
Si A no es diagonal... pero podemos determinar cuales son sus autovalores y autovec-
tores fi g y fxi g.
... Y supogamos que los \autovectores de A son linealmente independientes", con lo
cual forman una base de R n (porque son n vectores).
Entonces considerando esa base, los vectores coordenadas fx^i g de los autovectores fxi g
con respecto a esta \ autobase" seran e ; e ; : : : ; en.
1 2

... La matriz de representacion de A con respecto a esta \ autobase " sera


0 0    0 1
BB 0     0 CC
1

A=B
^
@ ... ... . . . ... CA
2

0 0    n
... Veremos mas adelante, que cualquier matriz A de n  n con \n autovectores
linealmente independientes" puede ser diagonalizada en este sentido. Puede ser represen-
tada con respecto a una base de sus autovectores mediante una \ matriz diagonal", con
sus respectivos autovalores en la diagonal.

4.1 Otras propiedades de las matrices diagonales


 Dado que los autovalores de una matriz diagonal A son los coe cientes de la diagonal
faiig, tenemos que
Yn
det A = a a    ann =      n =
11 22 1 2 i
i=1

Ademas,
 la traza de A o tr A, de nida como la suma de los coe cientes de la diagonal de A,
esta dada por
X
n X
n
tr A = aii = i
i=1 i =1

Estos dos resultado son validos tambien para matrices que no son diagonales.
...

16
5 En general - Producto y suma de autovalores
Si A es una matriz cualquiera de n  n, entonces

det A es igual al producto de los autovalores de A: det A =


Qn 
i
i=1

Demostracion. Recordar que p () = det (A ; :I ) tiene n ra ces fig. Por lo
tanto, cuando expandimos el determinante y factorizamos el polinomio resultante
obtendremos
p () =  ( ;  ) ( ;  )    ( ; n)
1 2

... Una mirada detallada a la estructura del determinante muestra que de hecho
p () = (;1)n ( ;  ) ( ;  )    ( ; n)
1 2

= ( ; ) ( ; )    (n ; )
1 2

y por tanto ...


det A = p (0) =      n
1 2

tr A es igual a la suma de los autovalores de A: tr A =


Pn a =
Pn 
ii i
i=1 i =1

Demostracion. Esta demostracion no es tan facil de veri car, y no la hacemos


_ la bibliografa.
aquVer
Observacion El punto (1) es coherente con el resultado previo : det A = 0 (A singular)
si y solo si al menos uno de los autovalores de A es nulo.
Observacion Como el determinante de una matriz real debe ser un numero real, se
sigue que el producto de los autovalores i debe ser tambien real.
... >Que pasa si alguno de los autovalores es complejo?
Como los autovalores complejos solo aparecen con su pareja conjugada, y dado que
: = jj 2

es siempre un numero real, el producto de todos los autovalores sera un numero real.
Observacion ... Similarmente, dado que la traza de una matriz real es real, la suma
de los autovalores tambien debe ser real. Y esto es cierto, aun cuando haya autovalores
complejos, dado que ...
 +  = 2 Re  (es tambien real)

17
En un ejemplo previo ...
3 
Ejemplo la matriz dada es A = 3 ;22 . Vimos que los autovalores son  = 4 y 1

 = ;3.
2

Por tanto ...


tr A = 3 + (;2) = 4 + (;3) = 1
det A = ;6 ; 6 = 4: (;3) = ;12
En otro ejemplo previo ...
 1 2
Ejemplo la matriz A = ;2 1 tiene los autovalores  = 1 + 2i y  = 1 ; 2i
1 2

tr A = 1 + 1 = (1 + 2i) + (1 ; 2i) = 2
det A = 1 + 4 = (1 + 2i) (1 ; 2i) = 5

5.1 Matrices triangulares


Si A es una matriz triangular ...
... para calcular sus autovalores consideramos
0 1
a ; a  a n
B 0 a ;     a n CC
11 12 1

det B
B@ ... ... C
... ... A = (a ; ) (a ; )    (ann ; )
22 2

11 22

0 0    ann ; 
Conclusion Los autovalores de una matriz triangular (superior o inferior) son los coe-
cientes de la diagonal (como en el caso de las matrices diagonales).

5.2 Matrices inversas


Si A es no singular...
... >cuales son los autovalores de A; ?1

Si los 0s son los autovalores de A, satisfacen ...


A:x = :x
entonces multiplicando por A; 1

A; :A:x = :A; :x
1 1

o
1 :x = A; :x1


As si x es un autovector de A con autovalor ,
... entonces x tambien es un autovector de A; correspondiente al autovalor 1= (como
1

A es no singular los 0s no pueden ser nulos).

18
6 Potencia de matrices
>Como son los autovalores y autovectores de Ak ?
Si se conocen los autovalores de A
A:x = :x
entonces
A :x = A: (A:x) = A: (:x) = :A:x =  :x
2 2

y por induccion ...


Ak :x = k :x
As si x es un autovector de A con autovalor , entonces...
... x es tambien un autovector de Ak , con autovalor k .
Esto tambien es cierto para potencias negativas de A, con A;k = (A; )k .
1

Ejercicios para seguir practicando en su casa ...


Ejercicios
X 6.1 Para cada matriz, encontrar la ecuacion caracterstica, los autovalores y los au-
3 asociados
tovectores
0
 a cada uno.
3 2

(a) 8 ;1 (b) ;1 0
6.2 Encontrar la ecuacion caracterstica, autovalores (son complejos) y los asociados
autovectores. ;2 ;1
5 2
6.3 Para esta matriz, encontrar la ecuacion caracterstica, los autovalores y los au-
tovectores asociados a cada uno. 0 1
1 1 1
@0 0 1A
0 0 1
X 6.4 Lo mismo
0 3 del 1 ejercicio.00 1 01
previo
;2 0
(a) @;2 3 0A (b) @0 0 1A
0 0 5 4 ;17 8
X 6.5 Encontrar los autovalores y asociados autovectores del operador de diferenciacion
d=dx : P ! P . La base natural es B = h1; x; x ; x i. La accion de la aplicacion es
2 3

1 7! 0, x 7! 1, x 7! 2x, y x 7! 3x , y veri car


3 3

00 que la matriz
1 de representacion es :
2 3 2

1 0 0
T = RepB;B (d=dx) = B
B 0 0 2 0C
@0 0 0 3CA
0 0 0 0 B;B

19
Hallar los autovalores, planteando
;0 ;1 02 00
0 = detT ; I = 0 0 ; 3 =  4

0 0 0 ;
La aplicacion tiene el unico autovalor  = 0. Para hallar los asociados autovectores,
se resuelve
00 1 0 01 0u 1 0u 1
BB0 0 2 0CC BBu CC = 0  BBu CC
1 1

=) u = 0, u = 0, u = 0
@0 0 0 3A @u A 2

3
@u A
2

3
2 3 4

0 0 0 0 B;B u B 4 u B
4

As para
0u 1alcanzar su autoespacio
B 0 CC u 2 <g = fu + 0  x + 0  x + 0  x u 2 <g = fu u 2 <g
fB
1

@0A 1 1
2 3
1 1 1

0 B
6.6 Probar que los autovalores de una matriz triangular (superior o inferior ) son las
entradas de la diagonal.
X 6.7 Encontrar la formula del polinomio caracterstico de una matriz de 2  2.
? 6.8 Mostrar que si A es una n- matriz cuadrada y cada la suma c entonces c es un
autovalor de A.
X 6.9 (a) Puede cualquier vector no-~0 en un espacio vectorial ser un autovector ?
X 6.10 Mostrar que  es un autovalor de T si y solo si la aplicacion representada por
T ;   I es singular.
6.11 (a) Mostrar que si  es un autovalor de A entonces k es un autovalor de Ak .
(b) > Que es lo erroneo en la demostracion siguiente ? \Si  es un autovalor de A y
si  es un autovalor de B , entonces  es un autovalor de AB , ya que si A~x = ~x
y B~x = ~x entonces AB~x = A~x = A~x = ~x"? Cuidado !, con la obtencion de
resultados falsos. Observar si se puede a rmar que A y B tienen igual autovector?
(consultar).

20
7 Propiedad de Independencia lineal de los autovec-
tores. Bases de autovectores
Un resultado importante ...
Autovectores correspondientes a autovalores \distintos" son linealmente independientes.

Demostracion. Supongamos que x e y son autovectores de A correspondientes a  y 1

 distintos. Luego , ...


2

A:x =  :x y A:y =  :y (con  6=  )


1 2 1 2

Veamos que x e y son linealmente independientes.


Consideremos la combinacion ...
c :x + c :y = 0
1 2

entonces ...
A:(c :x + c :y) = 0
1 2

= c :A:x + c :A:y 1 2

= c  :x + c  :y 1 1 2 2

Tenemos dos ecuaciones vectoriales ...


c :x + c :y = 0
1 2

c  :x + c  :y = 0
1 1 2 2

Despejando de la primera queda


c :x = ;c :y
1 2 (7)
y reemplazando en la segunda ...
; c :y + c : y = 0
1 2 2 2

c ( ;  ) :y = 0
2 2 1

Como y 6= 0 (>por que?), debera ser c ( ;  ) = 0. Pero  6=  . Luego, debera


2 2 1 2 1

ser c = 0. Entonces, de acuerdo a (7), tambien c = 0.


... Por tanto, x e y son linealmente independientes.
2 1

Conclusion ... As si una matriz tiene n autovalores distintos ) tiene n autovectores
linealmente independientes.

21
7.1 Autovalores multiples
...> Que ocurre cuando los autovalores son repetidos?
En este caso, > se puede a rmar que existen n autovectores independientes ?.
... La respuesta es ... \ no siempre existen n autovectores independientes", como se
puede ver en los dos ejemplos que siguen.
As nos interesara saber cuando existen y cuando no existen n autovectores lineal-
mente independientes de A.
Consideremos el ejemplo ...
0;2 2 ;31
A = @ 2 1 ;6A
;;21; ;2 20 ;3
det (A ; :I ) =
2 1 ;  ;6
;1 ;2 ;
= ; ;  ; 21 + 45
3 2

= ( ; 5) ( + 3) 2

Por tanto ...


det (A ; :I ) = 0
implica
 = 5 ;  =  = ;3
1 2 3

Para  = 5, tenemos
1

x = (1; 2; ;1)T
1 ( Veri car!)
Para los autovalores repetidos ...
 =  = ;3, la matriz caracterstica
01 1
2 3

2 ;3
(A ; :I ) = A + 3:I = @ 2 4 ;6A
;1 ;2 3
se reduce por las a
01 2 ;3
1
@0 0 0A
0 0 0
que tiene rango igual a 1. De la ecuacion obtenida x + 2x ; 3x = 0, o x = ;2x + 3x ,
1 2 3 1 2 3

vemos que tenemos dos variables independientes (en este caso, x y x ). La solucion
2 3

general sera
0;2 + 3 1
x=@ A

22
As podemos generar dos soluciones linealmente independientes eligiendo ( ; ) =
(1; 0) y ( ; ) = (0; 1)
0;21 031
x =@ 1 A
2 y x = @0A
3

0 1
... Esto es coherente, ya que si el rango de la matriz A + 3:I es igual 1 y n = 3,
entonces la dimension del espacio nulo N ((A + 3:I )) es la diferencia n ; 1 = 2.
... Hay 3 autovectores linealmente independientes ya que para los repetidos hay 2
autovectores linealmente independientes pues dim(N (A + 3:I )) = 2
De nicion Sea  un autovalor de una matriz A.
Se denomina ...
Multiplicidad algebraica de : al numero M que indica el orden de la multiplicidad
de  como raz del polinomio caracterstico p ().
Multiplicidad geometrica de : al numero m de autovectores linealmente indepen-
dientes asociados a . Este numero indica la dimension del \autoespacio" corre-
spondiente a  ( que es dimN (A ; :I ) ).
Observaci
P on Como el polinomio caracterstico tiene grado n se tiene que ...
... (multiplicidades algebraicas) = n
Observacion En general, sucede que ...
... m  M . La diferencia se llama defecto:  = M ; m .
Ejemplo Sea la matriz ...
 0 1 ; 1
A= 0 0 para calcular sus autovalores...se plantea det (A ; :I ) = 0 ; = 2
=0

Por tanto,  = 0 es un autovalor de multiplicidad algebraica 2.


... Pero la multiplicidad geometrica es 1, ya que los autovectores x correspondientes a
 = 0 son resolviendo
... (A ; 0:I )x = 0, las soluciones de Ax = 0 (hacerla).
Resolviendo se obtiene que los autovectores son todos de la forma
x   
x= =
0
1

0
Por tanto, M = 2; m = 1;  = 1.
0 0 0

... Este es un ejemplo donde la suma de las multiplidades geometricas es \ menor "
que n. Entonces, no existen n autovectores independientes para la matriz dada.
...

23
Conclusion Si hay autovalores repetidos ... la existencia o no de n autovectores inde-
pendientes...
... depende de la suma de las multiplicidades geometricas de los autovalores. Si la
multiplicidad geometrica es n ) hay n autovectoresPlinealmente independientes. Sino,
hay tantos independientes como el valor de la suma m.
Problema >Cuantos autovectores linealmente independientes tiene esa matriz?.
0;1 ;3 ;91
@0 5 18 A
0 ;2 ;7
(a) Usando el Matlab calcular los autovalores. (b)Hallar los autovectores resolviendo
(A ; i  I )x = 0, para cada autovalor.
3

(c) Cual es la multiplicidad geometrica de los autovalores repetidos (si hay)?.


(d) Veri car si es correcta la resolucion de (b) usando el MATLAB y el comando:
null(A ; i  eye(3) (observando cuantos elementos tiene una base de ese espacio nulo).
(e) Finalmente, cuantos autovectores linealmente independientes tiene A ?.

8 Matrices semejantes
Ya las hemos de nido ...
... Recordemos que una matriz B de n  n es semejante a una matriz A de n  n si
existe una matriz no singular S tal que
B = S ; :A:S 1

Tambien recordemos que las matrices representativas de operadores lineales respecto


de diferentes bases \son semejantes".
Los autovalores de B estan determinados por las races de su polinomio caracterstico:
;
pB () = det (;B ; :I ) = det S ; :A:S ; :I
1

= det S ; (A ; :I ) :S
1

= det S; ; : det (A ; :I ) : det S


1

= det S ; :S : det (A ; :I )


1

= det (A ; :I )
= pA ()
... A y B semejantes, tienen precisamente el mismo polinomio caracterstico ...
... y por tanto el mismo conjunto de autovalores fig.
>Que pasa con los autovectores de B ?
Si x es una autovector de A con autovalor , entonces
A:x = :x
; S:B:S; : = :x 1

S ; S:B:S ; :x = S ; : (:x)
;  ; 
1 1 1

B: S ; :x = : S ; :x
1 1

24
... As el autovector de B correspondiente al autovalor  es justamente S ; :x, donde 1

x es el autovector de A asociado a .
Conclusion ... Si A y B son matrices semejantes de n  n, con B = S ; :A:S , entonces 1

tienen el mismo conjunto de autovalores fi g; y si ui es un autovector de A correspondi-


ente a i, entonces S ; :ui es un autovector de B , correspondiente a i .
1

9 Diagonalizacion
De nicion Una matriz A de n  n es diagonalizable si existe una matriz no singular X
tal que
X ; :A:X = D
1

donde D es una matriz diagonal. En este caso, se dice que X diagonaliza a A.

Teorema Una matriz A de n  n es diagonalizable si y solo si A tiene n autovectores


linealmente independientes.
Demostracion. Supongamos que A tienen n autovectores linealmente independientes
fxig correpondientes a los autovalores fig (no necesariamente todos distintos). De nimos
X como la matriz de n  n cuyas columnas son los autovectores fxig
X = (x ; x ; : : : ; xn)
1 2

Entonces
A:X = (A:x ; A:x ; : : : ; A:xn)
1 2

= ( :x ;  :x ; : : : ;0n:xn)
1 1 2 2
1
 0  0
BB 0  1

 0 C
C
= (x ; x ; : : : ; xn) : B .. .. 2

. . . ... C
1 2
@. . A
0 0    n
= X:D
Dado que los fxi g son linealmente independientes, X es no singular; y por tanto ...
A:X = X:D =) D = X ; :A:X 1

La recproca se demuestra usando la misma idea, comenzando desde el conocimiento


que existe una X no singular tal que X ; AX = D, D diagonal. Luego, vale que
1

A:X = X:D...
... desde ah se llega a que las columnas de X son autovectores de A (linealmente
independientes, ya que X es no singular).

25
Conclusion Observacion Sea A un matriz de n  n
 Si A es diagonalizable, entonces los vectores columnas de la matriz de diagonal-
izacion X son autovectores de A, y los elementos de la diagonal de D son los
autovalores correspondientes.
 La matriz de diagonalizacion X no es unica. Reordenando su columnas, o multipli-
candolas por un escalar no nulo, se obtiene una nueva matriz de diagonalizacion.
 Si A tiene n autovalores \distintos", los autovectores correspondientes son lineal-
mente independientes, y por tanto A es diagonalizable.
 Si los autovalores de A no son todos distintos, A puede ser o no diagonalizable.
 Si A tiene menos de n autovectores linealmente independientes, no es diagonalizable.
As ...
 ... si hay autovalores repetidos se debe hallar la multiplicidad geometrica de los
autovalores repetidos (que coincide con la dimension del autoespacio, o sea con la
dim(N (A ; i  I )), si el autovalor es i).
... Si la multiplicidad geometrica coincide con la multiplicidad algebraica de los
autovalores repetidos, entonces hay n autovectores linealmente independientes.
... Si la multiplicidad geometrica para un i repetido, es menor que su multiplicidad
P A no es diagonalizable (no hay n autovectores independientes,
algebraica, entonces
sino solo r = m ).
Ejercicios
9.1 Diagonalizar la matriz (hallar autovalores,
 y una base de autovectores si es posible):
4 2
3 3
9.2 Para la misma matriz anterior, usando el MATLAB, si es diagonalizable hallar la
descomposicion A = XDX ; . 1

Usar comandos: E = eig(A), obtiene los autovalores.


[U; D] = eig(A), muestra los autovectores de A en las columnas de U (estas colum-
nas pueden ser dependientes si hay autovalores repetidos), y en D los autovalores.
Otros comandos: null(A ; i  eye(n)), muestra una base del autoespacio asociado
a i (se usa si el autovalor es repetido). Recordar que eye(n) es In.
9.3 >Es posible diagonalizar la matriz A siguiente?. Hallar los autovalores. El auto-
sistema para cada autovalor es el subespacio N (A ; i  In). Hallar la multiplicidad
geometrica de cada autovalor.
>Cuantos autovectores linealmente
0;1independientes
1 hay ?.
;3 ;9
@ 0 5 18 A
0 ;2 ;7
....Para visualizar y repasar

26
Otros resultados importantes ...
 Si una matriz A es diagonalizable, puede ser factoreada en el producto X:D:X ; . 1

Por tanto ...

2
; 1
;
A = X:D:X ; : X:D:X ; = X:D :X ; 1
 2 1
(8)
y en general,
Ak = X:D0k :X ; 1
1
k 0  0
B 0 k  0 C
= X: B C
1

B@ ... ... 2
. . . ... C
A :X ; 1

0 0    kn
Ejemplo Sea
2 ;3 
A= 2 ;5
Entonces ...
det (A ; :I ) = (2 ; ) (;5 ; ) + 6 =  + 3 ; 4 = ( ; 1) ( + 4)
2

... entonces  = 1 y  = ;4 son los autovalores


1 2
 de1A (que son distintos). Si
3
buscamos los autovectores, obtendremos u = 1 y u = 2 . Obtenemos ...
1 2

3 1
X= 1 2
Entonces ...    
X;
1
:A:X = 51 ;21 ;31 : 22 ;
;
3 : 3 1
5 1 2
1 0 
= 0 ;4
 
= 0 0 = D 1

Observar, que si reordenamos u y u en X


1 3
1 2

^
X= 2 1
Entonces ...  1 ;3 2 ;3 1 3
; 1
1
D^ = X^ :A:X^ = ; 5 ;2 1 : 2 ;5 : 2 1
;4 0
= 0 1
 0 
= 0  2

27
Conclusion ... Esto es, si A es diagonalizable, puede factorearse A = XDX ; , y los 1

autovalores de A simplemente se reordenan en la diagonal de D, y X esta formada por


los autovectores independientes.
Ademas, al multiplicar X por un escalar 6= 0 tambien implica multiplicar X ; por 1

1= , lo cual deja invariante a D.

Otra consecuencia interesante para matrices diagonalizables:


Si A es diagonalizable, A = XDX ; , y para toda potencia de A ...
1

... Ak = XDk X ; . As la funcion exponencial de una matriz A de n  n se de ne


1

(como ocurre con ex):

X1 k
= exp(A) = I + A + A + + + : : : = A
A A 2 3

eA 2

2! 3! k k! =0

siendo A = In.
0

... Usando A = XDX ; , se obtiene


1

X1 k
eA = exp(A) = X (I + D + D + D2! + D3! + : : : )X ; = X ( Dk! )X ;
2 3
2 1 1

k =0

Luego, considerando que


 
I + D + D + D2! + : : : + Dn!
n 2

eD = limn;>1 2

.. . y usando (8)
0Pm k1
1 0 1
BB k =0 k Pm CC Be e
1
C
CC = BB C
!
k2
limm;>1 B
2
eD = B@ k k
... C
... A @ A
=0 !

Pm kn e n

k =0 k!

)
eA = XeD X ; : 1

... es calculable si se conocen los autovalores de A, y los n autovectores de A.


... Esto es muy util cuando se resuelven sistemas de ecuaciones diferenciales.

Para practicar con diagonalizacion de matrices...

28
Ejercicios
X 9.1 S i T es una matriz n  n y c; d son escalares.
(a) Probar que si T tiene un autovalor  con un asociado autovector ~v entonces ~v es
un autovector de cT + dIn asociado con el autovalor c + d.
(b) Probar que si T es diagonalizable entonces lo es cT + dIn.
9.2 Matrices equivalentes por las tienen iguales sus autovalores?.
La respuesta es no!. Veri car que las siguientes matrices son equivalentes y no
tienen los mismos autovalores. Estas matrices equivalentes tienen la misma magnitud,
igual rango y distintos autovalores.
1 0 1 0
0 1 0 2
9.3 Mostrar que una matriz cuadrada con coe cientes reales y un numero impar de
las tiene siempre al menos un autovalor real.
9.4 Diagonalizar la matriz (hallar los autovalores, y autovectores, multiplicidad alge-
braica y multiplicidad geometrica):0 1
;1 2 2
@2 2 2A
;3 ;6 ;6
9.5 Es posible diagonalizar la matriz A siguiente?. Hallar autovalores. El autoespacio
para cada autovalor ( es N (A ; i  In) ). Hallar la multiplicidad geometrica para
cada autovalor. >Cantos autovectores0;1linealmente 1independientes hay ?.
;3 ;9
@ 0 5 18 A
0 ;2 ;7
9.6 Diagonalizar la matriz (hallar autovalores, y una base de autovectores (si es posi-
ble): 4 2
3 3
9.7 Repetir el ejercicio anterior resolviendo con el MATLAB, usando: E=eig( A). Luego
con el comando : [U,D]= eig(A) (obtiene los autovectores de A en las columnas de U
(pueden ser dependientes), y en D los autovalores. Hallar el N (A ; lambda:I ), y una
base correspondiente a cada autoespacio de cada autovalor.
9.8 Es posible diagonalizar la matriz siguiente?. (a)Hallar autovalores y los autovec-
tores linealmente independientes (observar
03 2 que41es simetrica ):
@2 0 2A
4 2 3

10 Matrices Simetricas.Matrices hermitianas.


 En el caso de matrices reales especialmente tenemos:
...

29
Matrices simetricas: AT = A
Matrices ortogonales: las columnas de A forman un conjunto ortonormal de R n
(y por lo tanto, una base).
 En cambio en el caso de las matrices complejas tenemos lo equivalente
... :
; 
Matrices hermitianas: Son las que satisfacen M H = M T = M .
Matrices unitarias: las columnas de M forman un conjunto ortonormal de C n (y
por tanto, una base).
Luego ...
 Una matriz real hermitiana es una matriz simetrica
 Una matriz real unitaria es una matriz ortogonal
Resultados relacionados importantes:
Estos resultados se dan aqu sin demostracion (se recomienda ver la bibliografa S.
Grossman para conocer los fundamentos que conducen a ellos).
Los resultados siguientes son de gran importancia y de ellos depende la resolucion de
muchas aplicaciones importantes.

En el caso de matrices reales...


 Una matriz real simetrica tiene \todos" sus autovalores reales.
Ademas ...
 Si A es simetrica, existe una matriz ortogonal U que diagonaliza a A
U ; :A:U = U T :A:U = D
1

Conclusion ... Esto quiere decir que si A es una matriz simetrica \ existe siempre"
una base de autovectores ortogonales.
... Proviene esa conclusion de los resultados ...
(1) Si A es simetrica, los autovectores asociados a autovalores distintos son ortogonales.
(2) Si A es simetrica, los autovalores repetidos tienen la multiplicidad geometrica igual
a la multiplicidad algebraica. Es decir, si la multiplicidad algebraica de un i es r,
entonces la dimension dim(N (A ; i:I )) = r. Observar que, por ejemplo con el
comando del MATLAB null(A ; i :I ), puede siempre obtener una base ortogonal
de este autoespacio de i. As ...
(3) Existe una base ortogonal de autovectores si A es simetrica.

30
Ejercicios
10.1 Rehacer un ejercicio previo: > Es posible diagonalizar la matriz siguiente?. Hallar
autovalores y los autovectores ortogonales
03 2(Observar
1 que es simetrica).
4
@2 0 2A
4 2 3
10.2 Es posible diagonalizar la matriz ?
0 2 ;1 0 1
@;1 2 ;1A
0 ;1 2
10.3 Idem para 0 4 ;1 0 ;11
BB;1 4 0 0 CC
@ 0 0 4 ;1A
;1 0 ;1 4
OBSERVACIONES:
Hacemos una peque~na incursion en el mundo de los escalares complejos, los vectores
y matrices complejas ...
El conjunto C n es el espacio vectorial formado por las n-uplas de numeros complejos.
Seran los escalares a considerar :
= a + ib (con a y b numeros reales)
Recordemos que...
Conjugado de :
 = a ; ib
Longitud o modulo de :
p p
j j = :  = a + b 2 2

Para los vectores:


0 1 0 1
BBzz CC1
B
B
z
z CC
1

z=B C
@ ... A
2
= ( z ; z
1 ; :
2 : : ; z n ) T y 
z = B
@ ... CA = (z ; z ; : : : ; zn)
2

1 2
T

zn zn
Longitud o modulo de un vector:
q
kzk = jz j + jz j +    + jznj
2 2 2

; 
1 2

= zT :z = 1 2

Notacion:
; 
zT  zH y kzk = zH :z = (conjugado transpuesto de z)
1 2

Producto interno:
hz; wi = wH :z
Propiedades:
31
1. hz; zi  0 ("=" si y solo si z = 0)
2. hz; wi = hw; zi para todo z y w en V
3. h :z + :w; ui = hz; ui + hw; ui
Matrices:
M = fmij g con mij = aij + ibij o,
M = A + iB con A = faij g y B = fbij g
y M H = M T
Para matrices complejas ...
 los autovalores de una matriz hermitiana son todos reales.
 La matriz conjugada transpuesta de una matriz unitaria U es su inversa: U ; = U H 1

(analogamente ocurres para matrices reales ortogonales: A;1


= AT )
 Si A es una matriz hermitiana, entonces existe una matriz unitaria U que diagonaliza
aA
U ; :A:U = U H :A:U = D
1

11 Aplicaciones
Nos limitaremos a ver dos casos, mas adelante cuando veamos Ecuaciones Diferenciales
veremos otras aplicaciones interesantes.

11.1 Funciones de varias variables.


Ahora, consideramos una aplicacion de los autovalores de matrices simetricas ... para
analizar la curvatura de las gra cas de funciones de varias variables. Para abreviar
calculos lo hacemos para dos variables.
 Sea z = f (x; y) una funcion con derivadas segundas contnuas. Sea P = (x ; y ) un
0 0 0

punto de su dominio.
Sea un vector u = (u ; u )T , de longitud kuk = 1, que indica una direccion.
1 2

 Si restringimos el estudio del comportamiento de f (x; y) en el punto P , en la di-


0

reccion de u, podemos considerar la funcion compuesta g(t) = f (P + tu). As en


0

particular cuando t = 0, g(0) = f (P ).0

 La derivada g0(t) = rf (P + tu)T :u usando derivada de funciones compuestas.


0

Ademas, si calculamos

32
 la derivada segunda de g(t) en t = 0, nos da la curvatura de g(t) en t = 0, que
coincide con la de la funcion f en P , en la direccion indicada por u. 0

Tal derivada g00(t) = (g0(t))0 = ( @f P@x0 tu u + @f P@y0 tu u )0. Usando regla de la ( + )


1
( + )
2

cadena, se obtiene:
g00(t) == @ f @xP02 tu (u ) + 2 @ f @xy
2 P
0 tu
u :u + @ f @y
2 P tu
(u ) .
2 ( + ) 0 2 ( + ) ( + )) 2
12 1 2 2

Luego, reemplazando en t = 0, se obtiene g00 (0) = @ @x


2f P @ 2 f P0
2 (u ) + 2 @xy u :u +
0 ( ) 2 ( )
1 1 2

@ 2 f P0 (u ) .
( ) 2
@y2 2

Si se considera la matriz Hessiana en P ...


@ 2 f P0( ) @ 2 f P0
( )
! 0

H= @x2 @xy ,
@ 2 f P0( ) @ 2 f P0
( )

@yx @y2
... la curvatura de f (x; y) en P , en la direccion de u, coincide con ...
u  0

00
g (0) = (u ; u )H u 1 2
1

Conclusion As la curvatura


 de f en P , en una direccion u esta dada por el valor de 0

forma cuadratica: (u ; u )H uu , siendo H la matriz simetrica de las derivadas segundas


1 2
1

de f en P . 0

u  P es convexa o concava hay que conocer


... As para saber si la funcion en el punto 0

el signo de la forma cuadratica (u ; u )H u para toda direccion u. 1 2


1

Se puede demostrar que ...

u  H (simetrica) tiene todos sus autovalores positivos , la forma cuadratica


(i) La matriz
(u ; u )H u es \positiva" en toda direccion. Eso dice que si los autovalores del Hes-
1 2
1

siano H en P son positivos entonces f es convexa en P , pues la curvatura es positiva


0 0

en todas las direcciones u.


(ii) La matriz H (sim
u
 etrica) tiene todos sus autovalores negativos , la forma
cuadratica (u ; u )H u es negativa en toda direccion. Eso dice que si los autoval-
1 2
1

ores del Hessiano H en P son negativos, entonces f es concava en P , pues la curvatura


0 0

es negativa en todas las direcciones u.


(iii) Si la matriz H (simetrica) tieneal  menos un autovalor negativo y otro positivo
u
entonces la forma cuadratica (u ; u )H u es negativa al menos en una direccion y 1
1 2
2

positiva en otra direccion. As f (x; y) tiene en P , curvatura negativa en alguna direccion 0

y curvatura positiva en otra.

33
Problema (i) Dada una matriz real simetrica A (n  n). Veri car que si tiene n
autovalores positivos equivale a que la forma cuadratica uT Au > 0, para todo u 2 <n, con
u=6 0.
Ayuda: considerar que existe una base de autovectores ortonormales fu ; u P ; :::; ung
1 2

tales que Aui = i ui . Luego usar esa base de autovectores para escribir: u = iui .
Reemplazar en uT Au, para ver que se obtiene un valor positivo para todo u, si cada
i > 0 ya que uTi Aui = i > 0.
Recprocamente, si para todo u 6= 0, uT Au > 0, entonces tambien para todo autovector
uTi Aui = i > 0. As tiene autovalores positivos.
(ii) Lo mismo se puede hacer cuando todos los autovalores son negativos.
Problema (i) Sea la funcion z = exy , en el punto (1; 2). Ver cual es la curvatura en
(1; 2) en cualquier direccion u, de acuerdo a los autovalores del Hessiano en ese punto.
(ii) Sea la funcion z = ;x + 4xy ; 2y + 1, analizar la curvatura en los puntos donde
3 2

el gradiente es cero. Puede obtener alguna conclusion sobre el tipo de puntos estacionarios
que tiene?.

11.2 Relacion de recurrencia


En 1202 Leonardo de Pisa, conocido como Fibonacci, expuso el siguiente problema.
Problema Un hombre tiene una pareja de conejos en un corral. >Cuantas parejas de
conejos se pueden generar a partir de esa pareja en un a~no, si se sabe que cada mes se
reproduce generando una nueva pareja, la que a partir de su segundo mes de vida tambien
se reproduce de la misma forma?.
Hay supuestos simpli cadores, como que no hay perodos de gestacion y que no hay
mortalidad.
 Dado un cierto mes, el numero de pares nuevos que apareceran en el proximo mes
es simplemente el numero de pares que vivan en el mes previo pasado, desde que
todos estos seran fertiles despues de dos meses.
 Dado un cierto mes, el numero de pares, f (n + 1), que viviran en el mes siguiente
es la suma del numero de los que viven en este mes, f (n), mas el numero de los
nacimientos (igual a f (n ; 1), correspondiente a los que vivan en el mes n ; 1).
As se tiene la siguiente relacion
f (n + 1) = f (n) + f (n ; 1) donde f (0) = 1, f (1) = 1
Este es un ejemplo de una relacion de recurrencia, llamada as porque los valores de
f se calculan mirando los previos valores de f .
Podemos responder la pregunta de Fibonacci, despues de doce meses, sabiendo que
f (n + 1) = f (n) + f (n ; 1), para cada mes n, y conociendo las condiciones iniciales f (0)
y f (1). A partir de la formula, se obtiene f (2) = f (1) + f (0), f (3) = f (2) + f (1),y as
siguiendo ...
mes 0 1 2 3 4 5 6 7 8 9 10 11 12
parejas 1 1 2 3 5 8 13 21 34 55 89 144 233
34
La sucesion f (n) de numeros de nida por la ecuacion de arriba (se listan los primeros) se
llama la sucesion de Fibonacci .
Lo que hemos visto en las clases previas es util para calcular f (n + 1) sin tener que
encontrar cada uno de los previos f (n), f (n ; 1), etc. Por ejemplo, para tal sucesion nos
puede interesar f (100), o cualquier otro mas grande.
Como hacer para conocer f (100), por ejemplo ?
Observar que la relacin de recurrencia es lineal y aspodemos dar una formulacion
matricial para ella.
1 1 f (n)  f (n + 1) f (1) 1
1 0 =
f (n ; 1) f (n) donde f (0) = 1

Entonces, si denominamos
A a la matriz y ...
... ~vn al vector de componentes f (n + 1) y f (n),
tenemos que
~vn = A~vn; ; 1

as reemplazando ~vn; usando ~vn; , se tendra


1 2

~vn = AA~vn; ; 2

: : : , hasta reemplazar ~v mediante A~v , se obtiene que


1 0

~vn = An~v : 0

La ventaja de esta formulacion es que si diagonalizamos A alcanzamos una forma rapida


para calcular sus potencias: donde A = SDS ; , tenemos An = SDnS ; , y la n-esima
1 1

potencia de la matriz diagonal D es la matriz diagonal cuyos elementos diagonales son la


potencia-n de los elememtos de D. p
Lap ecuacion caracterstica de A is  ;  ; 1, que tiene las raices (1 + 5)=2 y
2

(1 ; 5)=2. Diagonalizando se tiene:


1 1  p ;p  p 0 ! p ; ;pp !
1+ 5 1 5 1+ 5 1 1 5

1 0 = 1 ;p ; p 2 5 2 5

1
2 2

0 p p 1
2
5 1

5
1+

2 5
5

Introduciendo los vectores y tomando la potencia-n, tenemos


f (n + 1) 1 1n f (1)
f (n) = 1 0 f (0)
 p ;p  p n 0 ! p ; ;pp ! f (1)
1+ 5 1 5 1+ 5 1 1 5

= 1 2

1
2 p
; n ;
p
2

f (0)
5 2 5

0 p p 1
2
5 1

5
1+

2 5
5

Podemos calcular f (n) desde la segunda componente de la ecuacion,


" p !n p !n#
f (n) = p 1 1 + 5 ; 1 ; 5
5 2 2

35
p
Notamos que f es dominada por su primer termino porque (1 ; 5)=2 es menor que 1,
as sus potencias tienden a cero.
En general, una relacion de recurrencia lineal tiene la forma
f (n) = a f (n ; 1) + a f (n ; 2) +    + ak f (n ; k)
1 2

(tambien se llama una ecuacion en diferencias). Esta relacion de recurrencia es homogenea


porque no hay un termino constante.
Se puede poner en la forma:

0 = ;f (n) + a f (n ; 1) + a f (n ; 2) +    + ak f (n ; k):
1 2 (9)
Esta es una relacion de recurrencia de orden k. Esa relacion, con las condiciones iniciales
f (0); : : : ; f (k ; 1)
determina completamente la sucesion, para n  k.
Por ejemplo, la relacion de Fibonacci es de orden 2, y con las condiciones inicales
f (0) = 1 y f (1) = 1, determina la secuencia de Fibonacci, para f (2), f (3)....
Veremos como se puede usar el Algebra Lineal para resolver relaciones de recurrencia
lineales.
 Primero, de nimos el espacio vectorial en el cual trabajamos.
Sea V el conjunto de funciones f de nidas para los numeros naturales N = f0; 1; 2; : : : g
y con valores f (n) en los numeros reales. (Tendremos tambien funciones con dominio
f1; 2; : : : g, eso es , sin el 0, pero eso no cambia lo principal.)
Dejando de lado \las condiciones iniciales" por un momento, para cualquier relacion
de recurrencia, podemos considerar el
... subconjunto S (del espacio V ) de las funciones soluciones f (n) de una relacion
de recurrencia.
 El subconjunto S de soluciones es un subespacio de V .
Es no vacio, ya que la funcion f (n) = 0, constante, satisface la relacion (9) (aunque
no las espec cas condiciones iniciales).
Ademas, si dos funciones f y f son soluciones, tambien la suma de ellas f + f lo
1 2 1 2

es:

;(f +f )(n)+a (f +f )(n;1)+  +ak (f +f )(n;k)


= (;f (n)+a f (n;1)+  +ak f (n;k))
1 2 1 1 2 1 2

+(;f (n)a f (n;1)+  +ak f (n;k))


1 1 1 1

2 1 2 2

= 0:

36
Tambien, si se multiplica por un escalar rf , lo es : 1

(;rf )(n)+a (rf )(n;1)+  +ak (rf )(n;k)


= r(;f (n)+a (f )(n;1)   +ak f (n;k))
1 1 1 1

= r0
1 1 1 1

= 0:

>Cual es la dimension del subespacio de soluciones S ?.


Consideremos la aplicacion: T : S ! <k . desde el conjunto de las funciones de S al
conjunto de vectores de <k .
0 1
f (0)
BB f (1) CC
f 7! B@ ... CA
f (k ; 1)
Como cualquier solucion de la relacion de recurrencia esta univocamente determinada
por las k condiciones iniciales, esta aplicacion es \inyectiva" y \suryectiva" sobre <k .
As S tiene la misma dimension k que <k , que es el orden de la relacion de recurrencia.
As (dejando de lado todava las condiciones iniciales), podemos describir el conjunto
de soluciones de cualquier relacion de recurrencia lineal homogenea de orden k a partir
de conocer una base de S , o sea un conjunto de k funciones linealmente independientes,
y luego combinando a estas funciones k se obtiene cualquier otra solucion.
... Como obtener estas k funciones linealmente independientes?, y obtener las restantes...
Para eso, expresamos en forma matricial la relacion de recurrencia,
f (n) = a f (n ; 1) +    + ak f (n ; k)
1

0a a a : : : a a 1
BB 1 0 0 : : : k0; 0k CC 0f (n ; 1)1 0 f (n) 1
1 2 3 1

BB 0 1 0 CC BBf (n ; 2)CC BB f (n ; 1) CC
BB 0 0 1 CC B@ ... CA = B@ ... CA
B@ ... ... ... ... C A f (n ; k) f (n ; k + 1)
0 0 0 ::: 1 0

37
Para encontrar la ecuacion caracterstica de la matriz, lo vemos primero para el caso
de una matriz de 2  2:
a ;  a 
1 ; =  ; a  ; a
1 2 2
1 2

y para el caso de una matriz 3  3.


0a ;  a a 1
@ 1 ; 0 A = ; + a  + a  + a
1 2 3
3 2

1 ;
1 2 3

0
que muestra que la ecuacion caracterstica es la siguiente.

a ;  a a : : : ak; ak
1 ; 0 : : : 0 0
1 2 3 1

0 1 ;
0. 0. 1 . .

. .
. . . . .
.
0 0 0 : : : 1 ;
= (;k + a k; + a k; +    + ak;  + ak )
1
1
2
2
1

Este es el polinomio asociado con la relacion de recurrencia.


Si el polinomio
;k + a k; + a k; +    + ak;  + ak
1
1
2
2
1

no tiene races repetidas entonces la matriz es diagonizable y podemos, en teora, tener


la formula para f (n) como en el caso de Fibonacci.
Pero, como sabemos que el subespacio S de las soluciones tiene dimension k, \ no nece-
sitamos diagonalizar", si conocemos k funciones linealmente independientes satisfaciendo
la relacion.
Si r , r , : : : , rk son las races distintas, consideramos las funciones fr1 (n) = rn ,
1 2

fr2 (n) = rn... hasta fr (n) = rkn, potencias de las races del polinomio.
1

2 k

Problema (i) Mostrar que cada una de esas funciones ees una solucion de la relacion
(9).
(ii) Ver que son linealmente independientes.

38
Sntesis Dada una relacion de recurrencia lineal homogenea f (n) = a f (n ; 1) +    +
ak f (n ; k) (es decir, 0 = ;f (n)+ a f (n ; 1)+    + ak f (n ; k)) consideramos la ecuacion
1

asociada 0 = ;k + a k; +    + ak;  + ak .


1
1
1 1

Encontramos las races r , : : : , rk , y si son distintas entonces toda solucion de la


1

relacion de recurrencia tiene la forma


f (n) = c rn + c rn +    + ck rkn
1 1 2 2

para ciertas constantes c ; : : : ; cn 2 <, que dependeran de las condiciones iniciales.


1

El caso de races repetidas tambien es facil de hacer, pero no lo cubriremos aqu .


Solamente diremos que en el caso de orden k = 2 (si las races son repetidas r = r ), 1 2

las soluciones independientes son :

fr1 (n) = rn; y la otra se construye f (n) = nrn


1 2 1

Ahora, dadas algunas condiciones iniciales:


Si se conocen las condiciones iniciales, vamos a determinar los coe ciente ci que com-
binan adecuadamente a las funciones de la base.
Para hallar c ; : : : ; cn. Por ejemplo, seapel polinomio asociado con la relacion de
Fibonacci ; + p+ 1, cuyas races son p (1 n 5)=2 y toda solucion satisface:
1
2

f (n) = c ((1 + 5)=2) + c ((1 ; 5)=2) .


1
n
2

Incluyendo las condiciones iniciales para n = 0 (f (0) = 1) y n = 1 (f (1) = 1), tenemos


el sistema lineal de ecuaciones en c y c : 1 2

p c + p c =1 1 2

(1 + 5=2)c + (1 ; 5=2)c = 1
1 2

p p
Resolviendo ese sistema, conduce a c = 1= 5 y c = ;1= 5, como se habia calculado
1 2

antes.

39
Ejercicios
Resolver la siguientes relaciones lineales de recurrencia:

(a) f (n) = f (n − 1) + f (n − 2), f (0) = 1/2; f (1) = 1;

(b) f (n) = f (n − 2)/2, f (0) = 1; f (1) = 0;

(c) f (n) = f (n − 1) + f (n − 2)/2, f (0) = 0; f (1) = 1;

(d) Escribir la solución de las relaciones anteriores, para condiciones iniciales generales
f (0) = f0 , f (1) = f1 .

– 40 –
Apéndices
1. Autovalores de matrices definidas por bloques
Consideremos la matriz  
A 0
M=
0 B
donde A es una matriz de n × n, B de m × m y 0 denota matrices nulas, tales que M
es de (n + m) × (n + m). Estas matrices aparecen frecuentemente en diversos problemas,
representando por ejemplo dos sistemas A y B independientes.
Es fácil ver que para hallar los autovalores y autovectores de M , basta con obtener los
autovalores de A y de B por separado, y luego unir ambos conjuntos, completando con
ceros los autovectores correspondientes:
    
A A 0 X A X
AX = λ X ⇒ =λ
0 B 0 0
    
B A 0 0 B 0
BY = λ Y ⇒ =λ
0 B Y Y
Estas expresiones muestran que todo autovalor y autovector de A o B origina un autovalor
y autovector de M . Además, hemos visto antes que det M = det A det B y por lo tanto,

det[M − λI] = det [A − λI] det[B − λI] (1)

La ecuación caracterı́stica det[M − λI] = 0 es entonces det [A − λI] det[B − λI] = 0,


por lo que toda raı́z λ debe ser necesariamente raı́z del primer o segundo factor, es decir
autovalor de A o B.
Y si λ es autovalor de M , el sistema homogéneo (M − λI)(X Y ) = 0 para obtener los
autovectores se reduce a dos sistemas independientes: (A − λI)X = 0 y (B − λI)Y = 0.
Si λ es autovalor de A y no de B, el segundo sistema tendrá sólo la solución trivial Y = 0,
por lo que los autovectores serán de la forma (X 0 ), y si λ es autovalor de B y no de A, los
autovectores serán de la forma (0Y ). Y si λ es autovalor de A y de B, sigue siendo posible
elegir autovectores de la forma (X 0
0 ) y (Y ), que formen una base del espacio propio.
Ejemplo: Consideremos la matriz
 
1 −1 0 0
 −1 1 0 0 
M =  0

0 2 1 
0 0 1 2
 
1 −1
Para hallar sus autovalores y autovectores, obtenemos primero los de A = ,
−1 1
A A 1 1
 λ1 =0, λ2 = 2, con autovectores X1 ∝ (1 ) y X2 ∝ (−1 ), (probar!) y luego los de
que son
2 1
B= , que son λB B 1 1
1 = 3, λ2 = 1, con autovectores Y1 ∝ (1 ), Y2 ∝ (−1 ).
1 2

– 41 –
Los autovalores y autovectores de M serán entonces
       
1 1 0 0
 1   −1   0
 , λ4 = 1, V4 ∝  0 
  
λ1 = 0, V1 ∝ 
 0  , λ2 = 2, V2 ∝  0  , λ3 = 3, V3 ∝  1
   
  1 
0 0 1 −1

Si algún autovalor de B de multiplicidad 1 coincidiese con alguno de A de multiplicidad 1,


ese autovalor tendrá en M multiplicidad algebraica y geométrica 2. Una base del espacio
propio asociado estará formada por la unión de los autovectores asociados (X 0
0 ) y (Y ).
En general, la multiplicidad algebraica de un autovalor λ en M será la suma de las mul-
tiplicidades algebraicas en A y B, y lo mismo rige para la multiplicidad geométrica.

Problemas:
1. En base a los resultados anteriores, determinar los autovalores y una base de los espacios
propios asociados de las matrices
 
  2 −2 0 0
2 −2 0  −1 1 0 0 
a) M =  −1 1 0  b) M =   0

0 1 3 
0 0 3
0 0 3 1
 
2 −2 0 0  
 −1 1 2 0 −2
0 0 
c) M =  d) M =  0 3 0 
 0 0 1 −1 
−1 0 1
0 0 −2 2
2. Para pensar: Discuta el caso en que
 
A C
M=
0 B

con A de n × n, B de m × m y C de n × m. Los sistemas A y B ya no son independientes.


Muestre sin embargo que la ecuación (1) sigue siendo válida, por lo que los autovalores de
M siguen siendo los de A y B: Para hallar los autovalores basta nuevamente con hallar
los de A y B.
No obstante, muestre que si bien los autovalores de A darán origen a autovectores (X 0 ) de
M que dependen sólo de A, los autovectores de M asociados a autovalores de B depen-
derán en general también de A y C, y pueden incluso no existir si el autovalor asociado
es también autovalor de A.

3. Determine los autovalores y autovectores de


 
2 −2 0 1
 −1 1 0 0 
M =  0

0 2 1 
0 0 1 2

– 42 –
2. Polinomio de Taylor en varias variables. Forma diagonal
Consideremos un campo escalar F : Rn → R, es decir, una función que asigna a
cada vector r = (x1 , . . . , xn ) ∈ Rn un número real F (r) = F (x1 , . . . , xn ). Asumiendo
que poseea derivadas parciales de todo orden continuas en una región |r − a| < R, con
a = (a1 , . . . , an ), se define el polinomio de Taylor de grado k como
X ∂F 1 X ∂ 2F
Pk (r) = F (a) + (a)(xi − ai ) + (a)(xi − ai )(xj − aj ) (1)
i
∂xi 2! i,j ∂xi ∂xj
1 X ∂kF
+... + (a)(xi1 − ai1 )(xi2 − ai2 ) . . . (xik − aik ) (2)
k!i ,i ,...,i ∂xi1 ∂xi2 . . . ∂xik
1 2 k

∂F ∂F
donde ∂x i
(a) = ∂xi
|r=a y las sumas sobre i, j, i1 , . . . ik corren entre 1 y n. Este polinomio
ajusta todas las derivadas parciales de F hasta orden k en r = a, reduciéndose en el
caso de una dimensión (n = 1) al polinomio Taylor ya estudiado. Para r cercano a a, la
diferencia F (r) − Pk (r) es pequeña, con |F (r) − Pk (r)| = O(|r − a|k+1 ).
Los tres primeros términos (1) del desarrollo constituyen el polinomio de Taylor de
∂F ∂F
segundo orden P2 (r). Mediante el gradiente ∇F (r) = ( ∂x 1
, . . . , ∂x n
) y la matriz Hessiana
 ∂2F ∂2F 2F
. . . ∂x∂1 ∂x

∂x21 ∂x1 ∂x2 n

H(r) = 
 .. .. ... .. 
(3)
. . . 
∂2F ∂2F ∂2F
∂xn ∂x1 ∂xn ∂x2
... ∂x2 n

de n × n, este polinomio puede escribirse en la forma compacta


1
P2 (r) = F (a) + ∇F (a) · (r − a) + (r − a)T H(a)(r − a) (4)
2
donde en el último término hemos considerado a (r − a) como matriz columna (n × 1) y
a (r − a)T matriz fila (1 × n). Por ejemplo, para n = 2 y r = (x, y), a = (ax , ay ), este
término resulta
!
∂2F ∂2F 
1 T 1 ∂x 2 (a) ∂x∂y
(a) x − ax
(r − a) H(a)(r − a) = 2 (x − ax , y − ay ) ∂2F 2
2
∂y∂x
(a) ∂∂yF2 (a) y − ay
h 2 i
∂2F 2
= 21 ∂∂xF2 (a)(x − ax )2 + 2 ∂x∂y (a)(x − ax )(y − ay ) + ∂∂yF2 (a)(y − ay )2
2F
= 2!1 i,j ∂x∂i ∂x
P
j
(a)(xi − ai )(xj − aj )
∂ F 2 ∂ F 2
en acuerdo con (1). Hemos asumido ∂x∂y = ∂y∂x en r = a, propiedad válida cuando ambas
derivadas cruzadas existen y son continuas.
2F 2F
En las condiciones anteriores ( ∂x∂i ∂xj
= ∂x∂j ∂x i
∀ i, j) la matriz Hessiana H(a) es real y
simétrica, por lo que puede ser diagonalizada mediante una matriz ortogonal R formada
por autovectores vi ortogonales y normalizados de H(a): R = (v1 , . . . , vn ), con
H(a)vi = λi vi , i = 1, . . . , n

1 i=j
vi · vj =
0 i 6= j

– 43 –
De esta forma, R satisface
 
λ1 0 ... 0
 0 λ2 ... 0 
R−1 = RT , RT H(a)R =  (5)
 
.. .. .. .. 
 . . . . 
0 0 . . . λn
donde λ1 , . . . , λn son los autovalores de H(a). Reemplazando ahora r − a = R(r 0 − a0 ),
(r − a)T = (R(r 0 − a0 ))T = (r 0 − a0 )T RT , se obtiene la forma diagonal
1 1 0
(r − a)T H(a)(r − a) = (r − a0 )T (RT H(a)R)(r 0 − a0 )
2 2
n
1X
= λi (x0i − a0i )2 (6)
2 i=1

donde r 0 = RT r y a0 = RT a denotan las coordenadas de r y a en la base de autovectores:


   
x01 x1
 ..   . 
 .  = RT  ..  (7)
x0n xn
Se puede siempre elegir el signo de los autovectores tal que Det(R) = +1, en cuyo caso
la matriz R representa una rotación y (x01 , . . . , x0n ) serán las coordenadas respecto de un
sistema de ejes ortogonales rotado respecto del original. En estas coordenadas, la matriz
Hessiana es entonces diagonal:
∂2 F

T λi i = j
0 0
(a) = (R H(a)R)ij =
∂xi ∂xj 0 i 6= j
como puede verificarse utilizando la forma diagonal (6) o aplicando (7) y regla de la ca-
dena. Hemos ası́ probado que existen siempre n ejes ortogonales para los que la
matriz Hessiana H(a) respecto de las coordenadas asociadas resulta diagonal.
Estos ejes se denominan usualmente ejes principales (de la forma cuadrática r T H(a)r).

La forma diagonal (7) permite ver que si λi > 0 ∀ i, F será cóncava “hacia arriba” en
a en todas las direcciones, como en el caso en que a es un mı́nimo local, mientras que si
λi < 0 ∀ i, F será cóncava “hacia abajo” en a en todas las direcciones, como en el caso
en que a es un máximo local. En general, F será cóncava hacia arriba en las variables
x0i asociadas a autovalores λi > 0, y cóncava hacia abajo en las variables x0i asociadas a
autovalores λi < 0. Si algun autovalor λi es nulo, se deben utilizar derivadas de orden
superior u otros métodos para determinar la concavidad respecto de x0i .

Ejercicio: Considere la función


2 −y 2
F (x, y) = e−x (1 − x2 − y 2 − 2αxy)
1) Muestre que para a = 0,
 
−4 −2α
F (0) = 1, ∇F (0) = 0, H(0) =
−2α −4
– 44 –
2) Muestre que H(0) tiene autovalores

λ1 = −2(2 + α), λ2 = −2(2 − α)


√ √
con autovectores normalizados v1 = (11 )/ 2, v2 = (−1
1 )/ 2.
3) Pruebe que si  
1 1 −1
R= √
2 1 1
entonces    
T 1 0 T λ1 0
R R= , R H(0)R =
0 1 0 λ2
4) A partir de los resultados anteriores, muestre que el polinomio de Taylor de F de grado
2 alrededor de a = 0 es

P2 (x, y) = 1 − 2(x2 + y 2 + αxy)


−4 −2α x 0 0 λ 1 0 x0
= 1 + 21 (x, y)(−2α 1
−4 )(y ) = 1 + 2 (x , y )(0 λ2 )(y 0 )
2 2
= 1 − (2 + α)x0 − (2 − α)y 0 (8)

donde
x0 √
     
T x x+y
=R = / 2
y0 y −x + y
5) Muestre que R representa una rotación de 45o en sentido antihorario, y que por lo tanto,
x0 , y 0 , son las coordenadas respecto de ejes rotados 45o en sentido antihorario respecto de
los ejes originales.
6) A partir de la forma diagonal (8) y la anulación del gradiente, concluya que 0 = (0, 0)
es un máximo local de F si |α| < 2 y un punto silla de F si |α| > 2. En particular, si
α > 2, F es en el origen cóncava hacia abajo en x0 y hacia arriba en y 0 . ¿Que sucede en
el caso α = 2?
7) Analice de la misma forma los otros puntos crı́ticos de F . La figura muestra el gráfico
de F cerca del origen para dos valores de α.

– 45 –
3. Autovalores de operadores lineales
Un operador lineal o endomorfismo en un espacio vectorial V es una transformación
lineal L : V → V . Se dice que un vector no nulo v ∈ V es autovector de L si existe un
escalar λ, denominado autovalor, tal que

L(v) = λv

Está definición es general, siendo independiente de la representación de L y válida tanto


para espacios de dimensión finita o infinita.
Si v es autovector con autovalor λ, αv es también autovector de L con el mismo
autovalor λ ∀ α 6= 0, debido a que L es lineal:

L(αv) = αL(v) = αλv = λ(αv)

Y si v y w son autovectores con el mismo autovalor λ, v + w también satisface (1):

L(v + w) = L(v) + L(w) = λv + λw = λ(v + w)

Por lo tanto, el conjunto de todos los autovectores con autovalor λ, junto con el vector
nulo 0 (que satisface L(0) = 0 = λ0 ∀ λ) forma un subespacio de V , denominado espacio
propio o autoespacio asociado al autovalor λ:

Sλ = {v ∈ V |L(v) = λv}

Por lo tanto, Sλ = {v ∈ V |L(v) − λv = 0} = {v ∈ V |(L − λI)v = 0} = Nu[L − λI],


donde I denota el operador identidad y Nu[L − λI] el núcleo del operador lineal L − λI.
En espacios V de dimensión finita n, L queda completamente determinado por los
vectores que asigna a los elementos de una base (ordenada) B = (b1 . . . , bn ) de V . Si

L(bi ) = m1i b1 + . . . + mni bn i = 1, . . . , n ,


v = x1 b1 + . . . + xn bn

la ecuación (1) resulta equivalente a

ML X = λX

donde    
m11 . . . m1n x1
ML =  .. , X =  ... 
   
.
mn1 . . . mnn xn
son, respectivamente, la matriz que representa a L en esta base y el vector columna de
coordenadas de v en esta base. Esto implica que λ es autovalor de L si y sólo si λ es
autovalor de la matriz representativa ML , es decir, si y sólo si Det[ML − λIn ] = 0.
Esto es válido para cualquier base elegida, es decir, para cualquier representación
matricial ML de L, por lo que todas las matrices que representan a L en alguna base

– 46 –
deben tener los mismos autovalores. Podemos comprobar esto recordando que si ML y
ML0 representan a L en bases B y B 0 respectivamente, entonces son matrices semejantes:
ML0 = S −1 ML S
donde S es la matriz no singular de cambio de base, cuyas columnas son las coordenadas
de los vectores de la base B 0 en la base original B:
 
s11 . . . s1n
b0i = s1i b1 + . . . + sni bn , i = 1, . . . , n ⇒ S =  ... 
sn1 . . . snn
Por lo tanto, los polinomios caracterı́sticos asociados a ML y ML0 son los mismos:
Det[ML0 − λIn ] = Det[S −1 ML S − λIn ] = Det[S −1 (ML − λIn )S] = Det[ML − λIn ]
ya que Det[S −1 AS] = Det(S)Det(A)Det(S) = Det(A). Los autovalores de ML y ML0 serán
entonces idénticos.
Recordemos también que las coordenadas de v en estas bases se relacionan por
X 0 = S −1 X
por lo que si ML X = λX ⇒ ML0 X 0 = S −1 ML SS −1 X = S −1 ML X = λS −1 X = λX 0 . Esto
muestra que si X es autovector de ML con autovalor λ, X 0 = S −1 X es autovector de ML0
con el mismo autovalor λ.

L es diagonalizable si existe una base B d = (v1 , . . . , vn ) de V formada por autovecto-


res de L:
L(vi ) = λi vi , i = 1, . . . , n
La matriz representativa MLd de L en esta base es entonces diagonal:
 
λ1 0 . . . 0
 0 λ2 0 . . . 
MLd =   = S −1 ML S
 
..
 . 
0 . . . 0 λn
donde S es la matriz de cambio de base correspondiente (sus columnas son
y las coordena-
das de los autovectores vi en la base original). 1.5

Ejemplo: Sea Ps : R2 → R2 el proyector ortogonal 1.0


sobre la recta generada por un vector s = e1 + e2 , e2
donde B = (e1 , e2 ) es la base canónica. Tenemos s¦ 0.5
s
s·v e1
Ps (v) = s
s·s x
-1.5 -1.0 -0.5 0.5 1.0 1.5
Ps es lineal, y por su definición cumple
-0.5
Ps (s) = s = 1 s, Ps (s⊥ ) = 0 = 0 s⊥
donde s⊥ = −e1 + e2 es un vector ortogonal a s (s · s⊥ = 0). Por lo tanto,

– 47 –
1) s es autovector de Ps con autovalor λ1 = 1
2) s⊥ es autovector de Ps con autovalor λ2 = 0
Estos resultados fueron obtenidos de la definición de Ps , sin utilizar ninguna representación
matricial determinada. En la base B d = (s, s⊥ ) de R2 , la matriz representativa de Ps
será entonces diagonal:  
d 1 0
MPs =
0 0
Por otro lado, en la base canónica se obtiene
Ps (e1 ) = Ps (e2 ) = 12 s = 12 (e1 + e2 )
por lo que la matriz que representa a Ps en esta base es
 
1 1 1
MPs =
2 1 1
Se verifica (probar!) que sus autovalores son λ1 = 1 y λ2 = 0, con espacios propios
generados por los autovectores X1 = (11 ) y X2 = (−1
1 ) respectivamente:
           
1 1 1 −1 0 −1
MPs = =1 , MPs = =0
1 1 1 1 0 1
siendo X1 y X2 las coordenadas de s y s⊥ en la base canónica. Se comprueba que
     
d −1 1 0 1 −1 −1 1 1 1
MPs = S MPs S = , con S = , S =
0 0 1 1 2 −1 1

Ejercicios:
1. Hallar las matrices que representan a la reflexión R : R2 → R2 respecto de la
recta y = x en i) la base canónica, ii) la base B 0 = ((1, 1), (−1, 1)) y iii) la base
B 00 = ((1, 0), (1, 1)). Mostrar luego que poseen los mismos autovalores, y que B 0 es una
base de autovectores de R.

2. Verificar que en el espacio vectorial V de las funciones f : [0, L] → R derivables a


segundo orden que satisfacen f (0) = f (L) = 0, la transformación lineal L definida por
d2 f
L(f ) = −
dx2
posee autovectores (denominados en este contexto autofunciones)
nπx
fn (x) = sen( ) , n = 1, 2, 3, 4 . . .
L
con autovalores
n2 π 2
λn = 2 , n = 1, 2, 3, 4 . . .
L
Estas son las únicas autofunciones de L que se anulan en los bordes del intervalo. Este
conjunto de autofunciones es completo: toda función f (x) pertenecienteP∞ a este espacio
puede escribirse como una serie de estas autofunciones: f (x) = n=1 cn sen( nπx
L
) (serie de
medio rango). En mecánica cuántica, estos autovalores λn determinan las energı́as posibles
de una partı́cula confinada en un intervalo de longitud L, siendo fn (x) las funciones de
onda asociadas. – 48 –
Apéndice

La descomposición en valores singulares (DVS)

–1–
Referencias
[1] R.L. Burden, J.Douglas Faires, Analisis Numerico , Grupo Editorial
Iberoamericana, Mexico, 1985.
[2] J. Demmel, Applied Numerical Linear Algebra, SIAM,Philadelphia, 1997.

2
Hemos visto previamente que toda matriz simetrica A se puede descomponer A =
PDP T , siendo P una matriz ortogonal (P T = P ;1), D una matriz diagonal que contiene
los autovalores de A. Cuando A no es simetrica, pero si cuadrada, si A es diagonizable
existe una descomposicion de A = SDS ;1, siendo S no singular aunque no necesariamente
ortogonal. Pero, cualquier matriz no es diagonizable ! !.
.... Ahora veremos que toda matriz (cuadrada o no, simetrica o no) tiene una factor-
izacion de la forma:
A = PDQT ;
donde P y Q son matrices ortogonales y D una matriz diagonal. Este resultado se llama
\ descomposicion en valores singulares"(DVS), y es una de las mas importantes entre las
descomposiciones de matrices.
... Explicaremos como obtenerla y haremos consideraciones sobre sus aplicaciones.

1 Los valores singulares de una matriz


Para cualquier matriz A de m  n, la matriz AT A de n  n es simetrica y por tanto puede
ser diagonalizada ortogonalmente. Los autovalores de AT A son reales y no negativos (
 0). Eso surge ya que para cualquier autovector u, se tiene que
AT Au = u
si se multiplica a ambos lados por u, se obtiene la igualdad
uT AT Au = uT u
que indica que kAuk2 = kuk2, por lo tantop   0.
... Por tanto tiene sentido tomar las i , si i, i = 1; : : : ; n, son los autovalores de
A A.
T

De nicion Si A es una matriz mn, los valores singulares de A son las races cuadradas
de los autovalores de AT A, y se denotan mediante 1 ; : : : ; n. Es convencional acomodar
los valores singulares de modo que 1  2  : : :   n.
Ejemplo 1: Encontrar los valores singulares de A:
Ejemplo
01 11
A = @1 0A
0 1
La matriz AT A
2 1
AT A =
1 2
p : 1 = 3, 2 = 1. En consecuencia los valores singulares de A son :
tiene pautovalores
1 = 3, 2 = 1.
3
Para comprender el signi cado lde los valores singulares de A consideremos los autovec-
tores de AT A. Por ser simetrica sabemos que hay n autovectores ortogonales, que se
pueden considerar de longitud 1. As sean v1 ; v2; : : : ; vn esa base de autovectores ordena-
dos y correspondientes a los autovalores 1  2  : : : n. Estos autovectores satisfacen:
AT Avi = ivi;
o equivalentemente
kAvik2 = i;
por consiguiente
p
kAvik = i:
As los valores singulares de A son las longitudes de los vectores Av1 ; : : : ; Avn. Geomet-
ricamente esto tiene una importante interpretacion. Si consideramos el ejemplo 1, y si
consideramos x 2 fx : kxk2 = 1g, entonces kAxk2 = Ax  Ax = xT AT Ax =
;  2 1 x 
xTATAx = x1 x2 1 2 : 1 = 2x21 + 2x1 x2 + 2x22
x2
lo cual es una forma cuadratica.
... Es facil ver que los valores mnimos y maximos que toma una forma cuadratica en
los vectores x con kxk = 1, es
min  xT AT Ax  max
si min es el menor autovalor de AT A, y si max es el mayor autovalor de esa matriz.
p En
; 1=
el caso del ejemplo de arriba, el autovector correspondiente a min = 1 es 1=p22 , y
1=p2
el autovector de max = 3 es 1=p2 .
p p
Por tanto, kAvik2 = i, se tiene que 1 = 3 = kAv1k, 2 = 1 = kAv2 k, son
los valores maximo y mnimo de las longitudes kAxk, cuando x recorre la circunferencia
unitaria dada por : kxk = 1.
La transformacion lineal T con matriz A, T : <2 ; ;; > <3 transforma el crculo
unidad kxk = 1 en una \elipse" que esta sobre el plano de ecuacion: x ; y ; z = 0
(veri car que la imagen de la transformacion es ese plano en <3). Las longitudes 1 , y
2 son las longitudes de los semiejes mayor y menor respectivamente de esa elipse.

2 Descomposicion de valor singular


Queremos demostrar que una matriz A de m  n se puede factorizar como
A = U V T
donde U es una matriz ortogonal de m  m, V es una matriz ortogonal de n  n, y 
una matriz \diagonal(seudo)" de m  n. Si los valores singulares NO NULOS de A son
4
1  2  : : :  r > 0, y si r+1 = r+2 = : : : = n = 0, entonces  de m  n tendra
una forma en bloques (un bloque D de r  r, a su derecha una matriz de ceros O de
r  n ; r, abajo a la izquierda otra matriz de ceros O de m ; r  r, y el ultimo bloque
en la diagonal de ceros O de m ; r  n ; r :
D O 
= O O
donde
0 1
1    0
B
D = @ ... . . . ... C
A
0    r
Si r coincide con n o con m alguna de esas matrices nulas O no apareceran. En el
caso del ejemplo 1, previo,la matriz  tiene la forma:
0p3 0 1
=@ 0
pA
1
0 0
.... Ahora, como hallar los factores U y V T ?....
Para hallar la matriz ortogonal V primero determinamos una base ortogonal fv1; : : : ; vng
de vectores de <n compuesta por autovectores de la matriz AT A de n  n.
V = [v1 ; v2; : : : ; vn]
es una matriz ortogonal de n  n.
Con respecto a la determinacion de la matriz U de m  m, primero observamos que
los vectores de <m :
Av1 ; Av2; : : : ; Avn
es un conjunto de n vectores ortogonales. Eso se obtiene de observar que para dos au-
tovectores de AT A, vi y vj con i 6= j , por ser ortogonales se cumple que

vjT AT Avi = vjT :ivi = 0


As Avi es ortogonal a Avj .
Ahora recordemos que los valores singulares i = kAvik, y que los primeros r son no
nulos. Por tanto, podemos normalizar los Avi , con i = 1; : : : ; r, considerando:
ui = Av
i
i

para cada i = 1; : : : ; r. Eso garantiza que [u1; : : : ; ur ] son ortonormales en <m . Si r < m
ese conjunto no es una base de <m. En ese caso hay que extender ese conjunto para tener
m vectores ortonormales de <m .
... Esa es la parte mas di cil de la factorizacion que queremos obtener: A = U V T .
5
La matriz U estara formada por las columnas ortonormales U = [u1; : : : ; ur ; ur+1; :::um].
...Veamos que con tales matrices V , U , y , se veri ca que
A = U V T
Como V T = V ;1 por ser una matriz ortogonal, veri car que vale A = U V T , es igual
a ver que ( multiplicando por V ):
AV = U 
Sabemos que Avi = i ui, para i = 1; 2; : : : ; r, y que
kAvik = i = 0; para i = r + 1; : : : ; n:
Por tanto,
Avi = 0; para i = r + 1; : : : ; n:
Por consiguiente,
AV = A[v1 : : : vn] = [Av1 : : : Avn]
entonces
AV = [Av1 : : : Avr ; 0 : : : 0] = [1u1 : : : r ur ; 0 : : : 0]

0 1
;  BB...1 :. :. .: 0... C
OC
AV = u1 u2 : : : um B @ 0 : : : r CA = U 
O O
como se requiere para veri car que A = U V T .
Observacion Los vectores de las columnas de U se denominan vectores singulares por la
izquierda de A, mientras los vectores de las columnas de V se llaman vectores singulares
por la derecha de A. Las matrices U y V no estan determinadas en forma unica por A,
en cambio  si, porque contiene los valores singulares de A.
Ejemplo Encontrar una descomposici
0 1 on de valor singular de las matrices
1
1 0
 1 1
(i)A = 0 0 1 (ii)A = 1 0A
@
0 1 01 1
1 0
Solucion: (i) Consideramos AT A = @1 1 0A y hallamos los autovalores: 1 = 2,
0 0 1
2 = 1, 3 = 0, con sus autovectores:
011 001 0;11
@1A ; @0A ; @ 1 A
0 1 0
6
Estos vectores son ortogonales, de manera que los normalizamos para obtener:
01=p21 001 0;1=p21
p p
v1 = @1= 2A v2 = @0A v3 = @ 1= 2 A
0 1 0
p p p
Los valores singulares de A son  1 = 2,2 = 1 = 1,3 = 0 = 0.
As
01=p2 0 ;1=p21 p2 0 0
p p
V = @1= 2 0 1= 2 A y  = 0 1 0
0 1 0
Para determinar U , calculamos
  01=p21  
p
1 = 1= 2 1 1 0 @ p A = 1
u1 = Av
 0 0 1 1= 2 0
1 0
y
1  001  
u2 = Av
2
2= 1
0 0
0 @0A = 0
1 1
1
1 0ya forman una base ortonormal de <2, de manera que tenemos la matriz
Estos vectores
U : U = 0 1 . Esto produce la descomposicion DVS de la matriz A:
1  1 0p2  0 1=p2 1=p2 01
A = 0 10 1 = 0 1
0 0
0 1
0 @ 0 A
0 ;1=p2 1=0p2 10 = U V
T

Advierta que 3 = 0 no aparece en , y que la matriz que se necesita es la matriz V T en


lugar de la V .
En el ejemplo(ii) se necesitara completar la matriz U ( observar que en el ejemplo
previo eso no fue necesario). 01 11
La matriz corresponde al Ejemplo 1: A = @1 0A Como antes consideramos AT A, y
0 1 p
sus autovalores y autovectores. Sabemos que : 1 = 3, 2 = 1, y los correspondientes
autovectores de AT A son ....
1=p2 ;1=p2
v1 = 1=p2 v2 = 1=p2
As
1=p2 ;1=p2 0p3 01
V = 1=p2 1=p2 y  = @ 0 1A
0 0
7
Para U , calculamos
01 11  p  02=p61
p p
u1 = Av1 = 1= 3 @1 0A 1=p2 = @1=p6A
1 1= 2
0 1 1= 6
y
01 11  p  0 0 1
u2 = Av 2 = @1 0A ;1=p 2 = @;1=p2A
 2 1= 2 p
0 1 1= 2
Esta vez necesitamos extender fu1; u2g a una base ortonormal de <3. Para eso, usamos
el procedimiento de Gram-Schmidt. Necesitamos tener un vector de <3 que sea lineal-
mente independiente con respecto a los vectores fu1; u2g. Por ejemplo, e3 = (0; 0; 1) es tal
que fu1; u2; e3g forman una base de <3. As usando el procedimiento de Gram-Schmidt
solo el tercer paso es necesario0para p
obtener
1 un vectoru3 ortogonal a ambos fu1; u2g, se
;1=p 3
@
encuentra que este vectoru3 = 1=p3 A.
1= 3
...Otra forma de expresar la DVS de una matriz A.
Para eso consideramos
0 10 T1
1 : : : 0 v1
; B
 B ... . . . ... C B v2T C
A = U V T = u1 u2 : : : um B@ 0 : : : r
OC
CA B@ ... CCA
B
O O vnT
que es igual a
0 vT 1
0 1 B ..1 C
BB ...1 . . . ... OCC BBB v.rT CCC
 ::: 0
; 
: : : um B
= u1 : : : ur jur+1
@ 0 : : : r CA BBBvrT.+1CCC
O O @ .. A
vnT

8
obteniendose ...
0 1 0v1T 1 0T 1
;  1 : : : 0 Bv T C ; ;  vr+1
B
= u1 u2 : : : ur @ ... . . . ... C
A B@ ... CA + ur+1 : : : um O @ ... CA
B 2C B
0 : : : r vrT vnT
0 1 0v1T 1
;  1 : : : 0 Bv T C
B
= u1 u2 : : : ur @ ... . . . ... C
A BB@ ...2 CCA
0 : : : r vr T
0 T1
;  v1
= 1u1 : : : r ur @ ... C
B A = 1u1v1T + : : : + r urvrT
vrT
Se ha justi cado que...
Lema Sea A una matriz m  ncon valores singulares 1  2  : : :  r > 0 y
r+1 = : : : = n = 0. Sean u1; : : : ; ur vectores singulares por la izquierda, y sean v1; : : : ; vr
vectores singulares por la derecha de A correspondientes aesos valores singulares. entonces
A = 1u1v1T + 2 u2v2T + : : : + r ur vrT
Observacion La DVS de una matriz A da mucha informacion acerca de A como se
resalta en el siguiente teorema:
Teorema Sea A = U V T una descomposicion de valor singular de una matriz A de
m  n. Sean 1; : : : ; r todos los valores singulares NO NULOS de A. Entonces
(i) el rango de A es r.
(ii)fu1; u2 ; : : : ; ur g es una base ortonormal de R(A)
(iii)fur+1; ur+2; : : : ; um g es una base ortonormal de N (AT )
(iv)fv1; v2; : : : ; vr g es una base ortonormal de R(AT )
(v)fvr+1; vr+2 ; : : : ; vng es una base ortonormal de N (A)
Demostracion.
(i)Como U y V T son matrices no singulares(ademas, ortogonales) se sabe que rango(A) =
rango(U V T ) coincide con = rango(V T ) = rango() = r.
(ii) Como Avi, con i = 1; : : : ; r son linealmente independientes (ortogonales), y como
ui = (1=i)Avi , i = 1; : : : ; r, entonces fu1; : : : ; ur forman una base ortonormal del
rango(A).
(iii) Como fu1; : : : ; ur ; : : : ; um forman una base ortonormal de <m, luego por (ii), y con-
siderando que fur+1; : : : ; um es una base del espacio complementario a R(A), se obtiene
que ese conjunto es una base ortonormal del subespacio N (AT ) o del R(A)?.
(v) Como Avr+1 = Avr+2 = : : : Avn = 0, se tiene que fvr+1; : : : ; vn, que es un conjunto
9
ortonormal de vectores contenido en el anulador de A, de dimension n ; r, por lo que es
una base ortonormal del N (A).
(iv) Esta propiedad se desprende de considerar (v) y que fv1; v2 ; : : : ; vr g es un conjunto
ortonormal complementario del de (v), por lo que es una base de R(AT ).
Otro resultado importante que se obtiene desde la descomposicion DV S ....
Lema Sea A = U V T la descomposicion de A de m  n con rango r. Por consiguiente,
la imagen de la esfera unitaria en <n, bajo la transformacion matricial que aplica x 2 <n
en Ax 2 <m , es
(a)la super cie de un elipsoide en <m si r = n,
(b) un elipsoide solido en <m si r < n.
Demostracion: Sean u1; : : : ; um y v1 ; v2; : : : ; vn los vectores singulares por la izquierda y
por la derecha de A, respectivamente. En razon que rango(A) = r, los valores singulares
0 11  2  : : : r > 0, y r+1 = r+2 = : : : = n = 0.
de A satisfacen
x
BBx12 CC
Sea x = B .. C un vector unitario de <n. Ahora, como V es una matriz ortogonal,
@.A
xn
tambien lo es V T , por tanto V T x es un vector unitario(conserva longitudes), as
0T 1
v1 x
B
B v2T xCCC
V x=B
T
@.A .
.
vnT x
de manera que (v1T x)2 + (v2T x)2 + : : : + (vnT x)2 = 1.
Como A = 1 u1v1T + : : : + r ur vrT . Por tanto,
Ax = 1u1v1T x + : : : + r ur vrT x = (1 v1T x)u1 + : : : + (r vrT x)ur
Ax = (1v1T x)u1 + : : : + (r vrT x)ur = y1u1 + : : : + yr ur
donde denotamos con yi = (iviT x).
(a) Si r = n, entonces corresponde al caso n  m, y
Ax = y1u1 + : : : + ynun = Uy
0y 1
BBy12 CC
donde y = B @ ... CA.Por consiguiente, como U es ortogonal, kAxk = kUyk = kyk. Como
yn
( y1 )2 + : : : + ( yn )2 = (v1T x)2 + : : : + (vnT x)2 = 1
1 n
lo que muestra que los vectores Ax forman la super cie de un elipsoide en <m.
(b) Si r < n, la unica diferencia en los pasos anteriores es que la ecuacion se convierte
en
( y1 )2 + : : : + ( yr )2  1
1 r
puesto que despreciamos algunos terminos. Esto corresponde a un elipsoide solido de <m.
10
Facultad de Ingenierı́a
UNLP

Matemática C

IX Ecuaciones Diferenciales Lineales Ordinarias


Temario por clase:
Clase 1: Ecuaciones diferenciales lineales ordinarias de orden n. Generalidades. Propie-
dades fundamentales. Caso homogéneo. La ecuación lineal homogénea de segundo
orden. El caso de coeficientes constantes. Aplicaciones.

Clase 2: El caso no homogéneo. Métodos de resolución generales y para el caso de coefi-


cientes constantes. Aplicaciones.

Clase 3: Sistemas de ecuaciones diferenciales lineales ordinarias. Generalidades. Propie-


dades fundamentales. El caso homogéneo. El caso homogéneo de coeficientes cons-
tantes. Caso diagonalizable.

Clase 4: El caso no diagonalizable. Matriz fundamental. Sistemas lineales no homogéneos.


Métodos de resolución generales y para el caso de coeficientes constantes.

Clase 5: Aplicaciones. Problemas.

Bibliografı́a:
1. E. Kreyszig, Matemáticas Avanzadas para Ingenierı́a (2do.vol), Limusa.

2. R.K. Nagle, E.B. Saff, Fundamentos de Ecuaciones Diferenciales, Addison Wesley


Iberoamericana.

3. M. R. Simmons, Ecuaciones Diferenciales con aplicaciones , McGrawHill.

4. Dennis G. Zill , Ecuaciones Diferenciales con Aplicaciones, Grupo Editorial Ibe-


roamericana, México.

–2–
1. Ecuaciones diferenciales lineales ordinarias
1.1. Introducción
Estudiaremos en este capı́tulo ecuaciones diferenciales lineales. Recordemos primero
que una ecuación diferencial es una ecuación donde la incógnita es una función, y donde
esta aparece vinculada con sus derivadas. Si la función incógnita depende de una sóla
variable, que llamaremos t, la ecuación diferencial se denomina ordinaria. Si la misma
contiene derivadas hasta de orden n de la función incógnita, se dice que la ecuación
diferencial es de orden n.

Una ecuación diferencial ordinaria de orden n puede escribirse en la forma

y (n) = f (t, y, y 0 , y 00 , . . . , y (n−1) ) (1.1)


dy d2 y dn y
donde y(t) es la función incógnita y y 0 (t) = dt
, y 00 (t) = dt2
, . . ., y (n) = dtn
, sus derivadas.

Las ecuaciones diferenciales juegan un rol fundamental en Ingenierı́a, Fı́sica y muchas


otras áreas de la ciencia y tecnologı́a. La razón es que en general, no resulta fácil hallar leyes
que vinculen directamente las magnitudes que caracterizan un cierto fenómeno o sistema,
pero sı́ resulta posible en muchos casos relacionar esas magnitudes con sus derivadas, lo
que origina una ecuación diferencial o en general, un sistema de ecuaciones diferenciales.
Por ejemplo, esto ocurre cuando la evolución de un sistema depende de su estado.
Un ejemplo tı́pico es la segunda ley de Newton para el movimiento de una partı́cula,
F = ma (1.2)
donde F es la fuerza neta que actúa sobre la partı́cula, m la masa de la misma y a su
2
aceleración. Si r(t) denota el vector posición de la partı́cula, entonces a = ddt2r , y si la
fuerza F depende de r, dr/dt y t, esta ley conduce a la ecuación diferencial
d2 r dr
2
m= F (t, r, ) (1.3)
dt dt
que es en realidad un sistema de tres ecuaciones diferenciales ordinarias de segundo or-
den para las coordenadas del vector r(t) = (x(t), y(t), z(t)). Con esta ecuación podemos
determinar desde el movimiento de una masa unida a un resorte hasta el movimiento de
un planeta alrededor del sol !
Si la partı́cula se mueve en una dimensión, la ecuación anterior se reduce a
d2 y dy
m
2
= F (t, y, ) (1.4)
dt dt
donde y(t) denota la posición de la partı́cula. Esta es una ecuación diferencial ordinaria
de 2o orden para y(t), que corresponde a n = 2 y f (t, y, y 0 ) = F (t, y, y 0 )/m en (1.1).
Problema 1: Mostrar que la ecuación diferencial que describe el movimiento (en una
dimensión) de un objeto de masa m unido a un resorte de constante k es
k
y 00 + y = 0 (1.5)
m
donde y es la posición del objeto medida a partir del punto de equilibrio.
–3–
1.2. Ecuación diferencial lineal ordinaria de orden n
Una ecuación diferencial es lineal si f en (1.1) es una función lineal de y y sus derivadas
(aunque no necesariamente de la variable independiente t). Una ecuación diferencial lineal
ordinaria de orden n puede expresarse en la forma

y (n) + an−1 (t)y (n−1) + . . . + a1 (t)y 0 + a0 (t)y = f (t) (1.6)

donde ai (t), i = 0, . . . , n − 1 y f (t), son funciones definidas en un cierto intervalo I ⊂ R.


Ası́, una ecuación diferencial lineal ordinaria de primer orden es de la forma

y 0 + p(t)y = f (t) (1.7)

y una ecuación diferencial lineal de segundo orden puede escribirse como

y 00 + p(t)y 0 + q(t)y = f (t) (1.8)

En todos los casos, si f (t) = 0 ∀ t ∈ I, la ecuación diferencial se denomina homogénea.

Las ecuaciones diferenciales lineales surgen en numerosos problemas corrientes. Por


ejemplo, la ecuación (1.5), y 00 + mk
y = 0, que describe el movimiento de una masa unida
a un resorte, es una ecuación diferencial lineal homogénea de 2o orden.
Pero la importancia de las ecuaciones diferenciales lineales proviene además del hecho
que resultan más fáciles de resolver y comprender que las ecuaciones diferenciales no
lineales. A diferencia de estas últimas, en las lineales es válido, como veremos, el principio
de superposición, el cual permite obtener soluciones de problemas complejos mediante la
superposición de soluciones de problemas más sencillos.
Una ecuación diferencial lineal puede también escribirse como

L[y] = f (t) (1.9)

donde L es el operador lineal definido por

L[y] = y (n) + an−1 (t)y (n−1) + . . . + a1 (t)y 0 + a0 (t)y (1.10)

Si y1 e y2 son dos funciones derivables hasta orden n y c1 , c2 son constantes, L satisface

L[c1 y1 + c2 y2 ] = c1 L[y1 ] + c2 L[y2 ] (1.11)

En efecto, para cualquier derivada de orden k, con k = 0, . . . , n,


(k) (k)
(c1 y1 + c2 y2 )(k) = (c1 y1 )(k) + (c2 y2 )(k) = c1 y1 + c2 y2

lo que implica L[c1 y1 + c2 y2 ] = c1 L[y1 ] + c2 L[y2 ] (Justificar!). Por ejemplo, para n = 2,


L[c1 y1 + c2 y2 ] = (c1 y1 + c2 y2 )00 + a1 (t)(c1 y1 + c2 y2 )0 + a0 (t)(c1 y1 + c2 y2 )
= c1 (y100 + a1 (t)y10 + a0 (t)y1 ) + c2 (y200 + a1 (t)y20 + a0 (t)y2 ) = c1 L[y1 ] + c2 L[y2 ]

Notar que L = Dn + an−1 (t)Dn−1 + . . . + a1 (t)D + a0 (t), donde D es el operador derivada:


D[y] = y 0 , D2 [y] = D[D[y]] = y 00 y D(k) [y] = y (k) . La linealidad de L es consecuencia de la
linealidad de D. –4–
1.3. Propiedades fundamentales de ecuaciones diferenciales
lineales homogéneas
Las ecuaciones diferenciales lineales poseen propiedades especiales, que permiten esta-
blecer las propiedades fundamentales de sus soluciones aun sin conocerlas explı́citamente.

1. El conjunto S de todas las soluciones de una ecuación diferencial lineal homogénea

y (n) + an−1 (t)y (n−1) + . . . + a1 (t)y 0 + a0 (t)y = 0 , (1.12)

es un espacio vectorial.

Demostración: Una solución de (1.12) es una función y(t) que la satisface. El conjunto
de soluciones S = {y(t) | L[y] = 0}, es el núcleo del operador lineal L y la propiedad 1 es
entonces consecuencia directa de la linealidad de L:
a) La función nula y(t) = 0 ∀ t ∈ I es siempre una solución de (1.12), denominada
solución trivial, como puede verse fácilmente (L[0] = 0).
b) Además, si y1 (t) e y2 (t) son soluciones de (1.12), la combinación lineal
y(t) = c1 y1 (t) + c2 y2 (t)
es también solución de (1.12), para cualquier valor de las constantes c1 y c2 , ya que
L[c1 y1 + c2 y2 ] = c1 L[y1 ] + c2 L[y2 ] = c1 0 + c2 0 = 0
Es decir, si y(t) es solución, cy(t) también lo es, y si y1 (t) e y2 (t) son soluciones, y1 (t)+y2 (t)
también lo es. Por lo tanto, S es no vacı́o y cerrado bajo las operaciones usuales de suma
de funciones y multiplicación por un escalar. Esto implica que S es un subespacio del es-
pacio vectorial de funciones derivables hasta orden n en I, y por ende un espacio vectorial.

La propiedad anterior se conoce como propiedad de superposición: Si y1 (t) e y2 (t)


son dos soluciones de una ecuación diferencial lineal homogénea, cualquier combina-
ción lineal de ellas es también una solución.

Problema 2: Mostrar que el conjunto de soluciones de una ecuación diferencial lineal


no homogénea no es un espacio vectorial.

Consideraremos en lo sucesivo que ai (t), i = 0, . . . , n − 1, son funciones continuas en


un intervalo abierto I.

2. La dimensión del espacio S de soluciones de la ecuación (1.12) es n. Esto significa


que existen n soluciones linealmente independientes y1 (t), . . . , yn (t) tales que cualquier
solución de (1.12) puede escribirse como

y(t) = c1 y1 (t) + . . . + cn yn (t) (1.13)

El conjunto {y1 (t), . . . , yn (t)} es pues una base de S, y la expresión (1.13), con n constantes
de integración arbitrarias c1 , . . . , cn , es la solución general de (1.12).

–5–
Probaremos este teorema en las páginas siguientes. Como ejemplo, consideremos la
ecuación lineal de segundo orden (n = 2)
y 00 + y = 0 (1.14)
que corresponde a k/m = 1 en (1.5) (en unidades apropiadas!). Podemos ver que
y1 (t) = cos t, y2 (t) = sen t
son soluciones de (1.14), ya que (cos t)00 = − cos t, (sen t)00 = −sen t. Por lo tanto, como
el conjunto {cos t , sen t} es linealmente independiente y la ecuación (1.14) es de orden 2,
toda solución de (1.14) es necesariamente de la forma
y(t) = c1 cos t + c2 sen t (1.15)
con c1 , c2 constantes. El conjunto {cos t, sen t} es pues una base del espacio S de soluciones.

3. Existencia y Unicidad de la solución para el problema de condiciones inicia-


les. Consideremos la ecuación diferencial homogénea (1.12) con las n condiciones iniciales


 y(t0 ) = b0
 y 0 (t0 )

= b1
.. (1.16)

 .
 y (n−1) (t ) = b

0 n−1

con t0 ∈ I. Si todas las ai (t) son continuas para t ∈ I, existe una única solución y(t)
para t ∈ I que satisface (1.12) junto con las n condiciones iniciales (1.16), ∀ b0 , b1 , . . . , bn−1 .

Este es un caso particular del teorema general de existencia y unicidad que se aplica,
bajo ciertas condiciones, también al caso no homogéneo e incluso al caso no lineal, como
veremos más adelante. La solución que satisface (1.12) junto con (1.16) es una solución
particular de (1.12).
En el caso homogéneo, esto implica, utilizando la solución general (1.13), que las n
constantes c1 , c2 , . . . , cn quedan completamente determinadas por las n condi-
ciones iniciales (1.16), para cualquier valor de b0 , b1 , . . . , bn−1 . Las condiciones iniciales
conducen a un sistema de n ecuaciones lineales para c1 , . . . , cn :


 c1 y1 (t0 )+ ... +cn yn (t0 ) = b0
 c1 y10 (t0 )+

... +cn yn0 (t0 ) = b1
.. .. ..

 . . .
(n−1) (n−1)

c1 y1 (t0 )+ . . . +cn yn (t0 ) = bn−1

El presente teorema asegura que el sistema anterior posee solución única (es compatible
determinado) ∀ t0 ∈ I. Por lo tanto, el determinante de la matriz de coeficientes debe ser
no nulo ∀ t0 ∈ I, es decir,

y1 (t) y2 (t) ... yn (t)

y10 (t) y20 (t) ... yn0 (t)
W (t) = 6= 0 ∀t ∈ I (1.17)

...

(n−1) (n−1) (n−1)

y1 (t) y2 (t) . . . yn (t)
Este determinante se denomina Wronskiano.
–6–
Problema 3: Probar que si las funciones {y1 (t), . . . , yn (t)} fuesen linealmente depen-
dientes para t ∈ I, entonces W (t) = 0 ∀ t ∈ I (Sug.: Usar que una de las yi (t) será en tal
caso combinación lineal de las restantes!).

Observación 1: La condición W (t) 6= 0 ∀ t ∈ I es más fuerte que la independencia


lineal. Por ejemplo, las funciones y1 (t) = t y y2 (t) = t2 son L.I. para t ∈ R, pero W (0) = 0
(probar!). Y las funciones y1 (t) = t2 , y2 (t) = |t|t son también L.I. si t ∈ R pero W (t) = 0
∀ t (probar!).

Observación 2: El teorema implica que la única solución de la ecuación homogénea


que satisface y(t0 ) = y 0 (t0 ) = . . . = y (n−1) (t0 ) = 0 es la solución trivial y(t) = 0 ∀ t ∈ I.

Observación 3: El presente teorema puede utilizarse para demostrar que la dimensión


del espacio de soluciones debe ser n, pues si fuese menor, el sistema para determinar los
coeficientes ci serı́a sobredeterminado y no podrı́a garantizarse la existencia de solución
para cualquier valor de las n condiciones iniciales, mientras que si fuese mayor, el sistema
serı́a subdeterminado y no habrı́a unicidad. Veremos luego otra demostración más general.

Como ejemplo, si en la ecuación (1.14), y 00 + y = 0, tenemos las condiciones iniciales



y(t0 ) = y0
(1.18)
y 0 (t0 ) = v0
donde en el problema del resorte y0 representa la posición inicial y v0 la velocidad inicial
del objeto, el presente teorema asegura que existe una única solución que las satisface.
De (1.15) tenemos y(t) = c1 cos t + c2 sen t, y 0 (t) = −c1 sen t + c2 cos t, y las condiciones
iniciales (1.18) conducen al sistema

c1 cos t0 + c2 sen t0 = y0
(1.19)
−c1 sen t0 + c2 cos t0 = v0
Este sistema posee solución única para c1 , c2 ∀ t0 ∈ R, ya que

cos t0 sen t0
W (t0 ) = = cos2 t0 + sen2 t0 = 1
−sen t0 cos t0

verificándose que W (t0 ) 6= 0 ∀ t0 ∈ R. Por ejemplo, si t0 = 0, la única solución de (1.19) es


c1 = y0 , c2 = v0 , y entonces la única solución de (1.14) que satisface y(0) = y0 , y 0 (0) = v0
es
y(t) = y0 cos t + v0 sen t
Problema 4: a) Mostrar que y1 (t) = et , y2 (t) = e−t son dos soluciones lin. indep. de
y 00 − y = 0
y que por lo tanto, la solución general de esta ecuación es
y(t) = c1 et + c2 e−t
b) Encontrar la solución que satisface y(0) = y0 , y 0 (0) = v0 .

–7–
4. Soluciones complejas. Supongamos que t y las n funciones ai (t), i = 0, . . . , n − 1,
son reales. Si y(t) es una solución compleja de la ecuación homogénea (1.12),

L[y] = 0, y(t) = y1 (t) + iy2 (t) (1.20)

donde y1 (t) e y2 (t) son funciones reales y i2 = −1, tanto la parte real

y1 (t) = Re[y(t)]

como la parte imaginaria


y2 (t) = Im[y(t)]
son también soluciones (reales!) de la ecuación homogénea (1.12):

L[y1 ] = 0, L[y2 ] = 0

Esto es muy fácil de probar, dado que L es lineal y real. La linealidad implica
0 = L[y] = L[y1 + iy2 ] = L[y1 ] + iL[y2 ]
y como L es real, L[y1 ] y L[y2 ] son ambos reales, por lo que la igualdad anterior implica
L[y1 ] = 0, L[y2 ] = 0
Además, la función conjugada y(t) = y1 (t) − iy2 (t) es también solución de (1.12), pues
L[y] = L[y] = 0 = 0.

Fórmula de Euler. El resultado anterior resulta útil en conjunto con la fórmula de Euler
para la exponencial de un número complejo, que se obtiene del desarrollo en serie de la
exponencial:
eibt = cos(bt) + i sin(bt) (1.21)
y en general,
e(a+ib)t = eat eibt = eat cos(bt) + ieat sin(bt) (1.22)
Por lo tanto, para a, b y t reales,

Re[e(a+ib)t ] = eat cos(bt), Im[e(a+ib)t ] = eat sin(bt) (1.23)

Como ejemplo, consideremos nuevamente la ecuación (1.14), y 00 + y = 0, que es lineal


y real. Es fácil ver que y(t) = eit es solución, pues y 0 (t) = ieit y y 00 (t) = i2 eit = −eit . Como
eit = cos(t) + i sin(t)
entonces
y1 (t) = Re[eit ] = cos(t), y2 (t) = Im[eit ] = sin(t)
son soluciones reales linealmente independientes de (1.14), en acuerdo con (1.15).
La función conjugada y(t) = e−it = cos t − i sen t es también solución de (1.14), y forma
con eit un par de soluciones complejas linealmente independientes de (1.14) (probar!).
Tanto {cos t, sen t} como {eit , e−it } son bases del mismo espacio S de soluciones.
–8–
1.4. La ecuación lineal homogénea de primer orden
Es el caso n = 1. Si a0 (t) = p(t), la ecuación homogénea (1.12) toma la forma

y 0 + p(t)y = 0 (1.24)

o sea, y 0 = −p(t)y. Su solución general es


R
y(t) = ce− p(t)dt
(1.25)
R
como es fácil verificar, donde c es una constante y p(t)dt una primitiva de p(t) en el
intervalo I donde es continua.
R La dimensión del espacio S de soluciones es 1, siendo
− p(t)dt
generado por y1 (t) = e , que claramente satisface y10 (t) = −p(t)y1 (t). Cualquier
constante aditiva C en la primitiva puede absorberse en c (c → ce−C ).
La única solución del problema de condiciones iniciales
 0
y + p(t)y = 0
(1.26)
y(t0 ) = y0
es entonces Rt
− p(t)dt
y(t) = y0 e t0 (1.27)
R t0 Rt
p(t)dt
ya que y(t0 ) = y0 e t0
= y0 . Aquı́ t0 p(t)dt es la primitiva que se anula en t = t0 .

Problema 5: Probar que la solución general de

y 0 + yt = 0
2 /2 2 /2
es y(t) = ce−t , y que la única solución que satisface y(0) = 1 es y(t) = e−t .

1.5. La ecuación lineal homogénea de segundo orden


Definiendo p(t) = a1 (t), q(t) = a0 (t), la forma general de esta ecuación es

y 00 + p(t)y 0 + q(t)y = 0 (1.28)

Esta ecuación juega un rol muy importante en diversas áreas de la fı́sica e ingenierı́a. Por
ejemplo, la 2a ley de Newton (1.4) conduce a una ecuación de este tipo cuando la fuerza
F en (1.4) es una función lineal de la posición y velocidad: F (t) = αy + βy 0 .
En tal caso p(t) = −α/m, q(t) = −β/m.

Los resultados generales anteriores implican que si p(t) y q(t) son continuas en un intervalo
I, la ecuación (1.28) posee siempre dos soluciones linealmente independientes y1 (t)
y y2 (t), tales que toda solución de (1.28) puede escribirse en la forma

y(t) = c1 y1 (t) + c2 y2 (t) (1.29)

Esta es la solución general de (1.28). El espacio S de soluciones tiene dimensión 2 y


{y1 (t), y2 (t)} forman una base de S.

–9–
Además, el problema de condiciones iniciales
 00
 y + p(t)y 0 + q(t)y = 0
y(t0 ) = y0 (1.30)
y 0 (t0 ) = v0

con t0 ∈ I, posee solución única. Estas condiciones indiciales conducen al sistema



c1 y1 (t0 ) + c2 y2 (t0 ) = y0
(1.31)
c1 y10 (t0 ) + c2 y20 (t0 ) = v0

que entonces posee ∀ t0 ∈ I una solución única para c1 y c2 , para cualquier valor de y0 y
v0 (sistema compatible determinado). Esto implica que el determinante (Wronskiano)

y1 (t) y2 (t)
W (t) = 0
= y1 (t)y20 (t) − y2 (t)y10 (t) (1.32)
y1 (t) y20 (t)

debe ser no nulo ∀ t ∈ I.

Cuando y(t) denota la posición de un objeto, y0 y v0 representan su posición inicial


y velocidad incial. Con estos dos datos podemos entonces determinar y(t).

La unicidad implica en particular que si y0 = v0 = 0, entonces y(t) = 0 ∀ t ∈ I.


Es decir, si una solución satisface y(t) = y 0 (t) = 0 para algún t ∈ I, debe coincidir por
unicidad con la solución trivial.

Problema 6: Muestre que la única solución de (1.31) es

y20 (t0 )y0 − y2 (t0 )v0 −y10 (t0 )y0 + y1 (t0 )v0
c1 = , c2 =
W (t0 ) W (t0 )

Problema 7: Muestre que si W (t) = 0 ∀ t ∈ I = (a, b) y y1 , y2 son derivables en I, con


y1 (t) 6= 0, y2 (t) 6= 0 ∀ t ∈ I, entonces y1 (t) e y2 (t) son linealmente dependientes en este
intervalo.

Problema 8: a) Pruebe que W 0 (t) = y1 (t)y200 (t) − y2 (t)y100 (t) .


b) Utilizando a), muestre que si y1 (t) e y2 (t) son dos soluciones de (1.28),
0
W (t) = −p(t)W (t) y por lo tanto
Rt
− p(t)dt
W (t) = W (t0 )e t0

Esto muestra que si t0 ∈ I y W (t0 ) 6= 0, entonces W (t) 6= 0 ∀ t ∈ I. También implica


W (t) = W (t0 ) (constante) si p(t) = 0 ∀ t ∈ I.

– 10 –
A diferencia de la ecuación lineal de primer orden, para el caso general no es posible
dar una expresión de y1 e y2 en términos de integrales de p(t) y q(t). Sin embargo, sı́ es
posible encontrar la segunda solución y2 (t) si se conoce una de las soluciones y1 (t):

Método general para hallar la segunda solución:


Si y1 (t) es una solución no nula de (1.28), una segunda solución linealmente independiente
de y1 (t) es
Z − R p(t)dt
e
y2 (t) = v(t)y1 (t), con v(t) = dt (1.33)
y12 (t)

Demostración: Planteando y2 (t) = v(t)y1 (t), con v(t) a determinar, se obtiene


y20 = v 0 y1 + vy10 , y200 = v 00 y1 + 2v 0 y10 + vy100 y reemplazando en (1.28),
v 00 y1 + v 0 [2y10 + p(t)y1 ] + v[y100 + p(t)y10 + q(t)y1 ] = 0
Como y1 es solución, el último término se anula. Definiendo w = v 0 y dividiendo por y1 ,
obtenemos entonces una ecuación diferencial lineal homogénea de 1o orden para w,
w0 + [2y10 /y1 + p(t)]w = 0
cuya solución es, aplicando (1.25),
R

R 2y 0
[ y 1 +p(t)]dt − ln y12 −
R
p(t)dt e− p(t)dt
w = ce 1 = ce =c 2 (1.34)
y1 (t)
Dado que v 0 = w, integrando la expresión anterior y fijando c = 1 obtenemos el resultado
(1.33). La constante aditiva C en la integral de (1.33) puede descartarse, ya que añade
un término Cy1 (t) en y2 (t) linealmente dependiente de y1 (t). Como v 0 (t) = w es no nulo
si c 6= 0, v(t) no es constante, y entonces y2 (t) es linealmente independiente de y1 (t).

Ejemplo: Es fácil ver que y1 (t) = e−t es solución de


y 00 + 2y 0 + y = 0 (1.35)
ya que y 0 = −y y y 00 = y. Utilizando (1.33) obtenemos, dado que p(t) = 2 y y12 (t) = e−2t ,
Z −2t Z
e
v(t) = dt = 1dt = t + C
e−2t
Descartando C, una segunda solución linealmente independiente de y1 (t) es entonces
y2 (t) = ty1 (t) = te−t
y la solución general de (1.35) es
y(t) = c1 e−t + c2 te−t

Problema 9: Sabiendo que y1 (t) = et es una solución de y 00 − 2y 0 + y = 0


encontrar la solución general de esta ecuación para t ∈ R.

Problema 10: Sabiendo que y1 (t) = t es una solución de y 00 + y 0 /t − y/t2 = 0


encontrar la solución general de esta ecuación para t ∈ (0, ∞).
– 11 –
1.6. Ecuación lineal homogénea de segundo orden
con coeficientes constantes
Consideremos ahora el caso muy importante en el que p(t) y q(t) son constantes ∀
t ∈ R, es decir, p(t) = a, q(t) = b:

y 00 + ay 0 + by = 0 (1.36)

Este tipo de ecuación diferencial, en el que no aparece t explı́citamente, se denomina


autónoma. Planteamos en este caso una solución del tipo

y(t) = eλt (1.37)

con λ a determinar. Reemplazando en (1.36), se obtiene

eλt (λ2 + aλ + b) = 0 (1.38)

Como eλt 6= 0 (tanto si λ es real como complejo), eλt será solución de (1.36) si y sólo si

λ2 + aλ + b = 0 (1.39)

Esta ecuación se denomina ecuación caracterı́stica. Tiene a lo sumo dos raı́ces distintas:
√ √
−a + a2 − 4b −a − a2 − 4b
λ1 = , λ2 =
2 2

Caso I: λ1 6= λ2 (a2 6= 4b): Cada raı́z origina una solución distinta,

y1 (t) = eλ1 t , y2 (t) = eλ2 t (1.40)

que son linealmente independientes. La solución general de (1.36) es entonces

y(t) = c1 eλ1 t + c2 eλ2 t (1.41)

Caso II: λ1 = λ2 (a2 = 4b): La única raı́z λ = −a/2 origina la solución y1 (t) = eλt .
La segunda solución y2 (t) podemos hallarla con el método (1.33). Obtenemos aquı́
R
e− adt e−at
Z Z Z
v(t) = dt = dt = 1dt = t
e2λt e−at

donde hemos descartado las constantes de integración (ver página previa). Por lo tanto,
una segunda solución linealmente independiente de y1 (t) es y2 (t) = v(t)y1 (t) = teλt .
Obtenemos ası́ el par de soluciones linealmente independientes

y1 (t) = eλt , y2 (t) = teλt (1.42)

y la solución general es
y(t) = c1 eλt + c2 t eλt (1.43)

– 12 –
Raı́ces complejas. Supondremos a y b reales. El caso I comprende dos subcasos:

I.1. a2 > 4b: Ambas raı́ces λ1 , λ2 son reales. Las soluciones son de tipo exponencial
(creciente o decreciente) o constante (si λ1 o λ2 es nulo).

I.2. a2 < 4b: Las raı́ces son complejas conjugadas:



−a 4b − a2
λ1 = α + iω, λ2 = α − iω = λ1 , con α = , ω=
2 2
y α, ω reales. La solución general sigue siendo (1.41), pero esta es ahora una represen-
tación compleja de la misma. Aplicando la fórmula de Euler (1.23) y el punto 4. de la
página 8, podemos obtener dos soluciones reales tomando la parte real e imaginaria de
eλ1 t :
y1 (t) = Re[eλ1 t ] = eαt cos(ωt), y2 (t) = Im[eλ1 t ] = eαt sen (ωt) (1.44)
que son linealmente independientes si ω 6= 0. Obtenemos ası́ una expresión real de la
solución general:
y(t) = c1 eαt cos(ωt) + c2 eαt sen (ωt) (1.45)
El significado de las raı́ces complejas de (1.39) es pues el de soluciones oscilatorias de
frecuencia ω/2π con una amplitud que puede crecer (α > 0) o decrecer (α < 0) exponen-
cialmente, o bien permanecer constante (α = 0, o sea λ1 y λ2 imaginarios). Las partes
real e imaginaria de eλ2 t no originan nuevas soluciones linealmente independientes.

El espacio generado por las soluciones (1.40) o (1.44) es el mismo cuando se consi-
deran escalares complejos: Se deja como ejercicio probar que
c1 eαt cos(ωt) + c2 eαt sen (ωt) = c+ e(α+iω)t + c− e(α−iω)t (1.46)
con
c1 ∓ ic2
c± = (1.47)
2
Amplitud y fase. La solución (1.45) suele escribirse en forma más clara como

y(t) = Aeαt cos(ωt + φ) (1.48)

donde ω representa la frecuencia angular, A la amplitud a t = 0 y φ una constante de fase.


Esto muestra que toda solución (1.45) corresponde a un movimiento oscilatorio de perı́odo
T = 2π/ω y amplitud efectiva Aeαt , que decrece (α < 0) o crece (α > 0) exponencialmente
o bien es constante (α = 0). φ indica la diferencia de fase de la oscilación respecto de
cos(ωt). Como cos(ωt + φ) = cos ωt cos φ − sen (ωt) sen (φ), entonces

A cos φ = c1 , −A sin φ = c2

y por lo tanto (probar!) q


A= c21 + c22 , tan φ = −c2 /c1 (1.49)
En (1.44), y1 (t) corresponde a A = 1, φ = 0, mientras que y2 (t) a A = 1, φ = −π/2.

– 13 –
yHtL yHtL yHtL

A Φ=0 A Φ=А4 A Φ=А2

t t t
T 2T 3T 4T T 2T 3T 4T T 2T 3T 4T

-A -A -A

Gráfico de la solución (1.48), y(t) = Aeαt cos(ωt + φ), para α = −ω/10 y distintos valores
de la fase φ. T = 2π/ω > 0 es el perı́odo de la función cos(ωt + φ).

Ejemplo 1:
y 00 − y = 0 (1.50)
Planteando una solución de la forma y(t) = eλt , se obtiene la ecuación λ2 − 1 = 0, cuyas
raı́ces son λ1 = 1, λ2 = −1. Por lo tanto,

y1 (t) = et , y2 (t) = e−t (1.51)

son dos soluciones linealmente independientes de (1.50) y la solución general es

y(t) = c1 et + c2 e−t

Ejemplo 2:
y 00 + 2y 0 + y = 0 (1.52)
Planteando una solución de la forma y(t) = eλt , se obtiene la ecuación λ2 + 2λ + 1 = 0,
es decir (λ + 1)2 = 0, cuya única raı́z es λ = −1. Por lo tanto, utilizando (1.42),

y1 (t) = e−t , y2 (t) = te−t (1.53)

son dos soluciones linealmente independientes de (1.52) y la solución general es

y(t) = c1 e−t + c2 te−t

Ejemplo 3:
y 00 + 2y 0 + 5y = 0 (1.54)
Planteando una solución

de la forma y(t) = eλt , se√obtiene la ecuación λ2 +2λ+5 = 0, cuyas
raı́ces son λ1 = −2+ 2 4−20 = −1 + 2i, λ2 = −2− 2 4−20 = −1 − 2i. Por lo tanto, utilizando
(1.44),

y1 (t) = Re[e(−1+2i)t ] = e−t cos(2t), y2 (t) = Im[e(−1+2i)t ] = e−t sen (2t) (1.55)

son dos soluciones reales linealmente independientes de (1.54) y la solución general es

y(t) = c1 e−t cos(2t) + c2 e−t sen (2t)

Esta solución general puede expresarse también como y(t) = c+ e(−1+2i)t + c− e(−1−2i)t o
y(t) = Ae−t cos(2t + φ), donde c± y A, φ se relacionan con c1 , c2 mediante (1.47) y (1.49).

– 14 –
yHtL
yHtL yHtL

4 1 1
Exp@tD Exp@-tD Cos@2tD
3
Exp@-tD
2 Exp@-tD Sin@2tD
t Exp@-tD
1 0 t
Exp@-tD 1 2 3 4
0 t0 1 2 3 4
t
1 2 3 4

Gráfico de las soluciones (1.51)–(1.53)–(1.55) de las ecuaciones (1.50)–(1.52)–(1.54).

Problema
 11: Halle las soluciones particulares de (1.50), (1.52) y (1.54) que satisfacen
y(0) = 1
. Grafique estas soluciones.
y 0 (0) = 0
y1 y2
Problema 12: Si W [y1 , y2 ] = 0
denota el wronskiano (1.32), muestre que
y1 y20
a) W [eλ1 t , eλ2 t ] = (λ2 − λ1 )e(λ1 +λ2 )t
b) W [eλt , teλt ] = e2λt
c) W [eαt cos(ωt), eαt sen (ωt)] = ωe2αt

Ejercicios I:
1) Hallar la solución general de las siguientes ecuaciones diferenciales. Dar una expresión
real de la misma.
a) y 00 − 4y 0 + 4y = 0 b) y 00 − 3y 0 − 4y = 0 c) y 00 + 4y = 0
d) y 00 + 4y 0 = 0 e) y 00 + 4y 0 + 5y = 0 f ) y 00 = 0
000 0
g) y = y h) y 00 + 2αy 0 + α2 y = 0, i) y 00 − ω 2 y = 0, ω 6= 0
2) Excepto en g), hallar las soluciones particulares de las ecuaciones anteriores que satis-
facen a) y(0) = 0, y 0 (0) = 1, b) y(0) = 1, y 0 (0) = 0. Grafı́quelas.
En g) considerar y(0) = y 0 (0) = y 00 (0) = 1.

3) Mostrar que si y(t) es solución de la ecuación y 00 + by 0 + ay = 0, con a, b constantes,


w(t) = y 0 (t) es también solución de la misma ecuación. Exprese las condiciones iniciales
que satisface w en términos de las de y.

4) Muestre que si y(t) es solución de y 00 + by 0 + ay = 0 y satisface y(0) = y0 , y 0 (0) = v0 , la


solución que satisface y(t0 ) = y0 , y 0 (t0 ) = v0 es y(t − t0 ). Generalizar al caso de orden n.

5) a) Sabiendo que t es solución de la ecuación


y 00 − 2y 0 /t + 2y/t2 = 0
encontrar una segunda solución linealmente independiente de t para t ∈ (0, ∞) y escribir
la solución general.
b) Mostrar que existen en este caso infinitas soluciones que satisfacen y(0) = 0, y 0 (0) = 1,
y ninguna que satisface y(0) = 1, y 0 (0) = 0. Explicar la causa de esta no unicidad y no
existencia !! ¿Sucede lo mismo para y(1) = 0, y 0 (1) = 1 y y(1) = 1, y 0 (1) = 0?

– 15 –
1.7. Aplicaciones
Problema 13: El oscilador armónico. Determinar el mo-
vimiento de una masa m > 0 unida a un resorte de constante
k > 0, de modo que la fuerza neta sobre la masa es F = −ky,
con y la posición medida desde el punto de equilibrio.
M

Hemos visto que la ecuación de movimiento es (véase ecuación (1.5))


p
y 00 + ω 2 y = 0, ω = k/m > 0 (1.56)

a) Planteando una solución y(t) = eλt , mostrar que λ = ±iω y que por lo tanto, las
soluciones reales linealmente independientes son

y1 (t) = Re[eiωt ] = cos(ωt), y2 (t) = Im[eiωt ] = sen (ωt)

y la solución general es
y(t) = c1 cos(ωt) + c2 sen (ωt)
b) Usando (1.48), reescribir esta solución como

y(t) = A cos(ωt + φ)

Esta expresión permite ver claramente que toda solución corresponde a un movimiento
oscilatorio de amplitud A y frecuencia angular ω. La frecuencia de oscilación es
ω
f=

y el perı́odo r
1 2π m
T = = = 2π
f ω k
ya que ωT = 2π y por lo tanto A cos(ω(t + T ) + φ) = A cos(ωt + φ) (probar!). Observar
que el perı́odo es independiente de la amplitud A y la fase φ, es decir, de las condiciones
iniciales. Estas determinan A y φ, pero no ω.

c) Probar que si y(0) = y0 , y 0 (0) = v0 , entonces

c1 = y0 , c2 = v0 /ω

y por lo tanto q
A = y02 + v02 /ω 2 , tan φ = −v0 /(ωy0 )
c) Analizar el caso ω = 0 en (1.56). Determinar la solución general.

– 16 –
Problema 14: El oscilador armónico amortiguado.
Determinar el movimiento de una masa m > 0 unida a un resorte
de constante k > 0 en un medio viscoso (en el que la fuerza de
roce es proporcional a la velocidad), de modo que la fuerza neta
sobre la masa es F = −ky − µy 0 , con y la posición medida desde
el punto de equilibrio y µ > 0 un coeficiente de roce.
M

La ecuación de movimiento resultante puede escribirse en la forma


r
k µ
y 00 + 2γy 0 + ω 2 y = 0, ω= > 0, γ = >0
m 2m
que es nuevamente una ecuación diferencial lineal homogénea de segundo orden. Tanto
γ como ω tienen las mismas unidades (tiempo−1 ).
a) Proponiendo una solución y(t) = eλt , mostrar que la ecuación caracterı́stica es
λ2 + 2γλ + ω 2 = 0
y que sus soluciones son p
λ± = −γ ± γ 2 − ω2
b) Mostrar que existen tres casos diferentes:
I. γ > ω: Movimiento sobreamortiguado. Probar que en este caso ambas raı́ces λ±
son reales, negativas y distintas, por lo que la solución general es combinación lineal
de exponenciales decrecientes:
√ √
2 2 2 2
y(t) = c1 eλ+ t + c2 eλ− t = c1 e(−γ+ γ −ω )t + c2 e(−γ− γ −ω )t
El roce es lo suficientemente fuerte como para suprimir las oscilaciones. Describa cualita-
tivamente el movimiento resultante.

II. γ = ω: Amortiguamiento crı́tico. Probar que en este caso ambas raı́ces son
coincidentes: λ± = −γ < 0, y que la solución general es
y(t) = c1 e−γt + c2 te−γt
Describa en forma cualitativa el movimiento resultante.

III. γ < ω: Movimiento subamortiguado. Probar que en este caso las raı́ces son
complejas conjugadas,
p
λ± = −γ ± iω γ , ω γ = ω 2 − γ 2 > 0
con ω γ real, y que la solución general es entonces
y(t) = c1 e−γt cos(ω γ t) + c2 e−γt sen (ω γ t) = Ae−γt cos(ω γ t + φ)
Describa en forma cualitativa el movimiento resultante, mostrando que corresponde a un
movimiento oscilatorio con una amplitud que decrece exponencialmente al aumentar t, y
una frecuencia angular efectiva ω γ < ω. τ = 1/γ es el tiempo de decaimiento (o relajación).

c) Hallar la solución en los casos I, II y III que satisface las condiciones iniciales:
i) Desplazamiento inicial A, velocidad inicial nula: y(0) = A, y 0 (0) = 0.
ii) Desplazamiento inicial nulo, velocidad inicial v0 : y(0) = 0, y 0 (0) = v0 .
– 17 –
yHtL yHtL

A Γ=0 A Γ=0

t t
T 2T 3T 4T T 2T 3T 4T

-A -A

yHtL yHtL

A Γ=ِ10 A Γ=ِ10

t t
T 2T 3T 4T T 2T 3T 4T

-A -A

yHtL yHtL

A Γ=Ω A Γ=Ω

t t
T 2T 3T 4T T 2T 3T 4T

-A -A

yHtL yHtL

A Γ=2 Ω A Γ=2 Ω

t t
T 2T 3T 4T T 2T 3T 4T

-A -A

y(0) = A, y 0 (0) = 0 y(0) = 0, y 0 (0) = Aω

Movimiento oscilatorio armónico y amortiguado: Gráficas de la solución y(t). La co-


lumna izquierda corresponde a condiciones iniciales y(0) = A, y 0 (0) = 0 (velocidad inicial
nula, partiendo de A) y la derecha a y(0) = 0, y 0 (0) = Aω (velocidad inicial fija, partien-
do del punto de equilibrio). La primer fila representa el movimiento oscilatorio armónico
(γ = 0), la segunda el movimiento subamortiguado (0 < γ < ω), la tercera el caso crı́ti-
co (γ = ω) y la cuarta el movimiento sobreamortiguado (γ > ω). En todos los casos
T = 2π/ω es el perı́odo del movimiento oscilatorio en ausencia de roce.

– 18 –
Problema 15: Circuito LCR en serie. i C
Determinar la descarga de un capacitor de capacitancia L
C en un circuito como el de la figura, con resistencia R
e inductancia L. R

a) Si q es la carga y dq/dt = i la corriente, probar que la ecuación del circuito conduce


a la ecuación diferencial
d2 q dq q
L 2 + R+ =0
dt dt C
Llamamdo y(t) = q(t), podemos escribir esta ecuación en la forma
R 1
y 00 + 2γy 0 + ω 2 y = 0, γ= > 0, ω=√ >0
2L LC
que es exactamente igual a la del movimiento oscilatorio amortiguado: La inductancia L
reemplaza a la masa m, la resistencia R al coeficiente de roce viscoso µ, la capacitancia C
a la inversa de la constante de resorte k y la carga al desplazamiento respecto del punto
de equilibrio. Es un ejemplo de analogı́a fı́sica: Sistemas muy distintos quedan descriptos
por la misma ecuación diferencial, y exhiben por lo tanto el mismo comportamiento en
las variables correspondientes. Podemos pues simular un circuito LCR en serie mediante
una masa unida a un resorte en un lı́quido viscoso o viceversa!

b) Discutir los tres casos posibles de evolución, indicando para qué valores de L, C, R el
sistema será sub y sobre-amortiguado, y en que caso será crı́tico.
c) Determinar explı́citamente la solución para una carga inicial q0 y corriente inicial i0 = 0
(circuito inicialmente abierto, que se cierra en t = 0).

Problema 16: Péndulo simple.


Determinar el movimiento de una masa m unida a un
hilo o barra de longitud L (y masa despreciable).
Φ

Puede mostrarse que la ecuación que describe el movimiento es

mLφ00 = −mg sen φ

donde φ es el ángulo que forma el hilo con la vertical, ya que la fuerza en la dirección
tangencial es −mg sen φ. Podemos reescribir esta ecuación como

φ00 + ω 2 sen φ = 0, ω 2 = g/L

Esta es una ecuación diferencial de segundo orden no lineal, por lo que en principio no
podemos aplicar los métodos presentes. Sin embargo, para pequeños ángulos |φ|  1,
podemos escribir, utilizando el desarrollo de Maclaurin de sen φ ,

sen φ = φ + O(φ3 )

– 19 –
Despreciando los términos O(φ3 ), obtenemos la aproximación lineal sen φ ≈ φ, que con-
duce a la ecuación diferencial lineal
φ00 + ω 2 φ = 0
Esta es exactamente igual a la del oscilador armónico. Por lo tanto, para pequeños ángulos
el movimiento del péndulo es similar al de una masa unida a un resorte.
a) Mostrar, en base a la discusión anterior, que el perı́odo de oscilación para pequeños
ángulos iniciales será independiente de la amplitud:
p
T = 2π/ω = 2π L/g
b) Determinar φ(t) para φ(0) = φ0 , φ0 (0) = 0.

Problema 17: Pequeñas oscilaciones en torno al equilibrio


El caso del péndulo muestra el comportamiento general de sistemas estables en torno a
un punto de equilibrio. En dicho punto, la fuerza es nula. Si la fuerza es una función de la
posición x, su desarrollo de Taylor en torno a dicho punto (denotado como x0 ) conduce a
F (x) = F (x0 ) + F 0 (x0 )(x − x0 ) + O((x − x0 )2 )
Como F (x0 ) = 0, despreciando los términos O((x − x0 )2 ) obtenemos
F (x) ≈ −k(x − x0 ), k = −f 0 (x0 )
que es la aproximación lineal a F en x0 . La segunda ley de Newton conduce entonces a
la ecuación mx00 = −k(x − x0 ), que es válida para describir el movimiento en la vecindad
del punto de equilibrio si k 6= 0.
a) Probar que la ecuación para el desplazamiento y = x − x0 respecto del punto de
equilibrio es
k
y 00 + y = 0
m
0
b) Mostrar
q que si k > 0 (f (x 0 ) < 0) el sistema ejecuta oscilaciones de frecuencia angular
k
ω= m si se lo aparta de la posición de equilibrio. Este es el caso de equilibrio estable,
en el que la fuerza es restitutiva.
0
c) Mostrar
√ que si k < 0 (f (x0 ) > 0) el sistema se aleja en general en forma exponencial
(y ∝ e |k|/m t ) de la posición de equilibrio si es apartado. Este es el caso de equilibrio
inestable, en el que la fuerza tiende a alejar al sistema del punto de equilibrio.
d) Discutir el caso k = 0.

Ejercicios II:
1) Determinar el movimiento de una masa m = 1kg sujeta a un resorte de constante
k = 1N/m, con un coeficiente de roce viscoso µ: Halle la solución general, el perı́odo en
ausencia de roce, y el valor de µ a partir del cual el sistema cesa de exhibir oscilaciones.
2) Determine la solución de la ecuación diferencial
y 00 + 2γy 0 − α2 y = 0
que corresponde a k < 0 en el problema 17, asumiendo α > 0, γ > 0. Indique si el roce
(µ = 2mγ) logra evitar el alejamiento de la posición de equilibrio.

– 20 –
Problema 18: Ecuación de Euler de 2o orden.
Esta ecuación es de la forma
y0 y
y 00 + b + a 2 = 0 (1.57)
x x
donde a y b son constantes y x ∈ (0, ∞) denota la variable independiente. Esta ecuación
lineal puede resolverse exactamente y surge en diversas aplicaciones.
a) Mostrar que la función
y(x) = xλ
será solución de (1.57) si y sólo si λ es raı́z de la ecuación

λ2 + λ(b − 1) + a = 0

b) Si dicha ecuación posee dos raı́ces distintas λ1 , λ2 , justifique que la solución general es

y(x) = c1 xλ1 + c2 xλ2 (1.58)

c) Si en cambio λ1 = λ2 = λ, demuestre, utilizando el método (1.33), que la segunda


solución es y2 (x) = xλ ln x y que la solución general en este caso es

y(x) = c1 xλ + c2 xλ ln x (1.59)

d) Si λ es complejo, entonces λ = α + iω y xλ = eλ ln x = xα eiω ln x . Aplicando la fórmula


de Euler, muestre que la expresión real de la solución general es

y(x) = c1 xα cos(ω ln x) + c2 xα sen (ω ln x)

e) La ecuación (1.57) puede también resolverse reemplazando x = et . Muestre que esta


sustitución transforma (1.57) en una ecuación lineal de 2o orden con coeficientes constantes
en t = ln x:
d2 y dy
2
+ (b − 1) + ay = 0
dt dt
λt λ
y que como e = x , se vuelven a obtener las soluciones anteriores en la variable x.

f) Utilizando los resultados anteriores, halle la solución general de las ecuaciones

i) y 00 + y 0 /x − 4y/x2 = 0, ii) y 00 − 3y 0 /x + 4y/x2 = 0

g) Pruebe que la solución general de

y 00 + 2y/x − l(l + 1)y/x2 = 0

para l 6= −1/2 es y(x) = c1 xl + c2 x−l−1 . ¿ Que sucede si l = −1/2?

– 21 –
1.8. Ecuación lineal homogénea de orden n con coeficientes cons-
tantes
Los resultados anteriores se generalizan en forma inmediata a la ecuación
y (n) + a(n−1) y (n−1) + . . . + a1 y 0 + a0 y = 0
donde a0 , . . . , an−1 son constantes. Proponiendo una solución y(t) = eλt , obtenemos
eλt [λn + an−1 λn−1 + . . . + a1 λ + a0 ] = 0, lo que conduce a la ecuación caracterı́stica
λn + an−1 λn−1 + . . . + a1 λ + a0 = 0
Si esta ecuación posee n raı́ces distintas λi , i = 1, . . . , n, las n soluciones linealmente
independientes serán yi (t) = eλi t y la solución general será
y(t) = c1 eλ1 t + . . . + cn eλn t
Por el contrario, si una raı́z λ tiene multiplicidad m, pueden obtenerse de ella m soluciones
linealmente independientes,
eλt , teλt , . . . , tm−1 eλt
P
Como la suma de todas las multiplicidades de las raı́ces distintas es n ( i mi = 1) se
obtienen ası́ n soluciones linealmente independientes.
Las raı́ces complejas se tratan de forma similar. Si los ai , i = 1, . . . , n, son todos reales,
las raı́ces complejas aparecen en pares conjugados: λ = α±iω. De cada par de multiplici-
dad m pueden obtenerse 2m soluciones reales tk eαt cos(ωt), tk eαt sen(ωt), k = 0, . . . , m−1.
Importante: Todas las raı́ces, tanto reales como complejas, deben ser incluidas en la so-
lución general.

Ejemplo 1: Encontrar la solución general de la ecuación de cuarto orden


y 0000 − y = 0
Proponiendo y(t) = eλt , obtenemos la ecuación
λ4 − 1 = 0
Las 4 raı́ces de esta ecuación son λ1 = 1, λ2 = −1, λ3 = i, λ4 = −i. Tomando las partes
real e imaginaria de eit , la solución general será
y(t) = c1 et + c2 e−t + c3 cos t + c4 sen t
Los cuatro valores iniciales y(t0 ), y 0 (t0 ), y 00 (t0 ) y y 000 (t0 ) determinan las cuatro constantes.

Ejemplo 2: Encontrar la solución general de la ecuación de tercer orden


y 000 + 3y 00 + 3y 0 + y = 0
Proponiendo y(t) = eλt , obtenemos la ecuación λ3 +3λ2 +3λ+1 = 0, es decir (λ+1)3 = 0,
cuya única raı́z es λ = −1, con multiplicidad 3. La solución general es entonces
y(t) = c1 e−t + c2 te−t + c3 t2 e−t
Ejercicios III: Determine la solución general de las ecuaciones
a) y 0000 − 2y 00 + y = 0 b) y 000 = 0
– 22 –
1.9. La ecuación diferencial lineal no homogénea
Consideremos ahora el caso general

y (n) + an−1 (t)y (n−1) + . . . + a1 (t)y 0 + a0 (t)y = f (t) (1.60)

es decir,
L[y] = f (t) (1.61)
donde a1 (t), . . . , an (t) y f (t) continuas en intervalo abierto I.

1. La solución general de (1.60) está dada por la suma de la solución general yh (t) de la
ecuación homogénea más una solución particular yp (t) de la ecuación no homogénea:

y(t) = yh (t) + yp (t) (1.62)

donde
yh (t) = c1 y1 (t) + . . . + cn yn (t) (1.63)
es la solución general (1.13) y satisface L[yh ] = 0, mientras que yp (t) satisface L[yp ] = f (t).

Demostración: Dado que L[yh ] = 0 y L[yp ] = f (t), vemos que (1.62) es también
solución de (1.60), pues al ser L lineal,

L[yh + yp ] = L[yh ] + L[yp ] = 0 + f (t) = f (t)

Además, toda solución y(t) de (1.60) es de la forma (1.62), pues si L[y(t)] = f (t), entonces

L[y − yp ] = L[y] − L[yp ] = f (t) − f (t) = 0

lo que muestra que la diferencia y(t) − yp (t) es una solución yh (t) de la ecuación
homogénea. Por lo tanto y(t) − yp (t) = yh (t) y entonces y(t) = yh (t) + yp (t).
Para resolver la ecuación (1.60) debemos pues resolver la ecuación homogénea y luego
encontrar alguna solución particular yp (t) de (1.60) mediante algún método.

El conjunto de soluciones de (1.60) no es un espacio vectorial si f (t) 6= 0 (no


contiene a la función nula y no es cerrado bajo suma de funciones o multiplicación por un
escalar). Sin embargo, la linealidad de L implica el siguiente resultado:

2. Si yp1 (t), yp2 (t) son soluciones de (1.60) para f (t) = f1 (t) y f (t) = f2 (t) respectiva-
mente, una solución particular de (1.60) para la combinación lineal
f (t) = c1 f1 (t) + c2 f2 (t) es la combinación lineal de soluciones particulares:

L[yp1 ] = f1 (t), L[yp2 ] = f2 (t) ⇒ L[c1 yp1 + c2 yp2 ] = c1 f1 (t) + c2 f2 (t)

ya que L[c1 yp1 + c2 yp2 ] = c1 L[yp1 ] + c2 L[yp2 ] = c1 f1 (t) + c2 f2 (t).


En particular, L[yp1 + yp2 ] = f1 (t) + f2 (t) y L[cypi (t)] = cfi (t), i = 1, 2.
Por lo tanto si f (t) es suma de términos más simples, podemos hallar una solución parti-
cular sumando las soluciones para c/uno de los términos.

– 23 –
1.10. La ecuación lineal no homogénea de primer orden
La ecuación es
y 0 + p(t)y = f (t) (1.64)
Vimos previamente que la solución general de la ecuación homogénea es
R
yh (t) = cy1 (t), y1 (t) = e− p(t)dt

Para hallar una solución particular, utilizamos el método usualmente denominado varia-
ción de parámetros: Como en (1.33), consiste en proponer una solución de la forma

yp (t) = v(t)y1 (t)

con v(t) una función a determinar. Reemplazando en (1.64) se obtiene

v 0 y1 (t) + v[y10 (t) + p(t)y1 (t)] = f (t)


f (t)
pero como y10 (t) + p(t)y1 (t) = 0 obtenemos v 0 y1 (t) = f (t). Por lo tanto, v 0 = y1 (t)
y
Z Z
f (t) R
p(t)dt
v(t) = dt = e f (t)dt
y1 (t)

Una solución particular es entonces


Z Z R
f (t) R
− p(t)dt
yp (t) = y1 (t) dt = e e p(t)dt f (t)dt (1.65)
y1 (t)

y la solución general de (1.64) es


Z
f (t)
y(t) = cy1 (t) + y1 (t) dt (1.66)
y1 (t)
R R
Z R
= ce− p(t)dt
+ e− p(t)dt
e p(t)dt
f (t)dt (1.67)

Problema 19: Probar que la solución particular que se anula en t = t0 puede escribirse
como Z t Rt
yp (t) = g(t, t0 )f (t0 )dt0 , con g(t, t0 ) = y1 (t)/y1 (t0 ) = e− t0 p(s)ds
t0

y que g(t, t0 ) es la solución de la ecuación homogénea que satisface y(t0 ) = 1.

Ejemplo: Utilizando (1.67), vemos que una solución particular de y 0 + yt = t es


Z
−t2 /t 2 2 2
yp (t) = e et /2 tdt = e−t /2 et /2 = 1

2 /2
y que la solución general es entonces y(t) = ce−t + 1.

– 24 –
1.11. La ecuación lineal no homogénea de segundo orden
Consideremos ahora
y 00 + p(t)y 0 + q(t)y = f (t) (1.68)

Si se conocen dos soluciones linealmente independientes y1 (t), y2 (t) de la ecuación ho-


mogénea, es siempre posible encontrar una solución particular utilizando nuevamente el
método de variación de parámetros. El resultado es
Z Z
y2 (t)f (t) y1 (t)f (t)
yp (t) = −y1 (t) dt + y2 (t) dt (1.69)
W (t) W (t)

donde
y (t) y2 (t)
W (t) = 10 = y1 (t)y20 (t) − y10 (t)y2 (t)

(1.70)
y1 (t) y20 (t)
es el wronskiano de las soluciones (hemos visto ya que W (t) 6= 0 ∀ t ∈ I).
La solución general de (1.68) es entonces

y(t) = c1 y1 (t) + c2 y2 (t) + yp (t)

Demostración: Proponemos una solución particular de la forma


yp (t) = v1 (t)y1 (t) + v2 (t)y2 (t)
donde y1 (t) e y2 (t) son dos soluciones linealmente independientes de la solución homogénea
y v1 (t), v2 (t) funciones a determinar. Imponiendo la condición v10 (t)y1 (t) + v20 (t)y2 (t) = 0,
obtenemos yp0 = v1 y10 + v2 y20 y entonces yp00 = v10 y10 + v20 y20 + v1 y100 + v2 y200 . Reemplazando en
(1.68) se obtiene entonces
v10 y10 + v20 y20 + v1 [y100 + p(t)y10 + q(t)y1 ] + v2 [y200 + p(t)y20 + q(t)y2 ] = f (t)
pero como y1 e y2 son solución de la ecuación homogénea, los dos últimos términos del
primer miembro se anulan. Por lo tanto, la condición impuesta y la ecuación anterior
conducen al sistema  0
v1 (t)y1 (t) + v20 (t)y2 (t) = 0
(1.71)
v10 (t)y10 (t) + v20 (t)y20 (t) = f (t)
Despejando v10 (t) y v20 (t) y luego integrando, obtenemos
Z Z
y2 (t) y1 (t)
v1 (t) = − f (t)dt , v2 (t) = f (t)dt (1.72)
W (t) W (t)
donde W (t) es el wronskiano (1.70). Esto conduce a la solución (1.69).
Problema 20: Probar (1.72) a partir de (1.71).

Problema 21: Probar a partir de (1.69) que la solución particular que satisface yp (t0 ) =
yp0 (t0 ) = 0 es
Z t
−y1 (t)y2 (t0 ) + y2 (t)y1 (t0 )
yp (t) = g(t, t0 )b(t0 )dt0 , g(t, t0 ) =
t0 W (t0 )
siendo g(t, t0 ) la solución de la ecuación homogénea que satisface y(t0 ) = 0, y 0 (t0 ) = 1.
– 25 –
Ejercicios III. Halle la solución general de las siguientes ecuaciones diferenciales.
Utilice resultados de ejercicios previos.

a) y 00 + y 0 /t − 4y 0 /t2 = t b) y 00 − y = e−t

1.12. La ecuación lineal no homogénea de segundo orden con


coeficientes constantes
Consideremos ahora el caso en que p(t) = a y q(t) = b son constantes:

y 00 + ay 0 + by = f (t) (1.73)

es decir,
L[y] = f (t), L[y] = y 00 + ay 0 + by

Método general:
Para obtener una solución particular en el caso de una f (t) general, podemos aplicar el
método de variación de parámetros, cuyo resultado final es la ecuación (1.69).

Problema 22: Probar que si las soluciones linealmente independientes son


y1 (t) = eλ1 t y y2 (t) = eλ2 t , con λ1 6= λ2 , la ecuación (1.69) implica la solución particular
Z Z
1 −λ1 t
yp (t) = [e λ1 t
e f (t)dt − eλ2 t
e−λ2 t f (t)dt] (1.74)
λ1 − λ2
Problema 23: Probar que si las soluciones linealmente independientes son
y1 (t) = eλt y y2 (t) = teλt , entonces
Z Z
yp (t) = e [t e f (t)dt − te−λt f (t)dt]
λt −λt
(1.75)

Problema 24: a) Probar que si las soluciones linealmente independientes son


y1 (t) = eαt cos(ωt) y y2 (t) = eαt sin(ωt), ω 6= 0, entonces

eαt
Z Z
yp (t) = [− cos(ωt) e sin(ωt)f (t)dt + sin(ωt) e−αt cos(ωt)f (t)dt] (1.76)
−αt
ω

Problema 25: Muestre que la solución particular que satisface yp (t0 ) = yp0 (t0 ) = 0 puede
escribirse en todos los casos como
Z t
yp (t) = g(t − t0 )b(t0 )dt0 ,
t0

con g(t) la solución de la ecuación homogénea que satisface y(0) = 0, y 0 (0) = 1.

– 26 –
Ejemplo : Resolver
y 00 + 4y 0 + 4y = f (t)
Proponiendo y(t) = eλt para la solución de la ecuación homogénea se obtiene λ2 +4λ+4 =
(λ + 2)2 = 0, o sea λ = −2. La solución general de la ecuación homogénea es entonces

yh (t) = c1 e−2t + c2 te−2t


Tomando y1 (t) = e−2t , y2 (t) = te−2t , tenemos W (y1 , y2 ) = e−4t y aplicando (1.69) o
directamente la expresión final (1.75), obtenemos la solución particular
Z Z
−2t
yp (t) = e [t e f (t)dt − te2t f (t)dt]
2t

Por ejemplo, si f (t) = e−2t , se obtiene

t2
Z Z
yp (t) = e [t dt − tdt] = e−2t [t2 − t2 /2] = e−2t
−2t
2
La solución general de la ecuación

y 00 + 4y 0 + 4y = e−2t

es entonces
t2 −2t
y(t) = c1 e−2t + c2 te−2t + e
2

0 c1 + 0 = 0
Si las condiciones iniciales son y(0) = y (0) = 0, se obtiene el sistema
−2c1 + c2 = 0
cuya única solución es c1 = c2 = 0. La única solución particular de la ecuación anterior
2
que satisface esta condición inicial es por lo tanto y(t) = t2 e−2t .

Ejercicios IV. Halle la solución general de las siguientes ecuaciones diferenciales:

a) y 00 + 2y 0 + y = e−t b) y 00 + 2y 0 + y = te−t

c) y 00 + y = A cos(t) d) y 00 − y = Ae−t

e−t
e) y 00 + 2y 0 + y = 1+t2
f ) y 00 − y = e−t cos t

– 27 –
1.13. Método de coeficientes indeterminados para ecuaciones
con coeficientes constantes
En el caso de coeficientes constantes, este método facilita el cálculo de una solución
particular de L[y] = f (t) cuando f (t) es exponencial, seno, coseno, polinomio o producto
de estas funciones. Consiste en proponer una solución particular yp (t) del mismo tipo que
f (t), si es que tal propuesta no contiene sumandos que sean soluciones de la ecuación
homogénea. Damos a continuación una tabla de propuestas básicas de solución particu-
lar yp (t) de L[y] = f (t), válidas para el caso general de orden n con coeficientes constantes.

f (t) yp (t) Condición


αt αt
Ae Be L[eαt ] 6= 0
A0 + A1 t + . . . + Am tm B0 + B1 t + . . . + Bm tm L[1] 6= 0
αt m αt m
e (A0 + A1 t + . . . + Am t ) e (B0 + B1 t + . . . + Bm t ) L[eαt ] 6= 0
A cos ωt o A sen ωt B cos ωt + C sen ωt L[eiωt ] 6= 0
Aeiωt Beiωt L[eiωt ] 6= 0
Aeαt cos ωt o Aeαt sen ωt eαt [B cos ωt + C sen ωt] L[e(α+iωt) ] 6= 0
Ae(α+iω)t Be(α+iω)t L[e(α+iω)t ] 6= 0

donde A, B, C, etc. son constantes a determinar. Si no se cumple la condición indicada,


debe multiplicarse la propuesta anterior por t o en general, tk , con k el menor número
natural tal que ningún sumando de tk yp (t) sea solución de L[y] = 0.
Por la linealidad de L (punto 2. de la página 23), si f (t) es suma de varios términos
del tipo anterior, yp (t) será la suma de las soluciones particulares para cada término.
El método puede justificarse tanto a partir de la solución general (1.69) (ver página
previa) como de la observación que L aplicado a cada una de estas funciones da una función
del mismo tipo. Por ejemplo, L[eαt ] = P (α)eαt , donde P (α) es el polinomio caracterı́stico
(Probar!).
Ejemplo 1:
y 00 + ay 0 + by = Aeαt (1.77)
Proponiendo yp (t) = Beαt y reemplazando, se obtiene
Beαt [α2 + aα + b] = Aeαt
y por lo tanto,
A
B=
α2
+ aα + b
si P (α) = α +aα+b 6= 0, es decir, si α no es raı́z del polinomio caracterı́stico (L[eαt ] 6= 0).
2

La solución general de (1.77) es entonces


A
y(t) = c1 y1 (t) + c2 y2 (t) + eαt (L[eαt ] 6= 0)
+ aα + bα2
donde y1 e y2 son dos soluciones linealmente independientes de la ecuación homogénea.
Importante: Las condiciones iniciales y(0) = y0 , y 0 (0) = v0 , se deben ajustar con la
solución completa, que contiene a la solución particular.
– 28 –
Problema 26: Mostrar que una solución particular de y 00 + y = Ae−t es yp (t) = 21 Ae−t .

Si en cambio α es raı́z de la ecuación caracterı́stica (L[eαt ] = 0), se propone


yp (t) = Bteαt
Obtenemos yp0 = Beαt (1 + αt), yp00 = Beαt (2α + α2 t) y entonces, reemplazando en (1.77),
Beαt [t(α2 + aα + b) + a + 2α] = Aeαt
Como α2 + aα + b = 0, obtenemos
A
B=
a + 2α
si a + 2α 6= 0. La solución general de (1.77) en este caso es entonces
A
y(t) = c1 y1 (t) + c2 y2 (t) + teαt (L[eαt ] = 0, L[teαt ] 6= 0)
a + 2α
Si también a + 2α = 0, α será justamente raı́z doble de la ecuación caracterı́stica, en el
que teαt es también solución (Probar!). En este caso se debe proponer yp = Bt2 eαt ,
o utilizar el método general (1.69).
Problema 27: Hallar la solución general de (1.77) si α es raı́z doble (a2 = 4b, α = −a/2).

Problema 28: Mostrar que una solución particular de y 00 − y = Ae−t es yp (t) = − 21 Ate−t .

Ejemplo 2:
y 00 + ay 0 + by = A0 + A1 t + A2 t2 , A2 6= 0 (1.78)
Proponiendo
yp (t) = B0 + B1 t + B2 t2
se obtiene yp0 = B1 + 2B2 t, yp00 = 2B2 y reemplazando en (1.78),
(2B2 + aB1 + bB0 ) + (2aB2 + bB1 )t + bB2 t2 = A0 + A1 t + A2 t2
Igualando los coeficientes de igual grado, se llega al sistema

 bB0 + aB1 + 2B2 = A0
bB1 + 2aB2 = A1
bB2 = A2

que es compatible con solución única si b 6= 0. Puede resolverse directamente comenzando


con la última ecuación.
Importante: El polinomio propuesto debe ser completo, aun si A0 = 0 o A1 = 0.
Problema 29: Mostrar que una solución particular de y 00 +2y 0 +y = t2 es yp (t) = 6−4t+t2 .

Si en cambio b = 0, caso en el que L[1] = 0 (probar!) se debe proponer una solución


particular
yp (t) = t(B0 + B1 t + B2 t2 )
Problema 30: Mostrar que una solución particular de y 00 +y 0 = t2 es yp (t) = t(2−t+t2 /3).

– 29 –
Ejemplo 3:
y 00 + ay 0 + by = A cos ωt (1.79)
Tenemos dos formas de resolverlo: 1) Se propone
yp (t) = B cos ωt + C sen ωt
Se obtiene yp0 = ω(C cos ωt − B sen ωt), yp00 (t) = −ω 2 yp y reemplazando en la ecuación,
((b − ω 2 )B + aCω) cos ωt + ((b − ω 2 )C − aBω) sen ωt = B cos ωt
que conduce al sistema 
(b − ω 2 )B + aωC = A
−aωB + (b − ω 2 )C = 0
Este posee solución única salvo que a = 0 y ω 2 = b > 0 (asumiendo ω real), caso en el
que cos ωt es solución.
Problema 31: Probar que una solución particular de y 00 + 2y 0 + y = A cos t
es yp (t) = 21 A sen t.

2) La segunda forma, asumiendo a, b, A y ω reales, es resolver la ecuación


y 00 + ay 0 + by = Aeiωt
ya que eiωt = cos ωt + i sen ωt. Se propone ası́ la solución particular Beiωt . Se obtiene,
reemplazando en la ecuación,
B[−ω 2 + aiω + b]eiωt = Aeiωt
de donde, asumiendo ω 2 6= b si a = 0,
A
B=
ω2
b − + aiω
iωt
Dado que cos ωt = Re[e ], la solución particular para f (t) = A cos ωt es entonces
yp (t) = Re[Beiωt ]
Las ventajas de esta segunda forma, que es la utilizada en Ingenierı́a, son varias:
i) Es necesario determinar un sólo coeficiente: B.
ii) Escribiendo B en forma polar B = |B|eiφ , se obtiene Beiωt = |B|ei(ωt+φ) y entonces,
yp (t) = Re[|B|ei(ωt+φ) ] = |B| cos(ωt + φ)
Esta expresión nos da explı́citamente tanto la amplitud |B| como la diferencia de fase
φ de la solución con respecto a la entrada A cos ωt, que son justamente los datos buscados
de la solución en las aplicaciones prácticas de este tipo de problemas.
iii) La parte imaginaria de la solución particular compleja es una solución particular de
y 00 + ay 0 + by = A sen ωt
por lo que se resuelven ambos problemas (L[y] = A cos ωt y L[y] = A sen ωt) simultánea-
mente con un sólo coeficiente B.
Problema 32: Probar que si L[y] = f (t), con f (t) compleja, y L es real y lineal, entonces
L[Re(y)] = Re[f (t)], L[Im(y)] = Im[f (t)]

– 30 –
Problema 33: Mostrar que una solución particular de y 00 + 2y 0 + y = Aeit es
yp (t) = 2i1 Aeit = − 2i Aeit , y que por lo tanto,
a) yp (t) = 12 A sen t es solución particular de y 00 + 2y 0 + y = A cos t
b) yp (t) = − 12 A cos t es solución particular de y 00 + 2y 0 + y = A sen t.
Determinar la diferencia de fase de la solución particular con respecto a la entrada.

Problema 34: Dada la ecuación

y 00 + ω 2 y = A cos(ωt),

muestre que es necesario proponer una solución particular de la forma


yp (t) = t[B cos ωt + E sen ωt] o Beiωt , y que el resultado es
1
yp (t) = A sen ωt

Ejercicios V.
1) Halle la solución general de las siguientes ecuaciones diferenciales.

a) y 00 + 2y 0 + y = e−2t b) y 00 + 2y 0 + y = 4e−2t + t + t2

c) y 00 + 4y = A cos(ωt), ω 2 6= 4 d) y 00 + 4y = A cos(2t)

e) y 00 + 4y 0 + 5y = Ae−2t + Bte−t f ) y 00 + 4y 0 + 5y = 4 + 12t − 5t2

g) y 00 − 4y = e−2t + 1 h) y 00 + y = e−t cos t

i) y 00 = e−t + 1 j) y 000 + y 0 = e−t

k) y 0000 − y = e2t i) y 00 + 2y 0 + y = e−t


2) Determine la solución de las ecuaciones a), b), c) y d) que satisface i) y(0) = y 0 (0) = 0
ii) y(0) = 1, y 0 (0) = 0. iii) Determine la solución de la ecuación j) que satisface y(0) =
y 0 (0) = y 00 (0) = 0.

3) Si y(t) es solución de y 00 + ay 0 + by = f (t), con a, b constantes, determine la ecua-


ción diferencial que satisface i) y 0 (t), ii) y(t − t0 ), iii) Ay(t) + C.

4) a) Muestre que en una ecuación diferencial lineal de segundo orden, si f (t) → αf (t), la
solución particular obtenida por el método general o por el de coeficientes indeterminados,
se multiplica por α.
b) ¿ Es válida dicha propiedad para la solución particular de la misma ecuación que satis-
face condiciones iniciales fijas no nulas y(0) = y0 , y 0 (0) = v0 ? ¿Qué sucede si y0 = v0 = 0?

5) Determine la solución general de las siguientes ecuaciones.

a) y 00 + y 0 /t − y 00 /t2 = tn , t > 0 b) y 00 + 2y 0 + y = e−t tn c) y 00 + y = tan(t)

– 31 –
1.14. Aplicaciones
Problema 34. El oscilador armónico en presencia de una fuerza constante
Supongamos que se aplica una fuerza constante F , tal como la fuerza de gravedad
F = −mg, sobre una masa unida a un resorte. Muestre que la ecuación que describe la
posición y (medida a partir de la posición de equilibrio del resorte para F = 0) es
y 00 + ω 2 y = f , ω 2 = k/m > 0, f = F/m > 0
a) Muestre que una solución particular de esta ecuación es la constante
yp (t) = y0 , y0 = f /ω 2 = F/k
y que y0 representa la nueva posición de equilibrio en presencia de la fuerza constante.
b) Escriba la solución general de la ecuación, y muestre que el único efecto de la fuerza
constante fue desplazar el punto de equilibrio, es decir, el centro de las oscilaciones.
c) Muestre que la ecuación diferencial que satisface ỹ = y − y0 (posición medida a partir
del nuevo punto de equilibrio) es idéntica a la ecuación que satisface y para F = 0.

Problema 35.
El oscilador armónico forzado. Resonancia.

Considerar la aplicación de una fuerza externa F (t)


a una masa unida a un resorte.
a) Mostrar que la ecuación que describe el movimiento es
M
y 00 + ω 2 y = f (t), f (t) = F (t)/m
FHtL
b) Dar una expresión de la solución general
para una fuerza continua arbitraria.
c) Considerar ahora una fuerza externa de la forma
F (t) ∝ cos(ω ex t), tal que la ecuación de movimiento es
y 00 + ω 2 y = F cos(ω ex t)
Muestre que si ω ex 6= ω, la solución general es
F
y(t) = c1 cos(ωt) + c2 sen (ωt) + cos(ω ex t), (ω ex 6= ω)
ω2 − ω 2ex
y la solución que satisface y(0) = 0, y 0 (0) = 0 es
F
y(t) = [cos(ω ex t) − cos(ωt)] , (ω ex 6= ω) (1.80)
ω2 − ω 2ex
Grafique esta solución y discuta su comportamiento (tipo “batido”) al acercarse ω ex a ω.
Muestre que puede escribirse como
2F
y(t) = sen (ω 1 t) sen (ω 2 t)
ω2 − ω 2ex
con ω 1 = (ω + ω ex )/2, ω 2 = (ω − ω ex )/2.

– 32 –
d) Mostrar que si ω ex = ω (resonancia), la solución general es

A
y(t) = c1 cos(ωt) + c2 sen (ωt) + sen (ωt) , (ω ex = ω) (1.81)

y la solución que satisface y(0) = y 0 (0) = 0 es

A
y(t) = t sen (ωt), (ω ex = ω) (1.82)

Grafique e interprete esta solución, y discuta el fenómeno de resonancia.
e) Muestre que el lı́mite de la solución (1.80) para ω ex → ω (y t fijo) es la solución (1.81).
yHtL yHtL
Ωe=0.8 Ω Ωe=0.9 Ω

10 A 10 A

t t

-10 A -10 A

10 T 20 T 10 T 20 T

yHtL yHtL
Ωe=0.95 Ω 50 A Ωe=Ω
10 A
-10 A
t t
-10 A
-10 A

10 T 20 T -50 A 10 T 20 T

Gráficos de la solución (1.80) para frecuencias externas ω e próximas a la frecuencia propia


ω, e intensidad F fija . Nótese el cambio de escala en el caso resonante ω e = ω.
T = 2π/ω es el perı́odo y A = F/ω 2 .

Problema 36.
Oscilador forzado amortiguado.
Examinemos ahora el sistema anterior en presencia
de una fuerza de roce viscosa Fr = −µy 0 .
a) Mostrar que la ecuación que describe el movimiento
en presencia de una fuerza externa F (t) es M

y 00 + 2γy 0 + ω 2 y = f (t) FHtL

donde f (t) = F (t)/m y γ = µ/(2m) > 0.

– 33 –
b) Mostrar que para
f (t) = F cos(ω ex t)
una solución particular es

(ω 2 − ω 2ex ) cos(ω ex t) + 2γω ex sen (ω ex t)


yp (t) = F (1.83)
(ω 2 − ω 2ex )2 + 4γ 2 ω 2ex
F
= p cos(ω ex t + φ) (1.84)
(ω − ω ex )2 + 4γ 2 ω 2ex
2 2

Dado que la solución general de la ecuación homogénea disminuye ahora exponencial-


mente al aumentar t, para tiempos grandes (mayores que el tiempo de relajación) sólo
subsiste la solución particular. Para ω = ω ex , la amplitud de la oscilación resultante
crece inicialmente pero se estabiliza rápidamente en el valor determinado por la solución
particular.
Es también muy importante destacar que el sistema termina oscilando con la frecuencia
externa y no la frecuencia propia.
Haga un gráfico de la amplitud de la oscilación resultante y muestre que disminuye al
aumentar el coeficiente de roce α, y es máxima para ω ex cercano a ω.
yHtL yHtL
Ωe=0.8 Ω Ωe=0.9 Ω

10 A 10 A

t t

-10 A -10 A

10 T 20 T 10 T 20 T

yHtL AHΩeL

Ωe=Ω
10 A
10 A Γ=ِ20

-10 A

10 T 20 T ΩeΩ
1 2
Gráficos de la solución en presencia de roce viscoso con γ = ω/20 para y(0) = y 0 (0) = 0.
La última figura (1.80) muestra la amplitud de la solución particular en función de la
frecuencia externa para γ = ω/20, ω/10 y ω/5. Es máxima para ω ex ≈ ω.

Problema 37. Discuta el fénomeno de resonancia y el efecto de la resistencia (“roce”)


para el circuito LCR en serie con una fuente que suministra una fem V (t) = V cos(ω ex t).

– 34 –
La ecuación no homogénea de orden n.
El método (1.33) para obtener una solución particular se puede extender al caso general

y (n) + an−1 (t)y (n−1) + . . . + a1 (t)y 0 + a0 (t)y = f (t) (1.85)

Si y1 (t), . . ., yn (t) son n soluciones linealmente independientes de la ecuación homogénea,


se puede proponer una solución particular de la forma

yp (t) = v1 (t)y1 (t) + . . . + vn (t)yn (t)

con v1 (t), . . . , vn (t) funciones a determinar. Imponiendo las n − 1 condiciones


(k) (k)
v10 y1 + . . . + vn0 yn = 0 ∀ t ∈ I, k = 0, . . . , n − 2, y reemplazando en (1.85), se obtiene el
sistema
v10 y1 + +vn0 yn

 ... = 0
..


.

0 (n−2) 0 (n−2)
vy + . . . +vn yn = 0
 10 1(n−1)


0 (n−1)

v1 y1 + . . . +vn yn = f (t)
cuya solución es (probar!)
Z
Wi (t)
vi (t) = (−1)i+n f (t)dt, i = 1, . . . , n
W (t)

y1 . . . yn


donde W (t) = ..
. , es el Wronskiano y Wi (t) el determinante de la

(n−1) (n−1)
y1 . . . yn
matriz obtenida suprimiendo la fila n y la columna i de la matriz que define a W (t).

– 35 –
2. Sistemas de ecuaciones diferenciales ordinarias
Un sistema de ecuaciones diferenciales ordinarias de primer orden es un sistema con
n funciones incógnitas y1 (t), y2 (t), . . . , yn (t), que deben satisfacer las n ecuaciones

0
 y1 = f1 (t, y1 , . . . , yn )

.. (2.1)
.
 y 0 = f (t, y , . . . , y )

n n 1 n

Las n ecuaciones diferenciales están en general acopladas, ya que fi depende no sólo de yi


sino también de las funciones restantes.
Podemos escribir el sistema (2.1) en forma vectorial como
   
y1 f1 (t, Y )
Y 0 = F (t, Y ) , Y =  ...  , F (t, Y ) =  .. (2.2)
   
. 
yn fn (t, Y )

Si ninguna de las funciones fi depende explı́citamente de la variable independiente t,


el sistema se denomina autónomo: Es de la forma Y 0 = F (Y ).

Toda ecuación diferencial ordinaria de orden superior puede expresarse como un sistema
de ecuaciones ordinarias de primer orden.

Una ecuación diferencial ordinaria de orden n,

y (n) = f (t, y, y 0 , . . . , y (n−1) ) (2.3)

puede escribirse como un sistema de n ecuaciones diferenciales de primer orden:


Introduciendo las funciones

y1 (t) = y(t), y2 (t) = y 0 (t), . . . , yn (t) = y (n−1) (t) (2.4)

vemos que la ecuación (2.3) es equivalente al sistema de ecuaciones de primer orden




 y10 = y2
0
 y2 = y3



.. (2.5)
.
0

 y = yn
 yn−1


0

n = f (t, y1 , y2 , . . . , yn )
ya que y10 (t) = y 0 (t) = y2 (t), y20 (t) = y 00 (t) = y3 (t), . . ., yn0 (t) = y (n) (t).

Por ejemplo, la ecuación diferencial de segundo orden

y 00 = f (t, y, y 0 )

– 36 –
es equivalente al sistema de dos ecuaciones de primer orden
 0
y1 = y2
y20 = f (t, y1 , y2 )
donde y1 = y y y2 = y 0 . Si y(t) representa una posición, y2 (t) = y 0 (t) es la velocidad.
Problema 1: Escribir la ecuación y 00 + y = t como un sistema de primer orden.

De la misma manera, un sistema de m ecuaciones de orden n,


Y (n) = F (t, Y , Y 0 , . . . , Y (n−1) )
donde Y = (y1 , . . . , ym ), F = (f1 , . . . , fm ), puede escribirse, introduciendo las funciones
Z1 = Y , Z2 = Y 0 , . . . , Zn = Y (n−1)
como un sistema de n × m ecuaciones de primer orden:


 Z10 = Z2
0
 Z2 = Z3



.. (2.6)
.
0

 Z = Zn
 Zn−1


0

n = F (t, Z1 , Z2 , . . . , Zn )
para Z1 (t), . . . , Zn (t) (n × m funciones incógnitas en total).
Por ejemplo, la segunda ley de Newton para el movimiento en tres dimensiones de una
partı́cula de masa m > 0,
d2 r dr
m 2 = F (t, r, )
dt dt
donde F (t, r, dr/dt) es la fuerza neta que actúa sobre la misma, es un sistema de tres
ecuaciones diferenciales de 2o orden para las coordenadas x, y, z de r = (x, y, z). Intro-
duciendo la velocidad v = dr/dt, resulta equivalente al sistema de primer orden
 dr
dt
= v
dv
m dt = F (t, r, v)
que es un sistema de seis ecuaciones diferenciales de primer orden para las seis funciones
x(t), y(t), z(t), vx (t), vy (t), vz (t).
Por lo tanto, en lo sucesivo consideraremos sólo sistemas de primer orden.

Teorema de Existencia y Unicidad de la Solución

Consideremos el sistema de n ecuaciones de primer orden con condiciones iniciales:


 0
Y = F (t, Y )
(2.7)
Y (t0 ) = Y0

donde Y0 = (y10 , . . . , yn0 )t . Si las n funciones fi de F son continuas en una región


R = {(t, Y ) | |t − t0 | ≤ a, |Y − Y0 | ≤ b, a > 0, b > 0} ⊂ Rn+1 , y si las derivadas parciales
∂fi /∂yj están acotadas en dicha región ∀ i, j, existe una única solución Y (t) en un
cierto intervalo I centrado en t0 , que satisface la condición inicial Y (t0 ) = Y0 .

– 37 –
2.1. Sistemas lineales de primer orden
Un sistema de n ecuaciones diferenciales de primer orden es lineal si las n funciones fi (t, Y )
son funciones lineales de y1 , y2 , . . ., yn (aunque no necesariamente de t). Un sistema lineal
de primer orden puede escribirse en la forma

0
 y1 = a11 (t)y1 + . . . a1n (t)yn + f1 (t)

.. (2.8)
.
 y 0 = a (t)y + . . . + a (t)y + f (t)

n n1 1 nn n n

con ai (t), fi (t), i = 1, . . . , n, definidas en un cierto intervalo I. El sistema es homogéneo


si fi (t) = 0 ∀ t ∈ I para i = 1, . . . , n.
Podemos escribir (2.8) en forma matricial como
      
y10 a11 (t) . . . ann (t) y1 f1 (t)
 ..   ..   ..   .. 
 . = .  .  +  .  (2.9)
0
yn an1 (t) . . . ann (t) yn fn (t)

es decir,
Y 0 = A(t)Y + F (t) (2.10)
con Y (t), F (t) vectores columna de 1 × n y A(t) una matriz de n × n.
     
y1 a11 (t) . . . ann (t) f1
Y =  ...  , A(t) =  ...  . 
 , F (t) =  ..  (2.11)
   
yn an1 (t) . . . ann (t) fn

En este caso el teorema de existencia y unicidad asegura, si todos los elementos aij (t)
y fi (t) son funciones continuas en un intervalo I, que el problema de condiciones iniciales
Y 0 = A(t)Y + F (t)

(2.12)
Y (t0 ) = Y0
tendrá solución única ∀ Y0 ∈ Rn , ∀ t0 ∈ I.
Problema 2: Mostrar que la unicidad implica que si Y1 (t), Y2 (t) son dos soluciones de
(2.10) y cumplen Y1 (t0 ) 6= Y2 (t0 ), entonces Y1 (t) 6= Y2 (t) ∀ t ∈ I.
Ejemplo: El sistema  0
x = x−y
(2.13)
y 0 = −x + y + 2t
es un sistema de dos ecuaciones diferenciales lineales de primer orden para las funciones
incógnitas x(t), y(t). Podemos escribirlo en forma matricial como
 0      
x 1 −1 x 0
= + (2.14)
y0 −1 1 y 2t
o sea, Y 0 = AY + F (t), con
     
x 1 −1 0
Y = , A= , F =
y −1 1 2t
– 38 –
2.2. Sistema lineal homogéneo de primer orden
Consideremos ahora el sistema homogéneo
Y 0 = A(t)Y (2.15)
Asumiremos que todos elementos aij (t) de A(t) son funciones continuas para t ∈ I.

Teorema 1. El conjunto S de soluciones de un sistema de n ecuaciones diferenciales


lineales de primer orden homogéneo es un espacio vectorial de dimensión n.
Que sea un espacio vectorial implica que si Y1 (t) e Y2 (t) son dos soluciones de (2.15),
toda combinación lineal
Y (t) = c1 Y1 (t) + c2 Y2 (t)
con c1 , c2 constantes, es también solución de (2.15) (propiedad de superposición). Y que
sea de dimensión n, implica que existen n soluciones linealmente independientes
Y1 (t), . . ., Yn (t) tales que toda solución de (2.15) puede escribirse como

Y (t) = c1 Y1 (t) + . . . + cn Yn (t) (2.16)

El conjunto {Y1 (t), . . . , Yn (t)} es una base de S y se denomina sistema fundamental de


soluciones. La expresión (2.16) es la solución general de (2.15).

Demostración: La solución nula Y (t) = 0 ∀ t ∈ I (solución trivial) es solución de


(2.15), pues Y 0 (t) = 0 = A0 = 0. Y si Y1 (t) e Y2 (t) son soluciones, c1 Y1 (t) + c2 Y2 (t) es
también solución pues
(c1 Y1 + c2 Y2 )0 = c1 Y10 + c2 Y20 = c1 A(t)Y1 + c2 A(t)Y2 = A(t)(c1 Y1 + c2 Y2 )
S es pues cerrado bajo la operaciones de suma de funciones y producto por escalar, siendo
entonces un subespacio del espacio de funciones vectoriales F : I ⇒ Rn derivables.
Podemos también escribir (2.15) como
L[Y ] = 0 , L[Y ] = Y 0 − A(t)Y
con L un operador lineal: L[c1 Y1 + c2 Y2 ] = c1 L[Y1 ] + c2 L[Y2 ] (Probar!).
El conjunto de soluciones S = {Y (t) | L[Y ] = 0} es entonces el núcleo de L y es por lo
tanto un espacio vectorial.
Demostremos ahora que la dimensión de S es n. Consideremos n condiciones iniciales
0
Y1 , . . ., Yn0 ∈ Rn , linealmente independientes, y sean Y1 (t), . . . , Yn (t) las soluciones
de (2.15) que satisfacen las condiciones iniciales
Y1 (t0 ) = Y10 , . . . , Yn (t0 ) = Yn0 (2.17)
Estas soluciones existen y son únicas por el teorema anterior. Además, son linealmente
independientes, ya que si existen c1 , . . ., cn tales que
c1 Y1 (t) + . . . + cn Yn (t) = 0 (2.18)
∀ t ∈ I, para t = t0 (2.18) implica c1 Y10 +. . .+cn Yn0 = 0, por lo que c1 = . . . = cn = 0, por
ser {Y10 , . . . , Yn0 } un conjunto linealmente independiente de vectores de Rn . La dimensión
de S es entonces no menor que n.
– 39 –
Además, como vectores de Rn , Y1 (t), . . . Yn (t) permanecen linealmente indepen-
dientes ∀ t ∈ I, ya que si la suma (2.18) se anula para algún t ∈ I, debe coincidir, por
unicidad, con la solución trivial Y (t) = 0 ∀ t ∈ I, incluyendo t = t0 , y por lo tanto
c1 = . . . = cn = 0.
Consideremos ahora una solución cualquiera Y (t) de (2.15), que satisface Y (t0 ) = Y0 .
Como el conjunto de vectores iniciales {Y10 , . . . , Yn0 } es una base de Rn (pues son n
vectores linealmente independientes), el valor inicial Y0 puede escribirse como
Y0 = c1 Y10 + . . . cn Yn0
Por lo tanto, Y (t) debe coincidir, por el teorema de unicidad, con la combinación lineal
Y (t) = c1 Y1 (t) + . . . cn Yn (t) (2.19)
ya que (2.19) satisface Y (t0 ) = c1 Y10 + . . . + cn Yn0 = Y0 y es solución del sistema por ser
combinación lineal de soluciones. Esto implica que la dimensión de S es n y no mayor.

Si {Y1 (t), . . . , Yn (t)} son n soluciones linealmente independientes de (2.15)


(Yi0 = A(t)Yi , i = 1, . . . , n), la matriz fundamental de soluciones se define como

M (t) = (Y1 (t), . . . , Yn (t)) (2.20)

tal que la columna i de M (t) es la solución Yi (t). Es de n × n y satisface

M 0 = A(t)M (2.21)

Como los vectores {Y1 (t), . . . , Yn (t)} son linealmente independientes ∀ t ∈ I, M (t) es no
singular: det[M (t)] 6= 0 ∀ t ∈ I. La solución general (2.16) puede ası́ escribirse como
 
c1
Y (t) = M (t)C , C =  ... 
 
cn

Ejemplo: Consideremos el sistema


x0 = x − y

(2.22)
y 0 = −x + y
1 −1
es decir, Y 0 = AY , con Y = (xy ), A = (−1 1 ), Es fácil ver que
 2t   
e 1
Y1 (t) = 2t , Y2 (t) =
−e 1
son dos soluciones L.I. de (2.22) (probar!). La solución general de (2.22) es entonces
 2t   
e 1
Y (t) = c1 Y1 (t) + c2 Y2 (t) = c1 2t + c2
−e 1
es decir, x(t) = c1 e2t + c2 , y(t) = −c1 e2t + c2 , y la matriz fundamental asociada es
 2t 
e 1
M (t) =
−e2t 1
– 40 –
2.3. Sistema lineal homogéneo con coeficientes constantes
Consideremos ahora el caso, de gran importancia práctica, en el que todos los coeficientes
de la matriz A son constantes, es decir, independientes de t (aij (t) = aij ∀ i, j):

Y 0 = AY (2.23)

o en forma explı́cita, 
0
 y1 = a11 y1 + . . . + a1n yn

..
.
 y0 = a y + . . . + a y

n n1 1 nn n

Al no depender explı́citamente del tiempo, el sistema es autónomo. Podemos entonces


tomar I = R y el teorema general asegura la existencia de n soluciones linealmente
independientes de dicho sistema válidas ∀ t ∈ R.
Estos sistemas pueden además resolverse en forma exacta.

El sistema lineal homogéneo (2.23) admite una solución no nula de la forma


 
v1
Y (t) = eλt V , V =  ...  (2.24)
 
vn

con λ y V independientes de t, si y sólo si λ es autovalor de A y V un autovector


asociado.

Demostración: Proponiendo una solución de la forma (2.24), tenemos Y0 = λeλt V y


reemplazando en (2.23) obtenemos

λeλt V = Aeλt V

lo que conduce a
AV = λV
Si exigimos V 6= 0 (solución no trivial) esta igualdad implica que λ debe ser autovalor
de A (Det[A − λI] = 0) y V un autovector asociado.
Si buscamos ahora la solución general, tenemos dos casos:

– 41 –
a) La matriz A es diagonalizable. En este caso existen n autovectores linealmente inde-
pendientes V1 , . . . , Vn , asociados a n autovalores λ1 , . . . , λn (no necesariamente distintos):

AVi = λi Vi , i = 1, . . . , n

Por lo tanto, un sistema fundamental de soluciones de (2.23) es

Y1 (t) = eλ1 t V1 , . . . , Yn (t) = eλn t Vn

dado que son n soluciones linealmente independientes.


Toda solución de (2.23) es entonces de la forma

Y (t) = c1 eλ1 t V1 + . . . + cn eλn t Vn (2.25)

Esta expresión es la solución general del sistema.

Recordemos que este es, por ejemplo, el caso de:


i) Matrices A de n × n que poseen n autovalores distintos.
ii) Matrices reales simétricas (At = A) o complejas hermı́ticas (Āt = A), aun con
autovalores repetidos. Estas matrices tienen además todos los autovalores reales.
iii) Matrices reales antisimétricas (At = −A) u ortonormales (A−1 = At ), o en general
toda matriz que satisfaga Āt A = AĀt , aun con autovalores repetidos. Los autovalores de
estas matrices son en general complejos.

Ejemplo: Consideremos nuevamente el sistema (2.22),


 0
x = x−y
(2.26)
y 0 = −x + y
que corresponde a  
1 −1
A=
−1 1
Esta matriz es real y simétrica. Por lo tanto, sabemos que será diagonalizable. Se deja
como ejercicio probar que los autovalores y autovectores asociados son
   
1 1
λ1 = 2, V1 = α , α 6= 0, λ2 = 0, V2 = β , β 6= 0
−1 1
Por lo tanto, Y1 (t) = e2t (−1
1
), Y2 (t) = e0t (11 ) = (11 ) (constante) forman un sistema funda-
mental de soluciones linealmente independientes y la solución general es
   
2t 1 1
Y (t) = c1 e + c2
−1 1
es decir, x(t) = c1 e2t + c2 , y(t) = −c1 e2t + c2 .
Problema 7: Mostrar que en el caso diagonalizable, una matriz fundamental es
M (t) = (eλ1 t V1 , . . . , eλn t Vn )
y su determinante
det M (t) = e(λ1 +...+λn )t Det M (0)
verificándose que det M (t) 6= 0 ∀ t si los vectores {V1 , . . . , Vn } son L.I.
– 42 –
b) La matriz A es no diagonalizable. En este caso A posee k < n autovectores lineal-
mente independientes V1 , . . . , Vk , asociados a k autovalores λ1 , . . . , λk (no necesariam.
distintos). El método previo proporciona aquı́ sólo k < n soluciones linealmente indepen-
dientes
Yi (t) = eλi t Vi , i = 1, . . . , k
Dejaremos para el final el tratamiento completo de este caso. Mencionamos aquı́ que las
restantes soluciones linealmente independientes son de la forma eλt V (t), con λ autovalor
de A de multiplicidad algebraica m > 1 y V (t) un polinomio en t de grado menor que m.

Tanto en el caso diagonalizable como no diagonalizable, debemos tener en cuenta la


posibilidad de que existan autovalores complejos!

Autovalores complejos.
Los autovalores λ pueden ser complejos, aún si la matriz A es real! Si

λ = α + iω

con ω 6= 0 y α, ω reales, debemos aplicar, como vimos previamente, la fórmula de Euler

e(α+iω)t = eαt [cos(ωt) + i sin(ωt)]

Si A es real, los autovalores complejos aparecerán en pares conjugados con autovectores


conjugados:
AV = λV , AV = λ V
donde λ = α − iω, V = U + iW , V = U − iW y V , W reales. Si ω 6= 0,

Y (t) = eλt V , Y (t) = eλt V

formarán un par de soluciones complejas linealmente independientes (pues λ 6= λ).

Para obtener un par de soluciones reales linealmente independientes, basta con tomar
las partes real e imaginaria de una de las dos, por ejemplo

Y (t) + Y (t) Y (t) − Y (t)


Y1 (t) = Re[Y (t)] = , Y2 (t) = Im[Y (t)] =
2 2i
Un par de autovalores conjugados origina pues un par de soluciones linealmente indepen-
dientes, que pueden elegirse siempre reales si la matriz A es real!
El significado de autovalores complejos es el de soluciones oscilatorias, con una amplitud
que crece (α > 0) o decrece (α < 0) exponencialmente o permanece constante (α = 0).

Problema 8: Probar que si A es real y Y (t) es una solución compleja del sistema ho-
mogéneo Y 0 = AY , las partes real Re[Y (t)] e imaginaria Im[Y (t)] son también soluciones
de dicho sistema.
Problema 9: Probar que si Y (t) y Y (t) son soluciones linealmente independientes, en-
tonces Re[Y (t)] y Im[Y (t)] son también linealmente independientes.
– 43 –
Ejemplo: Consideremos el sistema,
 0
x = x−y
(2.27)
y0 = x + y

que corresponde a  
1 −1
A=
1 1
Esta matriz es real antisimétrica, y por lo tanto diagonalizable aunque con autovalores
complejos. Los autovalores y autovectores asociados son
   
1 1
λ1 = 1 + i, V1 = α , α 6= 0, λ2 = 1 − i, V2 = β , β 6= 0
−i i

verificándose que λ2 = λ1 , V 2 = V1 . Por lo tanto,


   
(1+i)t 1 (1−i)t 1
Y (t) = e , Y (t) = e
−i i

son un par de soluciones complejas linealmente independientes, y


   t     t 
(1+i)t 1 e cos t (1+i)t 1 e sin t
Y1 (t) = Re[e ]= , Y2 (t) = Im[e ]=
−i et sin t −i −et cos t

un par de soluciones reales linealmente independientes del mismo sistema.


La solución general puede entonces expresarse en forma real como
 t   t 
e cos t e sin t
Y (t) = c1 Y1 (t) + c2 Y2 (t) = c1 + c2
et sin t −et cos t

es decir, x(t) = et (c1 cos t + c2 sin t), y(t) = et (c1 sin t − c2 cos t).

Problema 10: Mostrar que la solución general puede expresarse también como
   
(1+i)t 1 (1−i)t 1
Y (t) = c+ e + c− e
−i i

donde c± = (c1 ∓ ic2 )/2.


Problema 11: Mostrar que la solución general puede expresarse también como
   
t cos(t + φ) t i(t+φ) 1
Y (t) = Ae = Ae Re[e ]
sin(t + φ) −i

donde A2 = c21 + c22 , tan φ = −c2 /c1 . Interpretar esta expresión.

Problema 12: Probar que si Y (t) = e(α+iω)t (U + iW ), con U y W reales,

Re[Y (t)] = eαt [U cos ωt − W sen ωt], Im[Y (t)] = eαt [U sen ωt + W cos ωt]

– 44 –
2.4. Representación diagonal y desacoplamiento
El caso diagonalizable puede también tratarse pasando a una representacı́ón diagonal
del sistema. En este caso la matriz A es semejante a una matriz diagonal D, de modo
que existe una matriz S de n × n no singular tal que
 
λ1 0 . . . 0
 0 λ2 . . . 0 
−1
S AS = D, D=  , S = (V1 , . . . , Vn )
 
. .
 . 
0 0 . . . λn

donde las columnas de S son n autovectores linealmente independientes de A.


Multiplicando el sistema Y 0 = AY a izquierda por la inversa S −1 , se obtiene

S −1 Y 0 = S −1 AY = (S −1 AS)(S −1 Y )
o sea,  
z1
Z 0 = DZ, con Z = S −1 Y =  ... 
 
zn
Por ser D diagonal, las n funciones z1 (t), . . . , zn (t) satisfacen un sistema de n ecua-
ciones diferenciales de primer orden desacopladas:

0
 z1 = λ1 z1

Z0 = D Z ⇔ ..
.
 z0 = λ z

n n n

donde la derivada de cada zi depende sólo de zi , siendo independiente de las demás. La


solución de estas ecuaciones es inmediata:

z1 (t) = c1 eλ1 t , . . . , zn (t) = cn eλn t

Podemos entonces escribir la solución general para Z como


   
z1 (t) c1 eλ1 t
Z(t) =  ...  =  ..
   
. 
zn (t) cn eλn t

Y dado que Z = S −1 Y ⇒ Y = SZ y la solución general para Y es

Y (t) = SZ(t) = z1 (t)V1 + . . . + zn (t)Vn (2.28)


= c1 eλ1 t V1 + . . . + cn eλn t Vn (2.29)

que coincide con el resultado previo (2.25). Si recordamos el formalismo de cambio de


base, vemos de (2.28) que Z(t) es el vector de coordenadas de la solución Y (t) en la
base de autovectores {V1 , . . . , Vn } de A. La evolución desacoplada se obtiene pues
representando Y (t) en esta base, en la que A pasa a ser diagonal.

– 45 –
Ejemplo: Consideremos nuevamente el sistema (2.26),
 0
x =x−y
y 0 = −x + y
1 1
En este caso λ1 = 2, λ2 = 0 y S = (V1 , V2 ) = (−1 1 ). Entonces S
−1
= (11 −1
1 )/2 y el vector
x
de coordenadas de Y = (y ) en la base de autovectores de A es
      
z1 1 1 −1 x 1 x−y
= =
z2 2 1 1 y 2 x+y
o sea, z1 = (x − y)/, z2 = (x + y)/2. Estas variables satisfacen el sistema desacoplado
 0
z1 = 2z1
z20 = 0
x0 −y 0 x0 +y 0
ya que z10 = 2
= x − y = 2z1 , z20 = 2
= 0. La solución de este sistema es
z1 (t) = c1 e2t , z2 (t) = c2
y entonces, se obtiene el resultado previo
     
x(t) 2t 1 1
= z1 (t)V1 + z2 (t)V2 = c1 e + c2
y(t) −1 1

Ejercicios VI.
1) Determinar la solución general de los siguientes sistemas de primer orden homogéneos.
Dar una expresión real de la solución y escribir la matriz fundamental. Identificar también
las variables en las que el sistema queda desacoplado.
 0  0
x = −2x + y x = −2x + y
a) 0 b)
y = x − 2y y 0 = −x − 2y
 0  0
 x = x − 2y + z  x =y
c) y 0 = −2x − 2z d) y 0 = −y + z
 0  0
z = x − 2y + z z = −y − z
2) Hallar la solución de 1 a) y de 1 b) que satisface x(0) = 1, y(0) = 0, y la solución de 1
c) y de 1 d) que satisface x(0) = 1, y(0) = 0 = z(0) = 1.
Indique también si alguno de los sistemas del ej. 1) tiene soluciones constantes no nulas.

3) Determine la solución general del sistema de segundo orden


 00
x = −y
y 0 = −2x0 − y
planteándolo como un sistema de primer orden.

4) a) Indique para qué valores reales de α puede garantizarse que el sistema


 0
x = −x − αy
y 0 = −αx − y
tiene un punto de equilibrio estable en x = y = 0, tal que si se lo aparta inicialmente
del mismo, retorna a el.
b) Repita el análisis si se cambia la segunda ecuación por y 0 = αx − y.
– 46 –
5) Si A es una matriz arbitraria de n × n (independiente de t), halle la solución de
Y 0 = AY que satisface Y (0) = V , con V autovector de A.

6) Muestre que si Y (t) es solución de Y 0 = AY , con A independiente de t y Y (0) = Y0 ,


a) Y (t − t0 ) es la única solución de dicha equación que satisface Y (t0 ) = Y0 .
b) Y 0 (t) es también solución de dicha ecuación y satisface Y 0 (0) = AY0 .

7) Muestre que los autovalores de la matriz obtenida al representar la ecuación de segundo


orden y 00 + ay 0 + by = 0 como un sistema de primer orden, son las raı́ces de la ecuación
caracterı́stica λ2 + aλ + b = 0.

2.5. Aplicaciones
1. Evolución de la concentración de un soluto.
Considere los tanques A, B, C de volúmenes 10, 20 y 30 litros, inicialmente llenos con
agua salada. Si entra agua pura (sin sal) a razón de 10 lts por hora en el tanque A, saliendo
agua por el orificio inferior de C tal que el volumen de agua en cada uno de los tanques
permanece constante, muestre que la cantidad de sal x, y, z, en A, B y C (asumiendo
distribución uniforme en c/tanque) satisface el sistema lineal (t medido en horas)

 dx/dt = −x
dy/dt = x − y/2 A
dz/dt = y/2 − z/3

B
Encuentre la solución general de este sistema y halle la
solución para concentración inicial uniforme c.
Grafique la concentración en cada tanque. C

2. Partı́cula en un campo magnético. Resolver el problema de una partı́cula de


carga q y masa m en un campo magnético B. La fuerza que se ejerce sobre la partı́cula
es F = qv × B (fuerza de Lorentz).
a) Mostrar que la ecuación de movimiento que determina su velocidad,
mdv/dt = qv × B
constituye un sistema de 3 ecuaciones lineales homogéneas de primer orden. Escribirlo
explı́citamente.
b) Probar que si el campo está dirigido en la dirección z, B = (0, 0, B), entonces el sistema
anterior se reduce a  0
 vx = ωvy
v 0 = −ωvx
 y0
vz = 0
donde ω = qB/m es la denominada frecuencia del ciclotrón.
c) Mostrar que la solución general del sistema anterior es
       
vx (t) 1 1 0
 vy (t)  = c+ eiωt  i  + c− e−iωt  −i  + c3  0 
vz (t) 0 0 1

– 47 –
   
cos(ωt + φ) 0
= A − sin(ωt + φ)
  + c3 0 
 (2.30)
0 1
Interpretar esta solución, mostrándo que corresponde a velocidad constante en la direc-
ción z, y movimiento circular uniforme en el plano x, y, de frecuencia angular ω.

d) Resuelva el sistema para un campo general B = (Bx , By , Bz ). Muestre


p que los au-
tovalores son (y deben ser!) λ = 0 y λ = ±iω, con ω = q|B|/m y |B| = Bx2 + By2 + Bz2 .

3. Importante: Sistemas lineales de segundo orden.


Consideremos el sistema lineal de segundo orden homogéneo asociado a una matriz A de
n × n,
Y 00 = AY (2.31)
donde hemos supuesto que Y 00 no depende explı́citamente de Y 0 . Este caso surge, por
ejemplo, al aplicar la 2a ley de Newton a sistemas descriptos por fuerzas que dependen
linealmente de la posición, tales como masas unidas por resortes y en general sistemas cer-
canos a un punto de equilibrio. El sistema (2.31) es equivalente al sistema de 2n ecuaciones
de primer orden  0
Y =V
V 0 = AY
donde V = Y 0 . Es posible, no obstante, resolver (2.31) en forma directa.
a) Para A independiente de t, proponiendo una solución Y (t) = eαt V y reemplazando
directamente en (2.31), muestre que se obtiene la ecuación
AV = α2 V
y que esto implica que el sistema (2.31) posee soluciones de la forma
√ √
Y + (t) = e λt
V , Y − (t) = e− λt
V
donde λ es un autovalor de A y V un autovector asociado.
b) Si la matriz A es diagonalizable, tal que AVi = λi Vi , i = 1, . . . , n, con {V1 , . . . , Vn }
linealmente independientes, muestre, utilizando la representación diagonal de A, que un
conjunto completo de soluciones de (2.31) es
√ √
Yi+ (t) = e λi t
Vi , Yi− (t) = e− λi t
Vi
si λi 6= 0, y
Yi+ (t) = Vi , Yi− (t) = tVi
si λi = 0, para i = 1, . . . , n. Escriba la solución general.
Pruebe también que estas soluciones proveen 2n soluciones linealmente independientes
del sistema asociado de primer orden.
c) Muestre que si A es real y λi < 0, un par de soluciones reales independientes asociado
a λi es p
Yic (t) = cos(ω i t) Vi , Yis = sen (ω i t) Vi , ω i = −λi > 0
Interprete estas soluciones.

– 48 –
4. Utilizando el método anterior, resuelva el problema de dos masas iguales (m) unidas
cada una a una pared por un resorte de constate k1 y unidas entre sı́ por un resorte de
constante k2 .
a) Muestre que si y1 , y2 denotan las posiciones de las masas a partir de los respectivos
puntos de equilibrio, las ecuaciones de movimiento son
k1 k2 k1
my100 = −k1 y1 + k2 (y2 − y1 )


my200 = k2 (y1 − y2 ) − k1 y2
M M

y constituyen un sistema de dos ecuaciones lineales homogéneas de segundo orden de la


forma Y 00 = AY . Identificar la matriz A.
b) Pruebe que los autovalores de A son

λ1 = −(k1 + 2k2 )/m, λ2 = −k1 /m

ambos negativas, y que por lo tanto, las frecuencias de oscilación del sistema (asumiendo
k1 > 0, k2 > 0, m > 0) son
r r
k1 + 2k2 k1
ω1 = , ω2 =
m m
c) Muestre que la solución general del sistema es
     
y1 (t) + iω 1 t − −iω 1 t 1 + iω 2 t − −iω 2 t 1
= (c1 e + c1 e ) + (c2 e + c2 e )
y2 (t) −1 1
   
1 1
= A1 cos(ω 1 t + φ1 ) + A2 cos(ω 2 t + φ2 ) (2.32)
−1 1

Interprete esta solución y discuta los modos normales de vibración.


d) Determine y grafique la solución que satisface las condiciones iniciales
i) y1 (0) = A, y2 (0) = −A, y10 (0) = y20 (0) = 0
ii) y1 (0) = A, y2 (0) = A, y10 (0) = y20 (0) = 0.

e) Resuelva el caso especial k1 = 0. Discuta e interprete el resultado.

5. Resuelva el problema anterior pero considerando que la segunda masa no está uni-
da a la pared. Determine las frecuencias y los modos normales de vibración.

6. El movimiento de un masa unida a un resorte en un plano está descripto por la ecuación

d2 r
m = −kr
dt2
con r = (x, y), que es nuevamente un sistema lineal homogéneo de segundo orden. Deter-
mine su solución e identifique las trayectorias posibles.

– 49 –
7. Importante: Trayectorias en el plano de fase
Considere el sistema lineal homogéneo de primer orden,
 0
x = ax + by
a, b, c, d ∈ R (2.33)
y 0 = cx + dy

Las soluciones reales x(t), y(t) del sistema pueden visualizarse graficando las “trayecto-
rias” (x(t), y(t)) para t ∈ R, en el plano x, y, denominado plano (o espacio) de fase.
a) Muestre que las trayectorias correspondientes a soluciones distintas no pueden cruzarse
para tiempos t finitos.
dy cx+dy
b) Pruebe que la ecuación que define las trayectorias es dx = ax+by .
x(0)
c) Muestre que si (y(0) ) coincide con un autovector de la matriz asociado a un autovalor
real λ 6= 0, la trayectoria es recta. Indique en qué casos se alejará, y en que casos se
acercará al origen.
d) Considere ahora el caso a = d = α, b = c = β. Muestre que los autovalores de la matriz
son λ± = α ± β y grafique e interprete las trayectorias para:
i) α = 1, β = 1/2, ii) α = −1, β = 1/2, iii) α = −1, β = 2. Identifique los casos en que el
origen (x, y) = (0, 0) es un punto de equilibrio estable y aquellos en que es inestable.
e) Considere ahora el caso a = d = α, c = −b = ω, en el que los autovalores de la matriz
son λ± = α ± iω. Grafique e interprete las trayectorias para:
i) α = −1, ω = 1, ii) α = 1, ω = 1, iii) α = 0, ω = 1. Muestre que en este último caso las
trayectorias son cı́rculos centrados en el origen.
y y y

4 4 4

2 2 2

x x x
-4 -2 2 4 -4 -2 2 4 -4 -2 2 4

-2 -2 -2

-4 -4 -4

1 y
2 y
3 y

4 4 4

2 2 2

x x x
-4 -2 2 4 -4 -2 2 4 -4 -2 2 4

-2 -2 -2

-4 -4 -4

4 5 6
Gráficos de las soluciones del sistema (2.33) para a = d, |α| = |β|. Las flechas indican
el sentido del movimiento. Los gráficos corresponden a: 1) Ambos autovalores reales y
positivos, 2) Ambos reales y negativos, 3) Uno positivo y uno negativo, 4) Complejos con
parte real negativa, 5) Complejos con parte real positiva, 6) Imaginarios.

– 50 –
2.6. El caso no diagonalizable
Tratemos ahora en detalle este caso. Existe al menos un autovalor repetido λ de la
matriz A cuya multiplicidad algebraica m (multiplicidad como raı́z del polinomio ca-
racterı́stico) es mayor que su multiplicidad geométrica l (dimensión del espacio propio
correspondiente).
Los l autovectores linealmente independientes asociados proveen l < m soluciones
linealmente independientes del sistema Y 0 = AY . Para obtener las soluciones restantes,
tenemos el siguiente teorema general:

Si λ es un autovalor de A con multiplicidad algebraica m, existen m vectores linealmente


independientes Vi , i = 1 . . . , m, que verifican

(A − λI)ki Vi = 0, con (A − λI)ki −1 Vi 6= 0 (2.34)

para algún entero positivo no nulo ki ≤ m, siendo I la matriz identidad. Estos m vectores
originan m soluciones linealmente independientes del sistema Y 0 = AY , de la forma

tki −1
Yi (t) = eλt [Vi + t(A − λI)Vi + . . . + (A − λI)ki −1 Vi ] (2.35)
(ki − 1)!

Como la suma de las multiplicidades algebraicas de todos los autovalores (distintos) es n,


se obtienen ası́ n soluciones linealmente independientes del sistema Y 0 = AY .

Si ki = 1, Vi es un autovector de A con autovalor λ, ya que satisface (A − λI)Vi = 0,


con (A − λI)0 Vi = Vi 6= 0, y la solución (2.35) se reduce a Y (t) = eλt Vi .

Si en cambio ki > 1 el vector Vi se denomina autovector generalizado asociado a


λ.

Problema 13: Probar que si se cumple (2.34), entonces (2.35) es solución de Y 0 = AY .

Problema 14: Probar que si se cumple (2.34), (A − λI)ki −1 Vi es autovector de A.

Por lo tanto, para encontrar m soluciones linealmente independientes asociadas a un


autovalor λ de multiplicidad algebraica m y multiplicidad geométrica l < m, un método
es el siguiente: Se encuentran primero l autovectores linealmente independientes Vi
((A − λI)Vi = 0, Vi 6= 0), que generan las l soluciones Yi (t) = eλt Vi , i = 1, . . . , l.
Para hallar las m − l restantes, encontramos luego todos los vectores V que satisfacen

(A − λI)2 V = 0 con (A − λI)V 6= 0

y que formen, junto con los l autovectores previos, un conjunto linealmente indepen-
diente. Cada uno de estos nuevos vectores (que a lo sumo serán l) genera una solución
adicional de la forma
Y (t) = eλt [V + t(A − λI)V ]

– 51 –
Estas nuevas soluciones formarán, junto con las anteriores, un conjunto ampliado de so-
luciones linealmente independientes.
Si aún no se tienen m soluciones linealmente independientes, se determinan todos los
vectores V linealmente independientes que satisfacen

(A − λI)3 V = 0 con (A − λI)2 V 6= 0

y que formen, junto con todos los anteriores, un conjunto linealmente independiente. Cada
uno de estos nuevos vectores (a lo sumo habrá l) aportará una solución adicional

t2
Y (t) = eλt [V + t(A − λI)V + (A − λI)2 V ]
2!
generándose ası́ un nuevo conjunto ampliado de soluciones linalmente independientes.
Este proceso se continúa hasta obtener m soluciones linealmente independientes.

Por ejemplo, si λ es un autovalor de multiplicidad algebraica m = 2 y multiplicidad


geométrica l = 1, dos soluciones linealmente independientes son

Y1 (t) = eλt V1 (2.36)


Y2 (t) = eλt [V2 + t(A − λI)V2 ] (2.37)

con V1 autovector asociado a λ y V2 un vector que satisface

(A − λI)2 V2 = 0, (A − λI)V2 6= 0

Si determinamos primero V2 , podemos directamente elegir

V1 = (A − λI)V2 (2.38)

ya que cumple V1 6= 0 y (A − λI)V1 = (A − λI)2 V2 = 0.


Y si determinamos primero el autovector V1 , podemos elegir V2 como cualquier vector
que satisface (2.38), ya que en tal caso (A − λI)2 V2 = (A − λI)V1 = 0.

Problema 15: Mostrar que proponiendo una solución de la forma

Y (t) = eλt (V + tW )

con V , W constantes, reemplazando en Y 0 = AY se obtiene el sistema



AW = λW ,
(A − λI)V = W

que indica precisamente que W debe ser autovector de A con autovalor λ y V un vector
que satisface (A − λI)V = W (y por lo tanto (A − λI)2 V = 0).

– 52 –
Y en general, si λ es un autovalor de multiplicidad algebraica m > 1 y multiplicidad
geométrica l = 1, las m soluciones linealmente independientes son

Y1 (t) = eλt V1 (2.39)


Y2 (t) = eλt [V2 + t(A − λI)V2 ] (2.40)
t2
Y3 (t) = e [V3 + t(A − λI)V3 + (A − λI)2 V3 ]
λt
(2.41)
2!
..
.
tm−1
Ym (t) = eλt [Vm + t(A − λI)Vm + . . . + (A − λI)m−1 Vm ] (2.42)
(m − 1)!

donde Vk , k = 1, . . . , m, satisface

(A − λI)k Vk = 0, (A − λI)k−1 Vk 6= 0 (2.43)

Si determinamos primero Vm , tal que (A − λI)m Vm = 0, con (A − λI)m−1 Vm 6= 0,


podemos en este caso obtener todos los vectores restantes directamente como

Vk = (A − λI)m−k Vm , k = 1, . . . , m − 1 (2.44)

ya que (A − λI)k Vk = (A − λI)m Vm = 0 y (A − λI)k−1 Vk = (A − λI)m−1 Vm 6= 0.

Ejemplo. Consideremos el sistema


 0
x = x + by
(2.45)
y0 = y

que puede escribirse en forma matricial como


 0     
x x 1 b
0 =A , A=
y y 0 1

La ecuación caracterı́stica es det (A − λI) = (λ − 1)2 = 0, que conduce al único autovalor


λ = 1, con multiplicidad algebraica 2.
Si b 6= 0, la matriz A no es diagonalizable, pues el rango de
 
0 b
A − λI =
0 0

es 1 y por lo tanto la nulidad es 1. Esto indica que existirá un sólo autovector linealmente
independiente, V1 ∝ (10 ). Eligiendo V1 = (10 ), se obtiene la solución
 
t 1
Y1 (t) = e
0

Buscamos ahora un vector V2 linealmente independiente de V1 tal que

(A − λI)2 V2 = 0, (A − λI)V2 6= 0.

– 53 –
Como en este caso (A − λI)2 = (00 00 ), basta con encontrar un vector V2 linealmente
independiente de V1 , por ejemplo V2 = (01 ), que satisface, dado que b 6= 0,
    
0 b 0 b
(A − λI)V2 = = 6= 0
0 0 1 0

Obtenemos ası́ la solución linealmente independiente de Y1 (t),


     
t 0 b at bt
Y2 (t) = e +t =e
1 0 1

La solución general es entonces


   
t 1 t bt
Y (t) = c1 Y1 (t) + c2 Y2 (t) = c1 e + c2 e
0 1

es decir, x(t) = et (c1 + btc2 ), y(t) = c2 et .


Una matriz fundamental de soluciones es entonces
 t 
e btet
M (t) =
0 et

que satisface M (0) = I, Det[M (t)] = e2t 6= 0 ∀ t.


En este ejemplo, esta solución puede obtenerse directamente resolviendo primero la
ecuación y 0 = y, que está desacoplada, y luego la ecuación x0 = x + y, reemplazando en
y la solución previa. No es posible aquı́ encontrar combinaciones lineales de x e y en las
que el sistema resulte totalmente desacoplado.

ab
Observación: Si b 6= 0, la matriz
√ A = (ε a ) es diagonalizable ∀ ε 6= 0, ya que tendrá
dos autovalores distintos λ± = a ± bε.
El caso no diagonalizable ocurre únicamente cuando ε = 0. Los autovalores serán
ambos reales si bε ≥ 0, y complejos si bε < 0. Por lo tanto, el caso no diagonalizable
corresponde al punto “crı́tico” ε = 0, en el que se produce la transición de autovalores
reales (bε > 0) a autovalores complejos (bε < 0), es decir, de soluciones Y (t) de tipo
exponencial a soluciones de tipo oscilatorio.

– 54 –
Ejercicios VII
1) Mostrar que la solución general del sistema
 0
x = −x − y
y 0 = x − 3y
es        
x(t) −2t 1 −2t 1 2
= c1 e + c2 e +t
y(t) 1 −1 2
es decir, x(t) = c1 e−2t + c2 e−2t (1 + 2t), y(t) = c1 e−2t + c2 e−2t (−1 + 2t).

2) Mostrar que la solución general del sistema


 0
 x =y+z
y0 = y − z
 0
z =y−z
es
             
x(t) 1 0 2 0 0 2 4
 y(t)  = c1  0  +c2  1  + t  0  +c3  1  + t  2  + t  0 
2
z(t) 0 1 0 −1 2 0

o sea, x(t) = c1 + 2c2 t + 2c3 t2 , y(t) = c2 + c3 (1 + 2t), z(t) = c2 + c3 (−1 + 2t).

3) Mostrar que la posición y y velocidad v de un móvil en ausencia de fuerzas satis-


facen un sistema de ecuaciones diferenciales de primer orden homogéneo asociado a una
matriz no diagonalizable. Determine su solución.

4) Hallar la solución del sistema


x0 = 3x − 4y


y0 = x − y
que satisface x(0) = 1, y(0) = 1.

5) Mostrar que si la ecuación de segundo orden con coeficientes constantes y 00 +ay 0 +by = 0
tiene raı́ces iguales (a2 = 4b) el sistema lineal de primer orden asociado
 0
z1 = z2
z20 = −bz1 − az2
donde z1 = y, z2 = y 0 , corresponde necesariamente a una matriz no diagonalizable.

6) Encontrar la solución general del sistema


 0
 x = 3x − 4z
y0 = x + y
 0
z =x−z

– 55 –
2.7. Matriz fundamental
Tanto para el caso (a) (A diagonalizable) como para el caso (b) (A no diagonalizable),
la matriz ∞
X Ak tk
exp[At] =
k=0
k!
es una matriz fundamental del sistema Y 0 = AY con A independiente de t, y es la matriz
fundamental que satisface M (0) = I, con I la matriz identidad.

Esto puede demostrarse directamente a partir de la serie, notando que


∞ ∞ ∞
0
X kAk tk−1 X Ak−1 tk−1 X Ak tk
exp[At] = =A =A = A exp[At]
k=1
k! k=1
(k − 1)! k=0
k!
donde hemos tenido en cuenta que A0 t0 /0! = I (matriz identidad).
Por lo tanto, cada columna Yi (t) de exp[At] satisface también Yi0 (t) = AYi (t), siendo
entonces solución del sistema homogéneo. Además, si t = 0, el primer término de la serie
es el único término no nulo y por lo tanto
 
1 0 ... 0
 0 1 ... 0 
exp[A(0)] = I =  
 ... 
0 0 ... 1
lo que implica que las n columnas Yi (t) son linealmente independientes, pues los n vectores
Yi (0) son linealmente independientes, formando la base canónica de Rn : Yi (0) = ei .
Esto demuestra que exp[At] es una matriz fundamental del sistema en todos los casos,
y es la única que satisface M (0) = I. Resumiendo,
exp[At] = (Y1 (t), . . . , Yn (t))
donde la columna Yi (t), i = 1, . . . , n, es la solución del sistema que satisface Yi (0) = ei .
La solución general del sistema Y 0 = AY puede entonces expresarse como
Y (t) = c1 Y1 (t) + . . . + cn Yn (t) = exp[At]C
donde C = Y (0) es directamente el valor inicial (en t = 0). Esta expresión de la solución
es análoga a la solución general del caso elemental de primer orden y 0 = ay, con a cons-
tante, que es y(t) = eat c, con c = y(0).

En el caso diagonalizable, A = SDS −1 , con D diagonal y S = (V1 , . . . , Vn ) una matriz


de autovectores linealmente independientes. Por lo tanto, Ak = SD k S −1 y entonces
exp[At] = exp[S(Dt)S −1 ] = S exp[Dt]S −1
Y como D es diagonal,
   
λ1 0 . . . 0 eλ1 t 0 ... 0
 0 λ2 . . . ∞ λ2 t
0   0 e
X D k tk  ... 0 
D=  ⇒ exp[Dt] = =
  
 ...  k!  ... 

k=0
0 0 . . . λn 0 0 . . . eλn t

– 56 –
por lo que exp[At] puede evaluarse directamente. En el caso no diagonalizable, la evalua-
ción se realiza mediante la denominada forma canónica de Jordan de la misma, que es la
representación en la base de autovectores generalizados.

Es importante destacar que al tomar la exponencial como matriz fundamental, resulta


muy fácil evaluar la matriz inversa M −1 (t):
(exp[At])−1 = exp[−At]
ya que exp[At] exp[−At] = exp[A(t − t)] = exp[0] = I.

Observación: En general exp[A] exp[B] 6= exp[A] exp[B] para matrices. La igualdad


vale cuando AB = BA, como en el caso previo (B = −A), pero no en el caso general.

Problema 16: Considere el sistema (2.22), en el que


1 −1 2 0 1 1
A = (−1 1 ), D = (0 0 ), S = (−1 1 )

Pruebe que
 
−1 2t 1 + e2t 1 − e2t
exp[At] = S exp[Dt]S = S(e0 10 )S −1
= 1
1 − e2t 1 + e2t
2

   
1 1 + e2t 1 1 − e2t
Por lo tanto, las columnas Y1 (t) = 2 , Y2 (t) = 2 , son soluciones
1 − e2t 1 + e2t
linealmente independientes del sistema, que satisfacen Y1 (0) = (10 ), Y2 (0) = (01 ).

Problema 17. Consideremos ahora el caso no diagonalizable (2.45), en el que


       
1 b 1 0 0 b 0 b
A= = + =I+
0 1 0 1 0 0 0 0
Si bien en general exp[B + C] 6= exp[B] exp[C], si B = I tenemos IC = CI ∀ C y por
lo tanto exp[(I + B)t] = exp[It] exp[Bt] = et exp[Bt].
Utilizando el resultado anterior, probar que en este caso
     
0 b t 0 b t 1 bt
exp[At] = exp[(I + )t] = e exp[ t] = e
0 0 0 0 0 1

ya que (00 0b )2 = (00 00 ) y entonces (00 0b )k 


= (00 00) ∀ k ≥ 2.  
t 1 t bt
Por lo tanto, las columnas Y1 (t) = e , Y2 (t) = e son soluciones linealmente
0 1
independientes del sistema Y 0 = AY que satisfacen Y1 (0) = (10 ), Y2 (0) = (01 ).

Problema 18. Si A es de 2×2 y no diagonalizable, puede mostrarse que (A−λI)2 = 0.


A partir de este resultado, muestre que si A es no diagonalizable,
exp[At] = eλt [I + (A − λI)t]
donde λ es el único autovalor de A.

– 57 –
2.8. Sistema lineal no homogéneo general de primer orden
Consideremos ahora el sistema no homogéneo
Y 0 = A(t)Y + F (t) (2.46)
que podemos escribir como L[Y ] = F (t), con L[Y ] = Y 0 − A(t)Y .
Al igual que en el caso de la ecuación lineal de orden n, es válido el siguiente teorema:

Teorema 2. La solución general de (2.46) está dada por la suma de la solución general
Yh (t) del sistema homogéneo más una solución particular Yp (t) del sistema no homogéneo:

Y (t) = Yh (t) + Yp (t) (2.47)

donde Yh (t) = c1 Y1 (t) + . . . cn Yn (t) es la solución general (2.16) (satisface Yh0 = A(t)Yh )
mientras que Yp (t) satisface Yp0 = A(t)Yp0 + F (t).

Demostración: Es similar a la realizada para la ecuación no homogénea de orden n. Si


Yp (t) es una solución de (2.46), Yh (t) + Yp (t) es también solución pues
(Yh + Yp )0 = Yh0 + Yp0 = A(t)Yh + A(t)Yp + F (t) = A(t)(Yh + Yp ) + F (t)
Y si Y (t) es otra solución de (2.46), entonces
(Y − Yp )0 = Y 0 − Yp0 = A(t)Y + F (t) − [A(t)Yp + F (t)] = A(t)(Y − Yp )
por lo que Y − Yp es solución del sistema homogéneo y entonces Y (t) = Yh (t) + Yp (t).
Si se conoce la solución general del sistema homogéneo, es siempre posible obtener
Yp (t) por integración!

Teorema 3. Si M (t) es la matriz fundamental (2.20) del sistema homogéneo, una solución
particular de (2.46) es Z
Yp (t) = M (t) M −1 (t)F (t)dt (2.48)

Demostración: Proponiendo una solución de la forma


 
v1 (t)
Yp (t) = M (t)V (t), V (t) =  ... 
 
vn (t)

obtenemos, dado que M 0 = A(t)M (ecuación (2.21)),


Yp0 − A(t)Yp = M 0 V + M V 0 − A(t)M V = M V 0 = F (t)
Como M (t) es no singular, V 0 = M −1 (t)F (t) y entonces
Z
V (t) = M −1 (t)F (t) dt

– 58 –
que conduce a la solución (2.48). La solución general (2.47) puede pues escribirse como
Z
Y (t) = M (t)C + M (t) M −1 (t)F (t)dt (2.49)

Nótese la semejanza con la solución (1.66) de la ecuación lineal de primer orden.


Problema 3: Escribir (2.49) para el caso n = 1 y verificar que se reduce a (1.66).

Problema 4: Mostrar que la solución particular de (2.46) que satisface Y (t0 ) = Y0


es  Z t 
−1 −1 0 0 0
Y (t) = M (t) M (t0 )Y0 + M (t )F (t )dt
t0

4. Superposición: Si Yp1 (t) e Yp2 (t) son soluciones de (2.46) para F1 (t) y F2 (t), una
solución particular para la combinación lineal F (t) = c1 F1 (t) + c2 F2 (t) es la combinación
lineal de soluciones Yp (t) = c1 Yp1 (t) + c2 Yp2 (t):
 0
Yp1 = A(t)Yp1 + F1 (t)
⇒ (c1 Yp1 + c2 Yp2 )0 = A(t)(c1 Yp1 + c2 Yp2 ) + c1 F1 (t) + c2 F2 (t)
Yp20 = A(t)Yp2 + F2 (t)

Este resultado, similar al de la ecuación no homogénea de orden n, es consecuencia


inmediata de la linealidad del sistema y su demostración se deja como ejercicio.
También se ve directamente de la expresión (2.48) (probar!).
Implica nuevamente que si podemos descomponer F (t) en términos simples, podemos
hallar una solución particular encontrando soluciones para cada uno de los términos.
Y si F (t) → αF (t) ⇒ Yp (t) → αYp (t)

Ejemplo: Hallar la solución general del sistema lineal de primer orden


 0
x = x − y + f (t)
(2.50)
y 0 = −x + y + g(t)

En forma matricial, corresponde al sistema


 0      
x 1 −1 x f (t)
= +
y0 −1 1 y g(t)
   
0 1 −1 f (t)
es decir, Y = AY + F (t), con A = , F (t) = .
−1 1 g(t)  
e2t 1
Una matriz fundamental del sistema homogéneo es (ver ejemplo previo) M (t) = .
−e2t 1
Por lo tanto,
e−2t −e−2t
 
−1 1
M (t) =
2 1 1

– 59 –
Aplicando (2.48), obtenemos
Z  −2t
−e−2t
   R −2t 
1 e f (t) 1 eR (f (t) − g(t))dt
Yp (t) = M (t) dt = M (t)
2 1 1 g(t) 2 (f (t) + g(t))dt
(2.51)
Definiendo las funciones
Z Z
1 2t −2t 1
v(t) = e e (f (t) − g(t))dt, w(t) = (f (t) + g(t))dt
2 2
la solución general es entonces
 2t     
e 1 v(t) + w(t)
Y (t) = c1 + c2 + (2.52)
−e2t 1 −v(t) + w(t)
Problema 5: Mostrar que a solución general de (2.50) para f (t) = 0, g(t) = 1 es
x(t) = c1 e2t + c2 + 1/4 + t/2
y(t) = −c1 e2t + c2 − 1/4 + t/2
Determinar también la única solución que cumple x(0) = 0, y(0) = 0.

Ecuaciones lineales de orden n como sistema lineal de primer orden:


Las ecuaciones diferenciales lineales de orden n pueden escribirse como un sistema
lineal de n ecuaciones de primer orden n (probar!, en base a lo ya visto para ecuaciones
generales de orden n). Todos los resultados de la primer parte para ecuaciones lineales
de orden n pueden entonces también obtenerse a partir de los resultados generales para
sistemas lineales de primer orden.

Problema 6:
a) Mostrar que la ecuación lineal de segundo orden no homogénea

y 00 + p(t)y 0 + q(t)y = f (t) (2.53)

puede expresarse, definiendo v = y 0 , como el sistema lineal de primer orden no homogéneo


 0      
y 0 1 y 0
= + (2.54)
v0 −q(t) −p(t) v f (t)

b) Justificar que el teorema 2.1 asegura que existen dos soluciones linealmente indepen-
dientes y1 (t), y2 (t), de (2.53).
c) Mostrar que el determinante de la matriz fundamental M (t) de soluciones del sistema
y1 y2
homogéneo asociado a (2.54), es el Wronskiano: det M (t) = W (t) = 0 .
y1 y20
d) Mostrar que la solución particular (2.48) para el sistema (2.54) implica la solución
particular Z Z
y2 (t) y1 (t)
yp (t) = −y1 (t) f (t)dt + y2 (t) f (t)dt
W (t) W (t)
de (2.53).

– 60 –
2.9. Sistema lineal no homogéneo con coeficientes constantes.
Método general y representación diagonal.
Consideremos ahora el caso no homogéneo de primer orden con A independiente de t,
Y 0 = AY + F (t) (2.55)
Si conocemos una matriz fundamental M (t), podemos aplicar directamente el resultado
general (2.48) para determinar la solución particular Yp (t):
Z
Yp (t) = M (t) M −1 (t)F (t)dt (2.56)

Si utilizamos M (t) = exp[At], M −1 (t) = exp[−At] y entonces


Z
Yp (t) = exp[At] exp[−At]F (t)dt (2.57)

La solución general de (2.55) puede ası́ escribirse como


Z
Y (t) = exp[At] C + exp[At] exp[−At]F (t)dt (2.58)

que es completamente análoga! a la solución general y(t) = eat c + eat e−at f (t)dt de la
R

ecuación de primer orden y 0 = ay + f (t): Se reemplaza el número a por la matriz A.

Representación diagonal del sistema no homogéneo. Si A es diagonalizable, tal


que S −1 AS = D, con S = (V1 , . . . , Vn ) la matriz de autovectores y D la matriz diagonal
de autovalores, podemos entender mejor la solución (2.58) pasando a la representación
diagonal de (2.55). Multiplicando a izquierda por S −1 (véase sección 2.5), se obtiene
Z 0 = DZ + G(t) (2.59)
donde Z = S −1 Y es el vector de coordenadas de Y en la base de autovectores y
 
g1 (t)
G(t) = S −1 F (t) =  ...
 

gn (t)
el vector de coordenadas de F (t) en la misma base de autovectores, tal que
F (t) = g1 (t)V1 + . . . + gn (t)Vn
Como D es diagonal, (2.59) implica n ecuaciones no homogéneas de primer orden
desacopladas:
zi0 = λi zi + gi (t), i = 1, . . . , n
La solución particular de esta ecuación es
Z
λi t
zip (t) = e e−λi t gi (t)dt (2.60)

y por lo tanto, la solución particular del sistema es


Yp = SZp (t) = z1p (t)V1 + . . . + znp (t)Vn (2.61)
Problema 19: Mostrar que en el caso diagonalizable, (2.57) conduce a la expresión (2.61)
con los coeficientes (2.60). Utilizar exp[At] = S exp[Dt]S −1 .

– 61 –
Ejemplo: Resolver el sistema
 0       
x x 1 −1 f (t)
=A + F (t) , con A = , F (t) =
y0 y −1 1 g(t)

Este sistema ya fue resuelto en 2.8 mediante la aplicación de la ecuación (2.56). Para
1
aplicar el método (2.61), en la base de autovectores de A formada por V1 = (−1 ), V2 = (11 ),
g1 (t) f (t) f (t)−g(t)
con λ1 = 2, λ2 = 0, tenemos (g2 (t) ) = S −1 (g(t ) = 12 (f (t)+g(t) ) y por lo tanto
   
f (t) − g(t) 1 f (t) + g(t) 1
F (t) = g1 (t)V1 + g2 (t)V2 = + ,
2 −1 2 1

Las coordenadas z1 (t), z2 (t) de la solución en la base de autovectores satisfacen entonces


las ecuaciones desacopladas z10 = λ1 z1 + g1 (t), z20 = λ2 z2 + g2 (t), o sea,
(
z10 = 2z1 + f (t)−g(t)
2
,
0 f (t)+g(t)
z2 = 2

cuyas soluciones generales son

z1 (t) = c1 e2t + e2t e−2t [ f (1)−g(t)


R
2
]dt = c1 e2t + v(t) (2.62)
z2 (t) = c2 + f (t)+g(t)
R
2
dt = c2 + w(t) (2.63)

donde v(t) y w(t) son las funciones definidas en (2.28). La solución general es entonces
     2t     
1 1 e 1 v(t) + w(t)
Y (t) = z1 (t) + z2 (t) = c1 + c2 +
−1 1 −e2t 1 −v(t) + w(t)

que coincide con la expresión (2.52).

2.10. Método de coeficientes indeterminados


Al igual que en el caso de la ecuación de orden n, si F (t) es exponencial, seno, coseno,
polinomio o producto de estas funciones y la matriz A es independiente de t, es posible
proponer una solución particular del mismo tipo que F (t). La razón es que nuevamente, L
aplicado a tal función (L[Y ] = Y 0 − AY ) será una función del mismo tipo, si se cumplen
ciertas condiciones. No obstante, la propuesta involucra ahora vectores de coeficientes a
ser determinados. Damos a continuación una tabla de propuestas, similar a la de 1.13.

F (t) Yp (t) Condición


αt
Fe V eαt α no es autovalor de A
m
F0 + F1 t + . . . + Fm t V0 + V1 t + . . . + Vm tm A no singular
eαt (F0 + F1 t + . . . + Fm tm ) eαt (V0 + V1 t + . . . + Vm tm ) α no es autovalor de A
F cos ωt o F sen ωt V1 cos ωt + V2 sen ωt iω no es autovalor de A
iωt
Fe V eiωt iω no es autovalor de A
(α+iω)t
Fe V e(α+iω)t α + iω no es autovalor de A

– 62 –
donde V , V1 , V2 , etc. son vectores con coeficientes a determinar e independientes de t.
Si no se cumple la condición se debe multiplicar la propuesta por un polinomio en t (con
coeficientes vectores). Nuevamente es más efectivo trabajar en forma compleja cuando
F (t) es seno o coseno. La propuesta debe ser completa, aún cuando F tenga componentes
no nulas sólo en ciertas filas.

Caso Exponencial. Resolver


Y 0 = AY + eαt F , (2.64)
con F un vector independiente de t y α un número real o complejo, que no sea autovalor
de A. Proponemos entonces una solución particular de la forma

Yp (t) = eαt V

con V un vector independiente de t. Tenemos Yp0 = αeαt V y reemplazando en (2.64), se


obtiene
αeαt V = Aeαt V + F eαt
Por lo tanto, debemos resolver el sistema αV = AV + F , es decir,

(αI − A)V = F

que es un sistema lineal no homogéneo para el vector V . El sistema tendrá solución única
∀ F sii αI − A es no singular, es decir, si α no es autovalor de A (Det (A − αI) 6= 0),
lo que justifica la condición requerida. En tal caso,

V = (αI − A)−1 F

Si en cambio α coincide con un autovalor de A, el sistema anterior puede no tener


solución, por ser la matriz A − αI singular. En tal caso se puede proponer una solución
de la forma
Yp (t) = eαt (V1 + tV2 )
con V1 y V2 vectores constantes a determinar. Reemplazando en (2.55) se obtiene el
sistema
(αI − A)V2 = 0, (αI − A)V1 = F − V2 ,
que muestra que V2 debe ser un autovector de A con autovalor α, tal que la segunda
ecuación sea compatible. Si no existe tal vector, se debe agregar un tercer término V3 t2
en Yp , aunque en estos casos resulta ya más conveniente utilizar el método general (2.57)
o (2.60)-(2.61).

Ejemplo. Consideremos
x0 = x − y + eαt


y 0 = −x + y
   
1 −1 1
que corresponde a A = , F = . Proponemos una solución particular
−1 1 0

– 63 –
de la forma  
αt v1
Yp (t) = e V , con V =
v2
Reemplazando, obtenemos el sistema (αI − A)V = F , es decir,
    
α−1 1 v1 1
=
1 α−1 v2 0

Los autovalores de A son 2 y 0. Si α 6= 2 o α 6= 0 la matriz anterior es no singular y tiene


la solución única
V = (αI − A)−1 F , (α 6= 2, α 6= 0)
o sea,    
v1 1 α−1
=
v2 α(α − 2) −1
La solución particular es entonces

eαt
 
α−1
Yp (t) = (α 6= 2, α 6= 0)
α(α − 2) 1

que coincide con el resultado obtenido de (2.63)–(2.62) (probar!).

Caso Polinomial. Resolver

Y 0 = AY + F0 + F1 t + F2 t2 , (2.65)

con F0 , F1 , F2 vectores independientes de t y A no singular.


Proponemos una solución particular de la forma

Yp (t) = V0 + V1 t + V2 t2

con Vi vectores independientes de t. Tenemos Yp0 = V1 + 2tV2 y reemplazando en (2.64),


se obtiene
V1 + 2tV2 = A(V0 + tV1 + t2 V2 ) + F0 + F1 t + F2 t2
Igualando los términos de igual grado en t de los dos miembros, obtenemos el sistema

 AV0 = V1 − F0
AV1 = 2V2 − F1
AV2 = −F2

Si A es no singular, comenzando con la última ecuación se obtiene el resultado

V2 = −A−1 F2 , V1 = A−1 (2V2 − F1 ), V0 = A−1 (V1 − F0 )

Si en cambio A es singular, se debe proponer un polinomio de grado 3 o más alto.

– 64 –
x0 = −x + y + t

Ejemplo. Consideremos
 y 0 =−x − y +1   
−1 1 0 1
que corresponde a A = , F = +t .
−1 −1 1 0
Proponemos una solución particular
   
a0 a1
Yp (t) = V0 + tV1 = +t
b0 b1
Reemplazando, obtenemos
V1 = A(V0 + tV1 ) + (01 ) + t(10 )
que conduce al sistema 
AV0 = V1 − (01 )
AV1 = −(10 )
Como A es no singular, A−1 = 21 (−1−1
1−1 ) y
       
−1 −1 1/2 −1 0 1/2
V1 = A = , V0 = A (V1 − )=
0 −1/2 1 1
La solución general del sistema es entonces (probar!)
       
x(t) −t cos t −t sen t (1 + t)/2
= c1 e + c2 e +
y(t) −sen t cos t 1 − t/2

Caso Periódico. Consideremos ahora una fuente de frecuencia angular ω, tal que

Y 0 = AY + F eiωt

con A y F independientes de t. Supongamos que iω no es autovalor de A. Proponiendo

Yp (t) = V eiωt

se obtiene iωV eωt = AV eωt + F eωt y por lo tanto

(iωI − A)V = F

Dado que iωI − A es no singular, podemos determinar V como

V = (iωI − A)−1 F

Si A y F son reales, podemos ası́ obtener una solución particular real de

Y 0 = AY + F cos ωt

como
Ypr (t) = Re[(iωI − A)−1 F eiωt ]
Las componentes de esta solución oscilan con la frecuencia de la fuente F (t) con una
amplitud que depende de la frecuencia, y pueden presentar un desfasaje respecto de F (t).
– 65 –
Si en cambio iω es autovalor (resonancia!) entonces debemos proponer una solución
Yp (t) = eiωt (V1 + tV2 ).

Ejemplo. Resolver
x0 = y + eiωt

ω 2 6= 1
y 0 = −x
01 iωt
que corresponde a A = (−1 0 ), F (t) = F e , con F = (10 ). Proponiendo una solución
particular Yp (t) = V eiωt obtenemos, siguiendo el método anterior (probar!)
 
−1 1 −iω
V = (iωI − A) F = 2
ω −1 1

Por lo tanto,  
1 −iω
Yp (t) = 2 eiωt
ω −1 1
es una solución particular del sistema anterior, y la parte real
 
r 1 ω sin ωt
Yp (t) = Re[Yp (t)] = 2
ω −1 cos ωt

una solución particular del sistema

x0 = y + cos ωt


y 0 = −x

Problema 20: a) Determinar la solución general de este sistema para ω 6= 1.


b) Determine una solución particular en el caso resonante ω = 1.
Nota: Este sistema puede también resolverse como una ecuación de 2o orden (probar!).

Ejercicios VIII

1) Muestre que las soluciones generales de los siguientes sistemas,


 0  0
x = −x + 2y + 1 x = 6x + y − 6t
a) 0 b)
y = −x + y + 2 y 0 = 4x + 3y − 3 − 4t
 0
x = −x + 2y + e−t
 0
x = 5x + 3y − 9e−t
c) 0 d)
y = −x + y + 2 y 0 = −x + y − e−t
son:
a) x(t) = c1 (cos t + sin t) + c2 (sin t − cos t) + 3, y(t) = c1 cos t + c2 sin t + 1
b) x(t) = c1 e2t + c2 e7t + t, y(t) = −4c1 e2t + c2 e7t + 1
c) x(t) = c1 (cos t + sin t) + c2 (sin t − cos t) + 4 − e−t , y(t) = c1 cos t + c2 sin t + 2 − e−t /2.
d) x(t) = c1 e2t + 3c2 e4t + e−t , y(t) = −c1 e2t − c2 e4t + e−t .

2) Halle la solución de los sistemas anteriores que satisface x(0) = y(0) = 0.

– 66 –
3) Determine la solución general de los sistemas
 0  0
 0  x = −2x + z  x = −x + y
x = 2y + A sen ωt
a) b) y 0 = −x + z c) y 0 = −x − y + t
y 0 = −2x  0
z = x − 2z + e−2t
 0
z = x − z + e−2t

Dé una expresión real en todos los casos. En a) considere los casos ω 6= ±2 y ω = 2.

4) Halle la solución general de los sistemas


 0  0
x = 2y + f (t) x = −2x + y
a) 0 b)
y = −2x y 0 = x − 2y + f (t)

2.11. Aplicaciones
5) Resolver el problema de una partı́cula de carga q en un campo magnético B constante
y campo eléctrico E. La fuerza es q(v × B + E) y la ecuación

mdv/dt = q(v × B + E)

que es un sistema de 1er orden no homogéneo. Considerar que B está en la dirección z y


a) E es constante y en la dirección z.
b) E es constante y en la dirección x.
c) E(t) = E cos ω e t, con E en la dirección x. ¿Existe resonancia para algún valor de ω e ?
Grafique e interprete las soluciones.

6) Determinar las corrientes i1 (t), i2 (t) i3 (t) en el circuito de la figura. Plantear el sistema
de ecuaciones lineales de primer orden correspondiente y resolverlo para a) un fem cons-
tante ε0 y b) una fem alterna ε = V0 cos ωt, para condición inicial i1 (0) = i2 (0) = i3 (0) = 0.
Grafique las soluciones. Muestre que el sistema es

ε = Ldi1 /dt + R(i1 − i3 )
0 = Ldi3 /dt + 2R i3 − R i1 L R

R
con i1 = i2 + i3 . ¶ L

i1 i2 i3

7) Resolver el problema de dos masas acopladas


sujetas a una fuerza externa F (t) aplicada k1 k2 FHtL
sobre la segunda masa. Considerar los casos:
a) F (t) = F (constante) m m
b) F (t) = F cos ω ex t.
Determine en b) las frecuencias resonantes.
El sistema homogéneo ya fue estudiado en la sección 2.6.

– 67 –
Facultad de Ingenierı́a
UNLP

Matemática C

X Series de Fourier
y
Ecuaciones Diferenciales en Derivadas Parciales

2020
2019

–1–
Temario por clase:
Clase 1: Funciones periódicas. Funciones ortogonales. Series de Fourier.

Clase 2: Ecuaciones diferenciales en derivadas parciales. Ecuación de difusión. Ecuación


de ondas. Ecuación de Laplace. Resolución por separación de variables y serie de
Fourier.

Clase 3: Ejercicios y Aplicaciones. Discusión.

Bibliografı́a:
1. R. Churchill, Series de Fourier y Problemas de Contorno, McGraw-Hill

2. S. Salvioli, Ecuaciones Diferenciales (CEILP).

3. C.H. Edwards, D.E. Penney, Ecuaciones Diferenciales Elementales y Problemas con


Condiciones en la Frontera, Prentice-Hall Hispanoamericana.

4. D.G. Zill, Ecuaciones Diferenciales con aplicaciones, Editorial Iberoamérica.

5. Ecuaciones Diferenciales en Fı́sica, C.M. Naón, M. Santangelo, R. Rossignoli, EDULP


(2014).

–2–
I. Series de Fourier

1. Introducción
Las series de Fourier cumplen un rol fundamental en el análisis de funciones periódicas.
Permiten escribir estas funciones como una serie de funciones sinusoidales (senos y cose-
nos), y ası́ obtener una descripción precisa de las mismas por medio de los coeficientes de la
serie. Constituyen, por lo tanto, una herramienta fundamental no solo en Matemática, sino
también en diversas áreas de la Ingenierı́a, Fı́sica, Astronomı́a y otras Ciencias, tales como
análisis y generación de señales, telecomunicaciones, ingenierı́a eléctrica, acústica, óptica,
procesamiento de imágenes, compresión de datos, mecánica cuántica, etc. Por ejemplo,
permite comprender en forma inmediata el origen de la diferencia entre un “La” de fre-
cuencia 440 Hz emtido por un piano y un “La” de la misma frecuencia emitido por otro
instrumento, a través los distintos coeficientes de la serie correspondiente (distribución de
armónicos).
Como veremos en la sección siguiente, las series de Fourier juegan también un rol esen-
cial en la resolución de ecuaciones diferenciales en derivadas parciales, de importancia en
Ingenierı́a, Fı́sica y Matemática, y surgieron de hecho en relación con estas ecuaciones.
El nombre proviene del matemático y fı́sico francés Jean-Baptiste Joseph Fourier (1768-
1830), quien desarrolló la teorı́a con el objeto de resolver la ecuación del calor, una ecuación
diferencial en derivadas parciales. Otros matemáticos y fı́sico-matemáticos que contribu-
yeron (antes y después) al desarrollo de la teorı́a incluyen a Leonhard Euler (1707-1783),
D’Alembert, Daniel Bernoulli, Gauss, Dirichlet y Riemann. Y la idea de descomponer os-
cilaciones complejas en oscilaciones simples es aun más antigua, existiendo antecedentes
incluso en el sigo 3 a.C.
Por otro lado, el desarrollo de la teorı́a general continúa hoy en diversas formas. El
análisis de Fourier dió origen a teorı́as generales de análisis de señales y series temporales.
Generalizaciones recientes incluyen las denominadas transformadas wavelet, transforma-
das de Fourier fraccionarias, etc. Y el desarrollo reciente de la computación cuántica fue
impulsado precisamente por el descubrimiento de un algoritmo cuántico eficiente para
implementar la transformada de Fourier en sistemas cuánticos.

–3–
2. Funciones periódicas
Una función f : R → R es periódica con perı́odo T > 0 si satisface

f (x + T ) = f (x) ∀x ∈ R

En tal caso también cumple f (x + 2T ) = f (x + T + T ) = f (x + T ) = f (x), y en general

f (x + nT ) = f (x) ∀ x ∈ R , n = 0, ±1, ±2, . . .

Basta entonces conocer los valores de f (x) en cualquier intervalo de longitud T (por ejem-
plo, (−T /2, T /2]) para determinar su valor f (x) en cualquier x ∈ R.

f HxL

-2T -T -T2 0 T2 T 2T


x

T
Ejemplos bien conocidos de funciones periódicas con perı́odo T son

f1 (x) = cos(2πx/T ) (1)


f2 (x) = sen(2πx/T ) (2)

ya que cos( 2π
T
(x + T )) = cos( 2π
T
x + 2π) = cos( 2π
T
x) ∀ x (igualmente para sen( 2π
T
x)).
También
f (x) = A cos(2πx/T − φ) (3)
es periódica con perı́odo T para cualquier valor de A (amplitud) y φ (fase). Y una función
constante f (x) = c ∀ x es un caso trivial de función periódica. Esto incluye en particular
a la función nula 0(x) = 0 ∀ x.
Si f1 (x) y f2 (x) son dos funciones periódicas con el mismo perı́odo T , toda combinación lineal

f (x) = c1 f1 (x) + c2 f2 (x) (4)

es también una función periódica con el mismo perı́odo T , como es muy fácil probar. El
conjunto de funciones periódicas con perı́odo T es entonces un subespacio (de dimensión
infinita) del espacio vectorial de funciones generales f : R → R.
Por ejemplo, la función (3) es una combinación lineal de las funciones (1) y (2):

A cos(2πx/T − φ) = (A cos φ) cos(2πx/T ) + (A sen φ) sen(2πx/T )

–4–
Toda función periódica con perı́odo T /n, con n ≥ 1 natural, es también periódica con
perı́odo T : f (x + T ) = f (x + n(T /n)) = f (x) ∀ x. Por lo tanto, las funciones

cos(2nπx/T ) , sen(2nπx/T ) , n = 1, 2, 3, . . . (5)

que pueden escribirse como cos(2πx/Tn ), sen(2πx/Tn ), con Tn = T /n, son también pe-
riódicas con perı́odo T , ya que su perı́odo es Tn = T /n.
Cuando x representa un tiempo t, suelen escribirse las funciones (5) como

cos(nωt) , sen(nωt) , ω = 2π/T, n = 1, 2, 3, . . . (6)

donde ω = 2πf es la frecuencia angular y f = 1/T la frecuencia fundamental.


Y en el contexto de series de Fourier, suele escribirse T = 2L y las funciones (5) como

cos(nπx/L) , sen(nπx/L) , L = T /2 , n = 1, 2, 3, . . . (7)

Se muestran abajo los gráficos de estas funciones para n ≤ 3. Notar que:


cos(nπx/L) es una función par: satisface f (−x) = f (x) ∀ x

sen(nπx/L) es una función impar: satisface f (−x) = −f (x) ∀ x.

cos@Π xLD sen@Π xLD


1 1

-2L -L L 2L
x -2L -L L 2L
x

-1 -1

cos@2 Π xLD sen@2 Π xLD


1 1

-2L -L L 2L
x -2L -L L 2L
x

-1 -1

cos@3 Π xLD sen@3 Π xLD


1 1

-2L -L L 2L
x -2L -L L 2L
x

-1 -1

–5–
3. Conjunto ortogonal de funciones
Para definir ortogonalidad entre funciones, debemos definir primero un producto in-
terno (análogo al producto escalar entre vectores de Rn ). Dadas dos funciones periódicas
reales f y g de perı́odo T = 2L > 0, continuas, definimos aquı́ su producto interno como
1 L
Z
(f, g) = f (x)g(x)dx (8)
L −L
que satisface (f, g) = (g, f ). Si g = f , se tiene
1 L
Z
(f, f ) = [f (x)]2 dx ≥ 0
L −L
p
La norma de una función f se define entonces como ||f || = (f, f ). Satisface: ||f || ≥ 0,
con ||f || = 0 para f continua sólo si f es la función nula. Además, se verifica:
1) ||αf || = |α| ||f || (α ∈ R) y 2) |(f, g)| ≤ ||f || ||g|| (desigualdad de Cauchy-Schwarz).
La propiedad (2) implica (probar!) |||f1 || − ||f2 ||| ≤ ||f1 + f2 || ≤ ||f1 || + ||f2 ||.

El producto (8) puede extenderse a funciones seccionalmente continuas (es decir, que
tengan a lo sumo un número finito de discontinuidades finitas en un perı́odo) o integrables.

Con la definición (8), dos funciones f, g son ortogonales si y solo si


1 L
Z
(f, g) = f (x)g(x)dx = 0 (9)
L −L
Una propiedad notable del conjunto de funciones {1, cos(nπx/L), sen(nπx/L), n = 1, 2, . . .},
que incluye la funcón constante 1 = cos(0πx/L), es que resultan ortogonales con este
producto interno, con norma 1 para n ≥ 1: Utilizando las fórmulas
1
cos(a) cos(b) = [cos(a − b) + cos(a + b)] (10)
2
1
sen(a) sen(b) = [cos(a − b) − cos(a + b)] (11)
2
1
sen(a) cos(b) = [sen(a − b) + sen(a + b)] (12)
2
es muy fácil probar que para n, m = 0, 1, 2, . . ., se cumple

1
Z L
nπx mπx  0 m 6= n
cos( ) cos( )dx = 1 m=n≥1 (13)
L −L L L
2 m=n=0

Z L 
1 nπx mπx 0 m 6= n
sen( ) sen( )dx = (14)
L −L L L 1 m=n≥1
Z L
1 nπx mπx
sen( ) cos( )dx = 0 ∀ m, n (15)
L −L L L
El resultado (15) es además obvio por paridad: el coseno es una función par, el seno
impar, y su producto es entonces impar. Y la integral de toda función impar en un
intervalo [−L, L] es 0 (justificar!).

–6–
Por lo tanto, dada una función periódica f (x) definida por la combinación lineal
N
a0 X nπx nπx
f (x) = + [an cos( ) + bn sen( )] (16)
2 n=1
L L

donde N ≥ 1 y hemos escrito el coeficiente correspondiente a la función constante


1 = cos(0πx/L) como a0 /2, se obtiene, usando las fórmulas (13)–(15) (probar!)

1 L
Z
mπx
f (x) cos( )dx = am , m = 0, 1, 2, . . . , N (17)
L −L L
1 L
Z
mπx
f (x) sen( )dx = bm , m = 1, 2, . . . , N (18)
L −L L

Por lo tanto, si se conoce f (x) en un perı́odo completo y se sabe que es de la forma (16),
los coeficientes an , bn pueden obtenerse como

1 L
Z
an = f (x) cos(nπx/L)dx n = 0, 1, 2, . . . , N (19)
L −L
1 L
Z
bn = f (x) sen(nπx/L)dx n = 1, 2, . . . , N (20)
L −L

Tal como ocurreP con los vectores de Rn cuando se los escribe en la base canónica,
v = (x1 , . . . , xn ) = ni=1 xi ei , con xi = v · ei , las coordenadas an , bn de la función f en
este conjunto ortogonal de funciones pueden determinarse mediante productos escalares:
an = (f, cos(nπx/L)), bn = (f, sen(nπx/L)).
Y ası́ como xi ei es la proyección ortogonal de v sobre ei , an cos(nπx/L) es la pro-
yección ortogonal de f sobre cos(nπx/L), y bn sen(nπx/L) aquella sobre sen(nπx/L).

1
RL
Para n = 0, (19) implica a0 = L −L
f (x)dx, por lo que el primer término en (16),
Z L
a0 1
= f (x)dx (21)
2 2L −L

representa el valor medio de f en el intervalo [−L, L], es decir, en un perı́odo.


Otra consecuencia de la ortogonalidad es que usando nuevamente (13)–(15), o directa-
mente (16) y (19)–(20), el cuadrado de la norma de (16) puede expresarse como (probar!)
L N
a2 X 2
Z
1
2
||f || = (f, f ) = f (x)f (x)dx = 0 + (an + b2n ) (22)
L −L 2 n=1

Esencialmente, esta es la extensión de la expresión |v|2 = v ·v = ni=1 x2i para el cuadrado


P
de la longitud de un vector v ∈ Rn , al presente caso.
Observemos también que si f (x) es par (f (−x) = f (x)), (20) implica bn = 0 ∀ n,
mientras que si f (x) es impar (f (−x) = −f (x)), (19) implica an = 0 ∀ n.

Surge ahora naturalmente la pregunta ¿Es posible representar cualquier función pe-
riódica f de perı́odo 2L por una suma de la forma (16) con N → ∞?

–7–
4. Desarrollo en serie de Fourier
El desarrollo en serie de Fourier de una función periódica f consiste esencialmente en
tomar el lı́mite N → ∞ en la suma (16).

Sea f : R → R una función periódica de perı́odo T = 2L, continua y de variación acotada


(por ejemplo, posee a lo sumo un número finito de máximos y mı́nimos aislados en un perı́odo).
Entonces se la puede representar mediante la serie de Fourier

a0 X
f (x) = + [an cos(nπx/L) + bn sin(nπx/L)] (23)
2 n=1

donde los coeficientes an , bn están dados por

1 L
Z
an = f (x) cos(nπx/L)dx n = 0, 1, 2, . . . , (24)
L −L
1 L
Z
bn = f (x) sen(nπx/L)dx n = 1, 2, . . . , (25)
L −L

El primer término de la serie, a0 /2, es el valor medio de f en un perı́odo:


Z L
a0 1
= f (x)dx = hf i (26)
2 2L −L

Además, vale la igualdad (Teorema de Parseval)


L ∞
a2 X 2
Z
1
(f, f ) = [f (x)] dx = 0 +
2
(an + b2n ) (27)
L −L 2 n=1

La convergencia de la serie de Fourier (23) puede extenderse a otros casos:


1) En las condiciones anteriores, si f tiene un número finito de discontinuidades finitas en un
perı́odo, existiendo los lı́mites laterales de f en los puntos de discontinuidad (f seccionalmente
continua), la serie de Fourier (23) con los coeficientes (24)–(25),

a0 X
S(x) = + an cos(nπx/L) + bn sin(nπx/L) (28)
2 n=1

converge a f (x) en los puntos x donde f es continua, y al punto medio



f (x+
i ) + f (xi )
(29)
2
en los puntos xi en los que f es discontinua, donde f (x±
i ) = lı́m± f (x) son los lı́mites laterales.
x→xi
RL
2) Si f no cumple las condiciones anteriores pero (f, f ) = L1 −L [f (x)]2 dx existe, entonces
RL
lı́m −L [f (x) − SN (x)]2 dx = 0 (convergencia en media), donde SN (x) es la suma parcial (16)
N →∞
de la serie (28). Esto no garantiza la convergencia puntual (S(x) = f (x)) en todo punto.

–8–
Observaciones importantes:

1. Si f (x) es par, f (−x) = f (x) ∀ x, bn = 0 ∀ n y la serie de Fourier se reduce a



a0 X
S(x) = + an cos(nπx/L) (30)
2 n=1

con Z L Z L
1 2
an = f (x) cos(nπx/L)dx = f (x) cos(nπx/L)dx (31)
L −L L 0

2. Si f (x) es impar, f (−x) = −f (x) ∀ x, an = 0 ∀ n y la serie de Fourier se reduce a



X
S(x) = bn sen(nπx/L) (32)
n=1

con Z L Z L
1 2
bn = f (x) sen(nπx/L)dx = f (x) sen(nπx/L)dx (33)
L −L L 0

3. Si f no es perıódica o está definida en [−L, L], la serie de Fourier (28) con los coeficientes
(24)–(25) convergerá fuera de (−L, L) a la extensión periódica de la función.

4. Si f (−L) 6= f (L), la extensión periódica de f será discontinua en x = ±L (y en


±3L, ±5L, . . .). En estos puntos la serie de Fourier (28) convergerá al punto medio:

f (L) + f (−L)
S(±L) = (34)
2

5. Cuando f es periódica, las integrales en (24)–(25) pueden tomarse en cual-


RL R L+c
quier intervalo de longitud 2L: −L f (x) cos(nπx/L)dx = −L+c f (x) cos(nπx/L)dx,
RL R L+c
−L
f (x) sen(nπx/L)dx = −L+c
f (x) sen(nπx/L)dx, ∀ c ∈ R.

6. Los términos con n = 1 se denominan componentes armónicos fundamentales o primer


armónico. Los restantes son los componentes armónicos de orden superior.

7. Si an , bn y a0n , b0n son los coeficientes de Fourier de dos funciones f y g que satisfacen las
condiciones de convergencia, el resultado (27) se extiende a
L ∞
a0 a00 X
Z
1
(f, g) = f (x)g(x)dx = + (an a0n + bn b0n ) (35)
L −L 2 n=1

8. Si se desea aproximar f (x) por una suma finita de la forma


N
X
SN (x) = c0 /2 + [cn cos(nπx/L) + dn sen(nπx/L)] (36)
n=1

RL
la mejor aproximación en el sentido de minimizar ||f −SN ||2 = L1 −L [f (x)−SN (x)]2 dx,
se obtiene para los coeficientes de Fourier: cn = an , bn = dn ∀ n.

–9–
Ejemplo 1: f (x) = x2 /L2 , |x| ≤ L.
Como f (L) = f (−L) = 1, la extensión periódica de esta función es continua (ver
figura). El desarrollo en serie de Fourier de f convergerá a esta extensión, dada para x ∈ R
por f (x) = f (x − mx L), con mx un entero tal que x − mx L ∈ (−L, L].
Como f (x) es par, bn = 0 ∀ n y (ver (30)–(31))
2 L x2 2 L x2 4(−1)n
Z Z
2
a0 = dx = , an = cos(nπx/L)dx = , n≥1
L 0 L2 3 L 0 L2 n2 π 2
donde para n ≥ 1 se ha integrado por partes dos veces. Se obtiene
∞ ∞
a0 X 1 X 4(−1)n  nπ 
f (x) = + an cos(nπx/L) = + cos x (37)
2 n=1
3 n=1 n2 π 2 L

Se muestran en las figuras las primeras sumas parciales SN (x) = a20 + N nπ


P
n=1 an cos( L x)
junto con la extensión periódica de f (x) y los coeficientes an . La serie converge absoluta-
mente y la convergencia es rápida, ya que an ∝ n−2 tiende rápidamente a 0 para n → ∞.
Este desarrollo permite también obtener en forma analı́tica la suma P∞ de series numéricas
notables. Por ejemplo, si x = 0, f (0) = 0 y (37) implica 0 = 3 + π2 n=1 (−1)n n12 , o sea
1 4


X 1 1 1 1 π2
(−1)n+1 = 1 − + − + . . . =
n=1
n2 4 9 16 12

1 π2
= 1 + 14 + 91 + . . . =
P
Y si x = L, f (L) = 1 y (37) implica (probar!) n2 6
n=1
f HxL,SN HxL f HxL,SN HxL

1 N=0 1 N=1

0.5 0.5

x x
-2L -L 0 L 2L -2L -L 0 L 2L
f HxL,SN HxL f HxL,SN HxL

1 N=2 1 N=5

0.5 0.5

x x
-2L -L 0 L 2L -2L -L 0 L 2L
f HxL, SN HxL

an
1 N = 10
0.6
0.4
0.5 0.2

2 4 6 8 10
n
– 10 – -0.2
x
-2L -L 0 L 2L -0.4
Ejemplo 2: f (x) = x/L, |x| ≤ L.
En este caso f (−L) = −1 6= f (L) = 1, por lo que la extensión periódica de f es
discontinua en x = ±L, ±3L, . . ., con f (L− ) = 1, f (L+ ) = −1 (ver figura).
Como f (x) es impar, an = 0 ∀ n y (ver (32)–(33))
2 Lx 2(−1)n+1
Z
nπx
bn = sen dx = , n≥1
L 0 L L nπ
donde se ha integrado por partes. La serie de Fourier es entonces
∞ ∞
X X 2(−1)n+1  nπ 
S(x) = bn sen(nπx/L) = sen x (38)
n=1 n=1
nπ L

y converge condicionalmente. Esta serie converge a x/L para x ∈ (−L, L) y al punto


medio f (L)+f 2
(−L)
= 0 en x = ±L, como es fácil verificar.
PN
Se muestran abajo las sumas parciales SN (x) = n=1 bn sen(nπx/L) junto con la
extensión periódica de f (x) y los coeficientes bn . La convergencia a f es ahora más lenta,
especialmente en la vecindad de la discontinuidad, observándose el fenómeno de Gibbs.
2
Dado que Lx = L2 ( Lx 2 )0 , la serie (38) puede obtenerse derivando el desarrollo (37) y
multiplicándolo por L/2. Esto es válido pues la extensión periódica de x2 /L2 no presenta
discontinuidades. En cambio, la derivada término a término del desarrollo (38) no es una
serie convergente, debido a las discontinuidades de la extensión periódica de x/L (que
implican convergencia P∞no uniforme de (38); tal derivada converge, no obstante, como
distribución a 1 − 2 m=−∞ δ(x − L + 2mL), tema que no profundizaremos en este curso).
f HxL, SN HxL f HxL, SN HxL

1 N=1 1 N=2

0.5 0.5

x x
-2L -L 0 L 2L -2L -L 0 L 2L

-0.5 -0.5

-1 -1
f HxL, SN HxL f HxL, SN HxL

1 N=6 1 N = 20

0.5 0.5

x x
-2L -L 0 L 2L -2L -L 0 L 2L

-0.5 -0.5

-1 -1
f HxL, SN HxL

1 N = 80 bn
0.5 0.6
0.4
x 0.2
-2L -L 0 L 2L

-0.5 5 10 15 20
n
– 11 – -0.2
-1 -0.4
SHxL, SN HxL
SHxL
1
1
0.5 0.5

0 x x
-2L -L L 2L -2L -L 0 L 2L
-0.5 -0.5

-1 -1

Fenómeno de Gibbs. En estas figuras se muestra a la izquierda la suma exacta S(x) de la


serie de Fourier (38) del ejemplo anterior, que es discontinua, convergiendo en las discontinuidades
x = ±L, ±3L, . . . al punto medio 0, y a la derecha S(x) junto con la suma parcial SN (x) para
N = 20. SN (x) es continua para cualquier N finito y exhibe un máximo y un mı́nimo en los bordes
de cada discontinuidad. El exceso en estos bordes sobre el valor exacto es del orden del 9 % del
salto y no disminuye al aumentar N . No obstante, el ancho de estos máximos o mı́nimos (el
intervalo donde ocurre el exceso) disminuye al aumentar N , tendiendo a 0 para N → ∞.
Este exceso de las sumas parciales finitas de Fourier ocurre siempre en los bordes de toda
discontinuidad finita y se denomina fenómeno de Gibbs. EsR consecuencia de la convergencia no
π
uniforme. El valor exacto del porcentaje de exceso es γ = 21 0 senθ θ dθ = 0,089489 . . ..

Ejemplo 3: f (x) = 4 + 2 cos(3πx/L) − 6 sen(2πx/L).

En este caso se trata de una función periódica que es combinación lineal de las funciones
ortogonales cos(nπx/L) y sen(nπx/L). Por lo tanto la expresión que la define ya es su
desarrollo en serie de Fourier. Usando la ortogonalidad se verifica que

1 L 1 L
Z Z 
nπ 2 n=3
a0 = f (x)dx = 8, an = f (x) cos( x)dx =
L −L L −L L 0 n 6= 3, n ≥ 1
Z L 
1 nπ −6 n = 2
bn = f (x) sen( x)dx = (39)
L −L L 0 n 6= 2

por lo que la serie se reduce a una suma finita.



1 |x| ≤ d
Ejemplo 4: f (x) =
0 d < |x| ≤ L
Esta función (pulso rectangular, ver figura) posee discontinuidades finitas en x = ±d.
Como es par, bn = 0 ∀ n y
2 d 2 d
Z Z
2d 2
a0 = dx = , an = cos(nπx/L)dx = sen(nπd/L) , n ≥ 1 (40)
L 0 L L 0 nπ
Por lo tanto, la serie de Fourier es

d X 2
S(x) = + sen(nπd/L) cos(nπx/L)
L n=1 nπ

y converge condicionalmente. En [−L, L], converge a f (x) para |x| = 6 d y al punto medio
1/2 para x = ±d. Nuevamente, se observa en las figuras, obtenidas para d = L/2, la
convergencia lenta en los bordes de la discontinuidad y el fenómeno de Gibbs.
Una observación importante es que |an |/a0 es pequeño recien para n  L/d. Ası́,
el número de términos necesarios para representar el pulso correctamente aumenta al
disminuir d en relación a L. O sea, cuanto más corto es el pulso en relación al perı́odo.
mayor es el número de frecuencias necesarias para representarlo. De ahi el nombre de “ultra
wideband” para la tecnologı́a de comunicación basada en pulsos cortos. Esta conclusión
es general: Mayor concentración en tiempo ⇒ mayor dispersión en frecuencia, y viceversa.

f HxL, SN HxL f HxL, SN HxL


N=1 N=3
1 1

0.5 0.5

x x
-2L -L -d d L 2L -2L -L L 2L

f HxL, SN HxL
f HxL, SN HxL
N=9
N = 27
1 1

0.5 0.5

x x
-2L -L L 2L -2L -L L 2L

f HxL, SN HxL
N = 99
1
an
1.0
0.8
0.5 0.6
0.4
0.2
– 13 – 5 10 15 20
n
x -0.2
-2L -L L 2L
-0.4
f HxL
Ejemplo 5.
1

-2T -T -T2 0 T2 T 2T


x

an T bn

0.4 0.4
0.3 0.3
0.2 0.2
0.1 0.1

2 4 6 8 10
n 2 4 6 8 10
n
-0.1 -0.1

Análisis de Fourier (“radiografı́a”) de la señal periódica de la figura 1. El cálculo de


los coeficientes de Fourier muestra que no es más que la superposición de 3 armónicos y
un término constante. Se deja como ejercicio escribir explı́citamente la función a partir
de estos gráficos.

Problemas 4.
1) a) Verificar los resultados de los ejemplos 1, 2, 3 y 4. Indicar a qué valor convergen
las series de Fourier en x = 0, L y 3L/2 (usar d = L/2 en 4).
b) MostrarPque la igualdad de Parseval
P∞ (27) en los desarrollos (37) y (38) implica
∞ 4 4 2 2
las identidades n=1 1/n = π /90 y n=1 1/n = π /6 .

1 0≤x≤L
2) Hallar el desarrollo en serie de Fourier de f (x) = para L = 1.
−1 −L < x < 0
Indicar a qué valor converge el desarrollo en x = 0, 1, 2 y 3/2. Graficar f y las primeras
sumas parciales (n ≤ 5) en el intervalo [−2, 2].

3) Hallar el desarrollo en serie de Fourier de f (x) = |x| en el intervalo [−1, 1]. Indicar
a qué valor converge la serie en x = 0, 1, 2 y x = 3/2. Graficar f y las primeras sumas
parciales.

4) Hallar el desarrollo en serie de Fourier de sen2 (x) (tomar L = π y recordar que


2
sen (x) = (1 − cos(2x))/2).

5) Mostrar que los coeficientes de Fourier an , bn son funciones lineales de la función


f . ¿Cual es el desarrollo en serie de Fourier de 3x/L − 2x2 /L2 ? (usar los ejemplos 1 y 2).

6) Probar que la suma finita (36) que minimiza ||f − SN ||2 corresponde a cn = an y
dn = bn , con an , bn los coeficientes (24)–(25). ¿Cual es el valor mı́nimo de ||f − SN ||2 ?
– 14 –
5. Desarrollos de medio rango
Si f (x) está definida en el intervalo [0, L], es posible desarrollarla en serie de Fourier completándola
en forma par (f (−x) = f (x)) o impar (f (−x) = −f (x)) para x ∈ [−L, 0).

Si se la completa en forma par, se obtiene el desarrollo de medio rango en cosenos:



a0 X
f (x) = + an cos(nπx/L) (41)
2 n=1

con (ver (30)–(31))


Z L
2
an = f (x) cos(nπx/L)dx (42)
L 0
Esta opción se utiliza normalmente cuando f tiene derivada nula en x = 0 y x = L.

Si se la completa en forma impar, se obtiene el desarrollo de medio rango en senos:



X
f (x) = bn sen(nπx/L) (43)
n=1

con (ver (32)–(33))


Z L
2
bn = f (x) sen(nπx/L)dx (44)
L 0

Esta opción se utiliza normalmente cuando f (x) se anula en x = 0 y x = L. Notar que si f (0) 6= 0,
la función extendida tendrá una discontinuidad en x = 0. Y si f (L) 6= 0, su extensión periódica
tendrá una discontinuidad en x = ±L, ±3L, . . ..

Estos desarrollos serán utilizados al resolver ecuaciones diferenciales en derivadas parciales.

Problemas 5.

1) Hallar el desarrollo en serie de Fourier de medio rango en i) cosenos y ii) senos, en el


intervalo [0, L], de las siguientes funciones:
a) f (x) = 1
b) f (x) = x/L
c) f (x) = x2 /L2 .
d) Indicar a qué valor convergen los desarrollos anteriores en x = 0 y x = L, junto con
los lı́mites laterales en dichos puntos.

– 15 –
6. Forma compleja del desarrollo
Recordando que
e±inπx/L = cos(nπx/L) ± i sen(nπx/L) (45)
es posible reescribir la serie de Fourier (28) en la forma compacta

X
S(x) = Cn einπx/L (46)
n=−∞


P N
P
donde = lı́m y
n=−∞ N →∞ n=−N

Z L
1
Cn = e−inπx/L f (x)dx , n = 0, ±1, ±2, . . . (47)
2L −L

o sea,
C0 = a0 /2 = hf i, C±n = (an ∓ ibn )/2 (n ≥ 1)
El resultado (46)–(47) vale además para cualquier función periódica compleja f : R → C que
satisfaga las condiciones de convergencia. Si la función f es real, C−n = Cn∗ (conjugado).

El desarrollo (46) puede obtenerse directamente notando que las funciones (45) forman
también un conjunto ortogonal con el producto interno definido para funciones complejas
f : R → C de perı́odo 2L como

1 L ∗
Z
(f, g) = f (x)g(x)dx
L −L
RL
Este producto satisface (f, g) = (g, f )∗ , con (f, f ) = L1 −L |f (x)|2 dx ≥ 0 para cualquier f
compleja, donde |f (x)|2 = f ∗ (x)f (x) es el cuadrado del módulo de f (x). Con este producto,

1 L −inπx/L imπx/L
Z 
inπx/L imπx/L 0 n 6= m
(e ,e )= e e dx = (48)
L −L 2 n=m

1
R L −inπx/L
por lo que 2L −L
e S(x)dx = Cn .
En la forma compleja, las igualdades (27) y (35) toman la forma compacta
Z L ∞
1 2
X
|f (x)| dx = |Cn |2 (49)
2L −L n=−∞

Z L ∞
1 ∗
X
f (x)g(x)dx = Cn∗ Cn0 (50)
2L −L n=−∞

donde Cn0 son los coeficientes de Fourier complejos de la función g.

– 16 –
7. Transformada discreta de Fourier (opcional)
Dada una función f : [0, T ] → C, pueden considerarse sus valores fj = f (tj ) en n tiempos
equiespaciados 0 ≤ t1 < t2 < . . . < tn ≤ T . Resulta entonces válido el desarrollo
n
X
fj = ei2πjk/n Fk , j = 1, . . . , n (51)
k=1

donde los n coeficientes Fk están dados por


n
1 X −i2πkj/n
Fk = e fj , k = 1, . . . , n (52)
n j=1

Estos coeficientes constituyen la transformada de Fourier discreta de los fj . La demostración de


(51)–(52) se basa en la igualdad
n
0 j 6= j 0

1 X i2πk(j−j 0 )/n
e = (53)
n k=1 1 j = j0

válida para j, j 0 ∈ {1, . . . , n}, cuya demostración se deja como ejercicio.

Notemos que para k y m enteros arbitrarios, (52) implica Fk+mn = Fk , ya que


e−i2π(k+mn)j/n = e−i2πkj/n . En particular, F0 = Fn = n1 nj=1 fj es nuevamente el valor
P
medio de los fj . Resulta también válida la igualdad
n n
1X X
|fj |2 = |Fk |2 (54)
n j=1 k=1

Como ejemplo, si fj = c (constante) ∀ j = 1, . . . , n ⇒ Fk = 0 para k = 1, . . . , n − 1 mientras


que Fn = c. Y si fj = 0 para j = 1, . . . , n − 1 y fn = c ⇒ Fk = c/n ∀ k.

De esta forma, los coeficientes (52) posibilitan un análisis de Fourier de la función f (t)
restringida a estos n tiempos. Y para n suficientemente grande y f de variación acotada, el
esquema discreto puede proporcionar una buena aproximación al desarrollo en serie de Fourier
de f . Su ventaja es que requiere solo el conocimiento de f en un número finito de puntos (y no
su forma funcional exacta). Además el cálculo de los n coeficientes Fk puede realizarse en forma
eficiente (requiere O(n) pasos).

– 17 –
II. Ecuaciones Diferenciales en
Derivadas Parciales

– 18 –
1. Introducción
Las ecuaciones diferenciales en derivadas parciales juegan un rol fundamental en In-
genierı́a y Fı́sica. Permiten determinar funciones de varias variables a partir de ciertas
condiciones iniciales y/o de contorno. Como ejemplos tı́picos podemos mencionar:

a) La ecuación de difusión, que en una dimensión es de la forma


∂U (x, t) ∂ 2 U (x, t)
−α =0 (1)
∂t ∂x2
Esta ecuación, de segundo orden en x y primer orden en t, permite determinar, por ejem-
plo, la temperatura U (x, t) de una barra conductora de calor de longitud L en función de
la posición x y el tiempo t, si se conocen la distribución inicial de temperatura U (x, 0) y
las temperaturas en los bordes U (0, t) y U (L, t) (se asume que la barra está térmicamente
aislada salvo en los extremos). En este caso α es una constante positiva que depende de
la conductividad térmica, el calor especiı́fico y la densidad del material.

b) La ecuación de ondas, que en una dimensión es de la forma


∂ 2 U (x, t) 2
2 ∂ U (x, t)
− v =0 (2)
∂t2 ∂x2
Esta ecuación, de segundo orden en ambas variables x, t, permite determinar, por ejem-
plo, la elongación U (x, t) de una cuerda tensa de longitud L sujeta en ambos extremos,
en función de la posición x y el tiempo t, a partir de su elongación inicial U (x, 0) y su
velocidad inicial ∂U∂t
(x,t)
|t=0 . Aquı́ v representa la velocidad de propagación de la onda.

c) La ecuación de Laplace, que en dos dimensiones es de la forma


∂ 2 U (x, y) ∂ 2 U (x, y)
+ =0 (3)
∂x2 ∂y 2
El objetivo es determinar una función U (x, y) que satisfaga esta ecuación en una cierta
región R del plano R2 , conociendo sus valores en el borde de R. Esta ecuación de segundo
orden en x e y, permite determinar. por ejemplo, la temperatura estacionaria U (x, y) (es
decir, de equilibrio y por lo tanto independiente del tiempo t) de una placa conductora
de calor en una región R sin fuentes de calor, si se conocen sus valores en el borde de R.
La ecuación (3) tiene también varias otras aplicaciones: descripción de membranas
elásticas en equilibrio, de flujos estacionarios irrotacionales en dos dimensiones, etc. Su
versión tridimensional,
∂ 2 U (x, y, z) ∂ 2 U (x, y, z) ∂ 2 U (x, y, z)
+ + =0 (4)
∂x2 ∂y 2 ∂z 2
es la ecuación que satisface el potencial electrostático U (x, y, z) en una región R del
espacio R3 sin cargas eléctricas. Si el potencial no depende de z, (4) se reduce a la ecuación
bidimensional (3).
Las tres ecuaciones anteriores son ejemplos de ecuaciones diferenciales lineales
homogéneas de segundo orden en derivadas parciales. En este curso nos concen-
traremos en este tipo de ecuaciones.

– 19 –
2. Definición general y propiedades fundamentales
Una ecuación diferencial lineal de segundo orden en derivadas parciales para una función
de n variables U (x1 , . . . , xn ) (U : Rn → R) es de la forma
X ∂ 2U X ∂U
αij + βi + γU = f (x1 , . . . , xn ) (5)
i,j
∂xi ∂xj i
∂x i

donde los coeficientes αij , βi y γ pueden ser constantes o también funciones continuas de
las variables x1 , . . . , xn . El caso homogéneo corresponde a f (x1 , . . . , xn ) = 0.
Para n = 1, la ecuación (5) se reduce a la ya conocida ecuación diferencial lineal or-
2
dinaria de segundo orden α ddxU2 + β dU
dx
+ γU = f (x), donde la función incógnita U (x)
depende de una sola variable x = x1 . Por ser lineal, el caso general n ≥ 2 posee ciertas
propiedades similares a las del caso n = 1.

Propiedades del caso homogéneo.


X ∂ 2U X ∂U
αij + βi + γU = 0 (6)
i,j
∂xi ∂xj i
∂xi

1) La función nula U (x1 , . . . , xn ) = 0 ∀ x1 , . . . , xn es siempre una solución de (6) (solución trivial).

2) Es válida la superposición de soluciones:


Si U1 (x1 , . . . , xn ) y U2 (x1 , . . . , xn ) son soluciones de (6), entonces toda combinación lineal

U (x1 , . . . , xn ) = c1 U1 (x1 , . . . , xn ) + c2 U2 (x1 , . . . , xn ) (7)

con c1 , c2 ∈ R, es también solución de (6). La demostración es obvia a partir de la propiedad de


linealidad de las derivadas parciales.

Estas dos propiedades implican que el conjunto de soluciones de (6) es un subespacio S del
espacio vectorial V de funciones F : Rn → R. No obstante, a diferencia del caso n = 1, para n ≥ 2
la dimensión de S es en general infinita, existiendo infinitas soluciones linealmente independientes
si no se imponen condiciones iniciales o de contorno.

Problemas 2.
1. Verificar que para cualquier valor (constante) de A, λ y φ, φ1 , φ2 ,
2
a) U (x, t) = Ae−αλ t sen(λx + φ) es solución de la ecuación de difusión (1).
b) U (x, t) = A cos(λvt + φ1 ) sen(λx + φ2 ) es solución de la ecuación de ondas (2).
c) U (x, y) = Ae−λx sen(λx + φ) es solución de la ecuación de Laplace (3).
2. a) Probar que U (x, t) = f (x − vt) + g(x + vt), con f y g funciones reales arbitrarias
con derivada segunda definida, es solución de (2). Interpretar f (x − vt) y g(x + vt) como
ondas que se propagan hacia la derecha e izquierda sin deformación con velocidad v.
b) Escribir U (x, t) = A cos(λvt + φ1 ) sen(λx + φ2 ) como una suma f (x − vt) + g(x − vt).
3. Mostrar que la solución general del caso no homogéneo (5) es de la forma
U (x1 , . . . , xn ) = Uh (x1 , . . . , xn ) + Up (x1 , . . . , xn ), donde Uh (x1 , . . . , xn ) es la solución
general del caso homogéneo (6) y Up (x1 , . . . , xn ) una solución particular de (5).
– 20 –
3. Método de separación de variables y solución por
serie de Fourier
Emplearemos aquı́ el método de separación de variables y las series de Fourier para
resolver las ecuaciones diferenciales homogéneas (1), (2) y (3) con condiciones de iniciales
y/o de contorno en regiones rectangulares.

3.1. Ecuación de difusión en una dimensión


Comenzaremos por resolver la ecuación de difusión (1) en un intervalo finito
0 ≤ x ≤ L. El objetivo es determinar la función U (x, t) que satisface la ecuación

∂U (x, t) ∂ 2 U (x, t) 0<x<L


−α = 0, (8)
∂t ∂x2 t>0

con α > 0, junto con las condiciones de contorno

U (0, t) = 0, U (L, t) = 0 , t>0 (9)

y la condición inicial
U (x, 0) = f (x) , 0<x<L (10)

0 0 0 UHx,tL 0
0 L

UHx,0L=f HxL
0
x
L

La función U (x, t) puede representar, por ejemplo, la temperatura en función de la


posición y el tiempo de una barra metálica de longitud L cuyos bordes están a cero grados
centigrados (por ejemplo en contacto con hielo) y está lateralmente aislada, teniendo
inicialmente (t = 0) una distribución de temperatura dada por f (x).
Si la barra está inicialmente a temperatura mayor que 0, se enfriará al aumentar t,
tendiendo su temperatura a 0 para tiempos grandes. La ecuación (9) describe con todo
detalle este proceso de enfriamiento. Notemos que al ser (8) de primer orden en el tiempo,
se requiere conocer solamente el valor inicial U (x, 0) de la función U (x, t).

Soluciones producto
El método de separación de variables consiste en proponer, primero, una solución
producto
U (x, t) = X(x)T (t) (11)

– 21 –
donde X(x) depende solo de x y T (t) solo de t. Reemplazando (11) en (8) se obtiene

X(x)T 0 (t) − αX 00 (x)T (t) = 0


T 0 (t) 00
Dividiendo esta ecuación por X(x)T (t), se llega a T (t)
− α XX(x)
(x)
= 0, o sea,

X 00 (x) 1 T 0 (t)
=
X(x) α T (t)
Como el primer cociente depende solo de x y el segundo solo de t, siendo x y t variables
independientes, la única posibilidad es que ambos cocientes sean constantes:
X 00 (x) 1 T 0 (t)
= = −k 2 (12)
X(x) α T (t)

La constante k 2 se denomina constante de separación. Se obtienen ası́ dos ecuaciones


diferenciales ordinarias, una de segundo orden para X y una de primer orden para T :

X 00 (x) + k 2 X(x) = 0 (13)


T 0 (t) + αk 2 T (t) = 0 (14)

que ya sabemos resolver. Si k = 0, las soluciones son

X(x) = A + Bx, T (t) = C (15)

lo que conduce a una solución estacionaria (independiente de t) de la forma

X(x)T (t) = A + Bx . (16)

Si k 6= 0, obtenemos en cambio las soluciones

X(x) = A cos kx + B sen kx (17)


−αk2 t
T (t) = Ce (18)

que conducen a soluciones no estacionarias de la forma


2
X(x)T (t) = (A cos kx + B sen kx)e−αk t . (19)

Las condiciones de contorno (9) implican ahora

U (0, t) = X(0)T (t) = 0, U (L, t) = X(L)T (t) = 0 (20)

∀ t > 0. Por lo tanto, si T (t) 6= 0, debe cumplirse X(0) = 0, X(L) = 0.


Para k = 0, esto implica A = B = 0 en (16). El valor k = 0 conduce en este caso solo
a la solución trivial. En cambio, para k 6= 0, (20) implica A = 0 en (19) y entonces

B sen(kL) = 0 (21)

Si B 6= 0 esto conduce a kL = nπ, con n entero:

k = nπ/L , n = 1, 2, 3, . . . (22)

– 22 –
Hemos excluido valores enteros negativos de n ya que si bien satisfacen (21), no gene-
ran nuevas soluciones linealmente independientes (sen(−kx) = − sen(kx)). Los valores
posibles de k quedan entonces determinados por la condición de contorno.
Reemplazando (22) en (19) y recordando que A = 0, se obtienen las soluciones
2
Xn (x)Tn (t) = Bn sin(nπx/L) e−α(nπ/L) t , n = 1, 2, 3, . . . , (23)

con Bn constantes arbitrarias. Estas soluciones son linealmente independientes si Bn 6= 0.


Para t = 0,
Xn (x)Tn (0) = Bn sin(nπx/L) (24)
por lo que estas soluciones producto corresponden a una distribución inicial f (x) propor-
cional a sin(nπx/L).
Su valor absoluto |Xn (x)Tn (t)| decrece exponencialmente al aumentar t:
2 2 t/τ
Tn (t) = e−α(nπ/L) t = e−n , τ = L2 /(π 2 α) (25)

donde τ representa un tiempo caracterı́stico, tal que |Tn (t)|  1 si t  τ /n2 . A mayor n,
más rápidamemte disminuirá el módulo de esta solución, como se ve en la figura.

Tn HtLTn H0L
1.0

0.8

0.6
n=1
0.4 2

0.2
3
0.0 tΤ
0 1 2 3 4

Solución general
Es evidente que con una sola solución producto no es posible satisfacer una condición
inicial general U (x, 0) = f (x).
No obstante, por la propiedad de superposición, podemos proponer ahora una solu-
ción más general que sea una combinación lineal de las soluciones producto (23), es decir,
una solución de la forma

2
X
U (x, t) = Bn e−α(nπ/L) t sen(nπx/L) (26)
n=1

que también satisface (8) (asumiendo convergencia uniforme de la serie) junto con la
condición de contorno (9), ya que cada término de la serie los satisface. Los coeficientes
Bn pueden ser ahora determinados por la condición inicial (10):

X
U (x, 0) = Bn sen(nπx/L) = f (x) , 0 < x < L (27)
n=1

– 23 –
que constituye el desarrollo en serie de Fourier de medio rango en senos de f (x) en el
intervalo [0, L] (ecs. (43)-(44) del cap. anterior). Los coeficientes Bn están pues dados por
2 L
Z
Bn = f (x) sen(nπx/L)dx , n = 1, 2, 3, . . . (28)
L 0
La solución final y única del problema (8)–(9)–(10) es pues la serie (26) con los
coeficientes Bn determinados por (28). Si el desarrollo (27) converge, también lo hará la
serie (26) para t > 0 debido al factor exponencial.
Podemos entender la solución general (26)–(28) como la “suma” de las soluciones pro-
ducto (23) para cada término Bn sin(nπx/L) del desarrollo de Fourier de medio rango de
la condición inicial f (x). Para t > τ , el término más importante en la serie (27) será ob-
viamente el primero (n = 1). Esto implica que las oscilaciones locales de temperatura
desaparecen rápidamente (ver figura).

UHx,tL
1.0
0.8 t=0, UHx,0L=fHxL

0.6 tΤ=0.15

0.4 0.3

0.2
0.0 1.5 ¥ xL
0.2 0.4 0.6 0.8 1.0

Ejemplo 1. Si L = 1, α = 1 y U (x, 0) = f (x) = 2 sen(πx) + sen(3πx),



Z 1  2 n=1
Bn = 2 f (x) sen(nπx)dx = 1 n=3 (29)
0 
0 n 6= 1, n 6= 3
Por lo tanto,
2 2
U (x, t) = 2e−π t sen(πx) + e−9π t sen(3πx)
Para t > τ /9, con τ = 1/π 2 , el primer término de la suma es dominante.

Ejemplo 2.. Si ahora f (x) = cx/L, con α > 0 y L > 0 arbitrarios,


2 L
Z
2c
Bn = c(x/L) sen(nπx/L)dx = (−1)n+1 , n = 1, 2, 3, . . . ,
L 0 nπ
y por lo tanto

2c X (−1)n+1 2 2 2
U (x, t) = sin(nπx/L)e−αn π t/L
π n=1 n
Para t > 0, la convergencia de la serie es absoluta. Para t > τ /4, con τ = L2 /(π 2 α), esta
serie es dominada por el primer término. Graficar para c = 1, α = 1, L = 1.

– 24 –
Ejemplo 3. Consideremos ahora que los bordes de la barra están a temperaturas fijas
generales U0 y UL . Esto corresponde a las condiciones de contorno
U (0, t) = U0 , U (L, t) = UL , t>0 (30)
t

U0 UL
U0 UHx,tL UL
0 L

UHx,0L = f HxL
0
x
L
Podemos utilizar la solución producto (16) para k = 0 (solución estacionaria),
X(x)T (t) = A + Bx
para ajustar la condición de contorno (30). Tenemos X(0)T (t) = A = U0 , X(L)T (t) =
A + BL = UL , por lo que B = (UL − U0 )/L. La solución general será entonces la suma de
esta solución estacionaria y la solución previa (26):

UL − U0 X 2 2
U (x, t) = U0 + x+ Bn e−αn π t/L sen(nπx/L) (31)
L n=1

la cual satisface la ecuación (8) junto con la nueva condición de contorno (30). Ahora

UL − U0 X
U (x, 0) = U0 + x+ Bn sen(nπx/L) = f (x)
L n=1

por lo que los coeficientes Bn se obtienen como


2 L
Z  
UL − U0
Bn = f (x) − U0 − x sin(nπx/L)dx (32)
L 0 L
Quedan determinados por la diferencia entre la temperatura inicial f (x) y la solución
estacionaria. La principal distinción con el caso previo es que para t → ∞, U (x, t) no
tiende a 0 sino a la solución estacionaria no nula: lı́m U (x, t) = U0 + ULL−U0 x
t→∞
UHx,tL
1.5
t=0, UHx,0L=fHxL

1.0
tΤ=0.15

0.5
1.5 ¥ U0 =0, UL=1

0.0
0.2 0.4 0.6 0.8 1.0
xL

– 25 –
Problemas 3.1.

1. Determinar la solución U (x, t) de (8) para las condiciones de contorno


U (0, t) = U (L, t) = 0 y la condición inicial U (x, 0) = f (x), si:
a) f (x) = 2 sen(πx/L)
b) f (x) = 3 sen(πx/L) − 2 sen(2πx/L) + sen(3πx/L)
c) f (x) = x(L − x)/L2 .
d) f (x) = x/L.
Graficar (mediante PC o cel.) U (x, t) para distintos tiempos en el caso α = 1, L = 1.

2. Utilizando (31)–(32), determinar la solución U (x, t) para las condiciones de contorno


U (0, t) = 0, U (L, t) = 1 y la condición inicial U (x, 0) = f (x), si:
a) f (x) = x/L
b) f (x) = x/L + 3 sen(πx/L) − 2 sen(2πx/L) + sen(3πx/L)
c) f (x) = x/L + x(L − x)/L2 .
Graficar U (x, t) para distintos tiempos en el caso α = 1, L = 1.

3. Determinar la solución U (x, t) de (8) para las condiciones de contorno



∂U ∂U
= = 0, t > 0
∂x x=0 ∂x x=L

que corresponden a una barra térmicamente aislada, y la condición inicial U (x, 0) = f (x).
Motrar que en este caso X(x) = A cos(kx), con k = nπ/L y n = 0, 1, 2, . . ., y por lo tanto

A0 X 2 2 2
U (x, t) = + An cos(nπx/L)e−αn π t/L
2 n=1

Dar una expresión para A0 y An en términos de f (x) y determinar el lı́mite lı́mt→∞ U (x, t).

4. (Opcional) Caso no homogéneo. En presencia de fuentes de calor ∝ f (x, t) a lo largo


de la barra, la temperatura U (x, t) satisface la ecuación de difusión no homogénea

∂U ∂ 2U
− α 2 = f (x, t)
∂t ∂x
Asumiendo U (0, t) = U (L, t) = 0 ∀ t > 0, puede proponerse una solución particular

X
Up (x, t) = Bn (t) sen(nπx/L)
n=1

Mostrar que los coeficientes de Fourier Bn (t) satisfacen ahora la ecuación no homogénea

Bn0 (t) + α(nπ/L)2 Bn (t) = Fn (t)


2
RL
con Fn (t) = L 0
f (x, t) sin( nπ
L
x)dx. Determinar Bn (t) y la solución U (x, t) si U (x, 0) = 0.

– 26 –
3.2. Ecuación de ondas en una dimensión
Veamos ahora la ecuación de ondas (2) en un intervalo finito 0 ≤ x ≤ L. El objetivo
es determinar la función U (x, t) que satisface la ecuación
∂ 2 U (x, t) 2
2 ∂ U (x, t) 0<x<L
− v = 0, (33)
∂t2 ∂x2 t>0
junto con las condiciones de contorno
U (0, t) = 0, U (L, t) = 0 , t>0 (34)
y las condiciones iniciales
U (x, 0) = f (x) , 0 < x < L (35)

∂U (x, t)
Ut (x, 0) = = g(x) , 0<x<L (36)
∂t t=0
Dado que la ecuación es de segundo orden en el tiempo, es necesario ahora especificar
tanto su valor inicial U (x, 0) = f (x) como su derivada temporal inicial (velocidad inicial)
Ut (x, 0) = g(x).
La función U (x, t) puede representar, por ejemplo, la elongación de una cuerda tensa
de longitud L fija en los bordes, siendo U (x, 0) = f (x) la elongación inicial de la cuerda,
Ut (x, 0) = g(x) su velocidad
p inicial y v la velocidad de propagación de ondas transversales
en la cuerda (v = T /µ, con T la tensión y µ la densidad lineal de masa). La ecuación
(33) determina las oscilaciones de la cuerda a partir de estas condiciones iniciales.

t
UHx,tL

0 UHx,tL 0

0
x
L

UHx,0L=f HxL
x
Ut Hx,0L=gHxL
0 L

Soluciones producto
Aplicando nuevamente el método de separación de variables, se propone primero una
solución producto
U (x, t) = X(x)T (t) (37)
Reemplazando (37) en (33) se obtiene X(x)T 00 (t) − v 2 X 00 (x)T (t) = 0, o sea,
X 00 (x) 1 T 00 (t)
= 2
X(x) v T (t)
Y como el primer cociente depende solo de x y el segundo solo de t, debe cumplirse
X 00 (x) 1 T 00 (t)
= 2 = −k 2 (38)
X(x) v T (t)

– 27 –
Esto conduce a las ecuaciones diferenciales ordinarias

X 00 (x) + k 2 X(x) = 0 (39)


T 00 (t) + v 2 k 2 T (t) = 0 (40)

Si k = 0, las soluciones generales son de la forma

X(x) = A + Bx, T (t) = C + Dt (41)

mientras que si k 6= 0,

X(x) = A cos(kx) + B sen(kx) (42)


T (t) = C cos(kvt) + D sen(kvt) (43)

Las condiciones de contorno (34) implican nuevamente X(0) = 0,, X(L) = 0. Al igual
que en la ecuación de diofusión, para k = 0 esto implica A = B = 0, mientras que para
k 6= 0, esto conduce a A = 0 y a la misma ecuación previa (21), B sen(kL) = 0. Como se
buscan soluciones no nulas e independientes, esto implica nuevamente

k = nπ/L , n = 1, 2, 3, . . .

Se obtienen ası́ las soluciones producto

Xn (x)Tn (t) = sen(nπx/L) [Cn cos(nπvt/L) + Dn sen(nπvt/L)] , n = 1, 2, 3, . . . (44)

donde Cn y Dn son constantes arbitrarias.


A diferencia de las soluciones de la ecuación de difusión, estas soluciones producto
tienen ahora un comportamiento oscilatorio armónico con t y representan los modos nor-
males de vibración de la cuerda. Corresponden a ondas estacionarias. A mayor n, mayor
es la frecuencia fn de vibración y por lo tanto menor el perı́odo τn :
nv 1 2L
fn = , τn = = , n = 1, 2, 3 . . .
2L fn nv

Las soluciones (44) pueden escribirse como la superposición de ondas viajeras iguales
propagándose en sentidos opuestos:

sen( nπ nπ 1 nπ nπ
 
L
x) cos( L
vt) = 2
sen[ L
(x − vt)] + sen[ L
(x + vt)] (45)
nπ nπ 1 nπ nπ

sen( L x) sen( L vt) = 2 cos[ L (x − vt)] − cos[ L (x + vt)] (46)

Obviamente, estas soluciones producto responden a las condiciones iniciales

U (x, 0) = Cn sen(πx/L) (47)


Ut (x, 0) = Dn nπv
L
sen(nπx/L) (48)

es decir, tanto la elongación inicial f (x) como la velocidad inicial g(x) son proporcionales
a sin(nπx/L).

– 28 –
Se muestran en las figuras los primeros modos normales y sus oscilaciones.

XnHxL
U1Hx,tL=X1HxLT1HtL
1
n=1

0.5
1 t=0 n=1
n=2
0
0.25 0.5 0.75 1
xL t=Τ14
0 xL
1
-0.5 n=3

-1 -1 t=Τ1 2

U3Hx,tL=X3HxLT3HtL
U2Hx,tL=X2HxLT2HtL 1 t=0 n=3
1 t=0 n=2
t=Τ3 4
t=Τ2 4
0 xL
0 xL 1
1
-1 t=Τ3 2
-1 t=Τ2 2

Solución general
Para resolver el problema original con condiciones iniciales generales, debemos plantear
nuevamente la superposición de soluciones producto:

X
U (x, t) = sen(nπx/L)[Cn cos(nπvt/L) + Dn sen(nπvt/L)] (49)
n=1

En este caso,

X
U (x, 0) = Cn sen(nπx/L) = f (x) (50)
n=1

X nπv
Ut (x, 0) = Dn sen(nπx/L) = g(x) (51)
n=1
L
Estas expresiones representan el desarrollo en serie de Fourier de medio rango de f (x) y
g(x) respectivamente. Los coeficientes Cn y Dn están entonces determinados por
2 L
Z
Cn = f (x) sen(nπx/L)dx , n = 1, 2, 3, . . . (52)
L 0
Z L
2
Dn = g(x) sen(nπx/L)dx , n = 1, 2, 3, . . . (53)
nπv 0
La solución final y única del problema (33)–(36) es pues la serie (26) con los coeficien-
tes Cn , Dn determinados por (52)–(53). Si las series (50)–(51) convergen absolutamente,
también lo hará la serie (49), como es fácil probar.

– 29 –
Ejemplo 1. Si U (x, 0) = f (x) = 2 sen(πx/L) − sen(3πx/L) y Ut (x, 0) = g(x) = 0,

2
Z L  2 n=1
Cn = f (x) sen(nπx/L)dx = −1 n=3 , Dn = 0 ∀ n (54)
L 0
0 n 6= 1, n 6= 3

Por lo tanto la solución es U (x, t) = 2 sen(πx/L) cos(πvt/L) − sen(3πx/L) cos(3πvt/L).


UHx,tL
3
t=0
2
1 Τ18
Τ14
0
1
xL
-1 3Τ18

Τ12
-2
-3
Ejemplo 2. Si ahora U (x, 0) = 0 y Ut (x, 0) = Ax(L − x)/L2 , se obtiene Cn = 0 ∀ n y
Z L 
2 0 n par
Dn = Ax(L − x) sen(nπx/L)dx = 8AL
nπvL 02
n4 π 4 v
n impar
Por lo tanto, escribiendo n = 2k + 1 con k = 0, 1, . . .,

8AL X 1
U (x, t) = 4 sen[(2k + 1)πx/L] sen[(2k + 1)πvt/L]
π v k=0 (2k + 1)4
Basta aquı́ sumar unos pocos términos para obtener una buena estimación de U (x, t).

Problemas 3.2.

1. Determinar la solución U (x, t) de la ecuación de ondas para las condiciones de contorno


U (0, t) = U (L, t) = 0 y las condiciones iniciales U (x, 0) = f (x), Ut (x, 0) = 0, si:
a) f (x) = 4 sen(3πx/L) b) f (x) = 2 sen(πx/L) − sen(2πx/L) + sen(5πx/L)
2
c) f (x) = x(L − x)/L + sin(πx/L).
Graficar U (x, t) para distintos tiempos (o realizar una animación con PC) y v = 1, L = 1.

2. Determinar la solución U (x, t) de la ecuación de ondas para las condiciones de contorno


U (0, t) = U (L, t) = 0 y las condiciones iniciales U (x, 0) = 0, Ut (x, 0) = g(x), si:
a) g(x) = 4 sen(3πx/L) b) g(x) = 2 sen(πx/L) − sen(2πx/L) + sen(5πx/L)
c) g(x) = x(L − x)/L2 + sin(πx/L).
Graficar U (x, t) para distintos tiempos t y v = 1, L = 1. Indicar la relación que existe
entre estas soluciones y aquellas obtenidas en el problema 1.

3. Determinar
la solución U (x, t) de la ecuación de ondas para la condición de contorno
∂U ∂U
∂x x=0
= ∂x x=L
= 0 ∀ t > 0, que corresponde a una cuerda tensa con extremos libres
en la dirección vertical, con las condiciones iniciales U (x, 0) = f (x), Ut (x, 0) = g(x).
Identificar los modos normales, sus frecuencias y perı́odos, y mostrar que en este caso

1 X
U (x, t) = (A0 + B0 t) + cos(nπx/L)[An cos(nπvt/L) + Bn sen(nπvt/L)]
2 n=1

– 30 –
3.3. Ecuación de Laplace en dos dimensiones
Comenzaremos por resolver la ecuación de Laplace (3) en una región rectangular con
condiciones de contorno sencillas. El objetivo es determinar la función U (x, y) que satisface
la ecuación de Laplace en el interior de un rectángulo R,

∂ 2 U (x, y) ∂ 2 U (x, y)
+ = 0, 0 < x < Lx , 0 < y < Ly (55)
∂x2 ∂y 2
junto con las condiciones de contorno (ver figura)

U (0, y) = 0, U (Lx , y) = 0 , 0 < y < Ly (56)


U (x, 0) = 0, U (x, Ly ) = f (x) , 0 < x < Lx (57)

UHx,L y L = f HxL
Ly

UH0,yL = 0 UHx,yL UHL x ,yL = 0

0 UHx,0L = 0
x
Lx
U (x, y) debe ser nula en los bordes laterales y en el borde inferior, mientras que
en el borde superior debe ser igual a una cierta función f (x). La función U (x, y) puede
representar, por ejemplo, la temperatura estacionaria de una placa metálica rectangular,
cuyos bordes laterales e inferior están a temperatura 0, mientras que su borde superior
tiene una temperatura f (x) dependiente de la posición. El objetivo es determinar la
temperatura en el interior de la placa con estos datos.
La razón por la que esta temperatura satisface (55) es que en el caso general no
estacionario, la temperatura queda determinada por la ecuación de difusión bidimensional
 2
∂ 2U

∂U ∂ U
−α + =0 (58)
∂t ∂x2 ∂y 2

En el caso estacionario, U (x, y, t) no depende del tiempo t y por lo tanto ∂U/∂t = 0.


La ecuación (58) implica entonces (55).
Las funciones U (x, y) que satisfacen la ecuación de Laplace (55) (y poseen derivadas
segundas continuas en el interior de R) se denominan funciones armónicas. Puede demos-
trarse que estas funciones no poseen ni máximos ni mı́nimos en el interior del rectángulo,
teniendo sus valores extremos en el borde del mismo. Puede demostrarse además que
su valor en un punto interior (x, y) es el promedio de los valores que toma en cualquier
cı́rculo contenido en R que rodea dicho punto, por lo que son las funciones más “planas”
posibles compatibles con las condiciones de contorno. Y dados los valores de U (x, y) en
el contorno, la solución de (55) es única.

– 31 –
Soluciones producto
Nuevamente comenzaremos proponiendo una solución elemental producto

U (x, y) = X(x)Y (y) (59)

donde X(x) depende solo de x e Y (y) solo de y. Reemplazando en (55) se obtiene

X 00 (x)Y (y) + X(x)Y 00 (x) = 0

o sea, X 00 (x)/X(x) = −Y 00 (y)/Y (y). Como el primer cociente depende solo de x y el


segundo solo de y, siendo x e y variables independientes, esto implica
X 00 (x) Y 00 (y)
=− = −k 2 (60)
X(x) Y (y)
es decir,

X 00 (x) + k 2 X(x) = 0 (61)


Y 00 (y) − k 2 Y (y) = 0 (62)

Si k = 0, las soluciones generales de estas ecuaciones son

X(x) = A + Bx, Y (y) = C + Dy (63)

mientras que si k 6= 0,

X(x) = A cos kx + B sen kx (64)


Y (y) = Ceky + De−ky (65)

Se obtienen ası́ las soluciones producto



(A + Bx)(C + Dy) (k = 0)
X(x)Y (y) = ky −ky (66)
(A cos kx + B sen kx)(Ce + De ) (k =6 0)

Las condiciones de contorno laterales (56) implican

X(0) = 0, X(Lx ) = 0 (67)

Nuevamente, para k = 0 esto conduce a A = B = 0, mientras que para k 6= 0, A = 0 y


B sen(kLx ) = 0 en (64), o sea,

k = nπ/Lx , n = 1, 2, 3, . . . (68)

Adenás, la condición de contorno inferior U (x, 0) = X(x)Y (0) = 0 implica Y (0) = 0 si


X(x) 6= 0. Esto conduce a C + D = 0 en (65), o sea, D = −C y entonces

Y (y) = C(eky − e−ky ) = 2C senh ky

con k dado por (68). Se obtienen ası́ las soluciones producto

Xn (x)Yn (y) = Bn sin(nπx/Lx ) senh(nπy/Lx ) , n = 1, 2, 3, . . . (69)

con Bn una constante arbitraria. Estas soluciones son linealmente independientes.

– 32 –
En el borde superior y = Ly , estas soluciones satisfacen
Xn (x)Yn (Ly ) = Bn sin(nπx/Lx ) senh(nπLy /Lx ) (70)
por lo que resuelven el problema planteado solo cuando f (x) = Fn sen(nπx/Lx ), en cuyo
caso Bn = Fn / senh(nπLy /Lx ).
Se muestra en los gráficos el comportamiento de las soluciones (70) para n = 1, 2 y
Fn = 1. A mayor n, más rápidamente decrece |Yn (y)| al alejarse del borde y = Ly .

Solución general
Para f (x) arbitraria, podemos ahora plantear la serie de soluciones producto,

X
u(x, y) = Bn sen(nπx/Lx ) senh(nπy/Lx ) (71)
n=1

que satisface la ecuación de Laplace (55) (asumiendo convergencia uniforme) junto con
las condiciones de contorno laterales e inferior. Y en el borde superior,

X
u(x, Ly ) = Bn sen(nπx/Lx ) senh(nπLy /Lx ) = f (x) (72)
n=1

P∞
que corresponde al desarrollo en serie de Fourier de medio rango f (x) = Fn sen(nπx/Lx ),
n=1
RL
con Fn = L2x 0 f (x) sen(nπx/Lx )dx. Por lo tanto, Bn senh(nπLy /Lx ) = Fn , o sea,
1
Bn = Fn (73)
senh(nπLy /Lx )
Z Lx
1 2
= f (x) sen(nπx/Lx )dx (74)
senh(nπLy /Lx ) Lx 0
La solución final y única es pues la serie (71) con los coeficientes (74). Se la puede ver como
la suma de las soluciones producto (70) para cada término Fn sen(nπx/Lx ) del desarrollo
de Fourier de f (x). Dado que senh(nπy/Lx ) ≤ senh(nπLy /Lx ) para 0 ≤ y ≤ Ly , la serie
(71) convergerá absolutamente si la serie de Fourier de medio rango (72) que representa
a f (x) converge absolutamente.

– 33 –
Ejemplo 1. Si f (x) = 2 sen(πx/Lx ) − sen(3πx/Lx ),

2
Z L  2 n=1
Fn = f (x) sen(nπx/Lx )dx = −1 n=3 (75)
Lx 0
0 n 6= 1, n 6= 3

Por lo tanto la solución es


senh(πy/Lx ) senh(3πy/Lx )
U (x, y) = 2 sen(πx/Lx ) − sen(3πx/Lx )
senh(πLy /Lx ) senh(3πLy /Lx )

Condiciones de contorno generales


Consideremos ahora la ecuación de Laplace (55) en el rectángulo,

∂ 2 U (x, y) ∂ 2 U (x, y)
+ = 0, 0 < x < Lx , 0 < y < Ly (76)
∂x2 ∂y 2

con las condiciones de contorno generales (ver figura)

U (x, 0) = f1 (x), U (x, Ly ) = f2 (x) , 0 ≤ x ≤ Lx (77)


U (0, y) = f3 (y), U (Lx , y) = f4 (y) , 0 ≤ y ≤ Ly (78)

UHx,L y L = f2HxL
Ly

UH0,yL= f3HyL UHx,yL UHL x ,yL= f4HyL

UHx,0L = f1HxL
0 x
Lx
En el caso trivial en que la temperatura es constante en el borde, fi (x) = C para
i = 1, 2, 3, 4, la solución de (76)–(78) es obviamente U (x, y) = C, es decir, la temperatura
es constante e igual al valor en el contorno. Por otro lado, una función de la forma

U0 (x, y) = C + Ax + By + Dxy (79)

es también una solución obvia de (76), que varı́a linealmente en los bordes:

U0 (x, 0) = C + Ax , U0 (x, Ly ) = C + BLy + (A + DLy )x (80)


U0 (0, y) = C + By , U0 (Lx , y) = C + ALx + (B + DLx )y (81)

Es pues la solución de (76) cuando las funciones fi son todas lineales y cumplen la con-
dición de continuidad f1 (0) = f3 (0), f1 (Lx ) = f4 (0), f2 (0) = f3 (Ly ), f2 (Lx ) = f4 (Ly ).

– 34 –
En el caso general de funciones fi arbitrarias, la solución de (76)–(78) puede obtenerse,
usando la propiedad de superposición, como la suma de cuatro soluciones:

U (x, y) = U1 (x, y) + U2 (x, y) + U3 (x, y) + U4 (x, y) (82)

donde Ui (x, y) es la solución de (76) con fj (x) = 0 para j 6= i (ver figuras):


y y

0 f2HxL
Ly +
Ly

0 U1Hx,yL 0 0 U2Hx,yL 0

f1HxL
0 x 0 0
x
Lx Lx
y y

0 0
+
Ly +
Ly

f3HyL U3Hx,yL 0 0 U4Hx,yL f4HyL

0 0
x 0 0
x
Lx Lx

Problema 1. Probar que las soluciones anteriores Ui (x, y) son de la forma



X
U1 (x, y) = Bn1 sen(nπx/Lx ) senh[nπ(Ly − y)/Lx ] (83)
n=1

X
U2 (x, y) = Bn2 sen(nπx/Lx ) senh(nπy/Lx ) (84)
n=1
X∞
U3 (x, y) = Bn3 senh[nπ(Lx − x)/Ly ] sen(nπy/Ly ) (85)
n=1

X
U4 (x, y) = Bn4 senh(nπx/Ly ) sen(nπy/Ly ) (86)
n=1

y dar una expresión para los coeficientes Bni en términos de las funciones fi .

Es conveniente suponer aquı́ que las funciones fi se anulan en los extremos (vértices del
rectángulo). Si esto no ocurre pero las funciones fi cumplen la condición de continuidad en
los vértices, puede usarse la solución elemental (79) para reproducir los valores
P4 de U (x, y)
en los 4 vértices y proponer una solución general U (x, y) = U0 (x, y) + i=1 Ui (x, y),
donde las Ui (x, y) serán de la forma (83)–(86) para i = 1, 2, 3, 4. Ası́, los coeficientes Bin
dependerán de la diferencia fi − U0 en el borde del rectángulo, que se anulará en los
vértices.

– 35 –
Problemas 3.3.

1. Hallar la solución de la ecuación de Laplace en el rectángulo 0 < x < Lx , 0 < y < Ly


con las condiciones de contorno U (0, y) = U (Lx , y) = U (x, 0) = 0 (cero en los bordes
laterales e inferior) y U (x, Ly ) = f (x) en el borde superior, si
a) f (x) = sin(πx/Lx ) − sin(3πx/Lx )
b) f (x) = x(Lx − x)/L2
c) Si ahora U (x, y) = c (constante) en los bordes laterales e inferior, y U (x, Ly ) = f (x) + c
en el borde superior, ¿como serán las soluciones? (no es necesario realizar nuevas cuentas).

2. En el rectángulo anterior, si ahora U (0, y) = U (Lx , y) = U (x, Ly ) = 0 (cero en los


bordes laterales y superior) pero U (x, 0) = f (x) en el borde inferior, ¿como serán las
soluciones para las mismas funciones f (x) anteriores? (sugerencia: realizar un reemplazo
adecuado en las soluciones obtenidas en 1. a) y 1. b), justificando el procedimiento).

3. En el rectángulo anterior, si ahora Ux (0, y) = Ux (Lx , y) = 0 ∀ y ∈ [0, Ly ] (placa


térmicamente aislada en los bordes laterales, siendo Ux (x, y) = ∂U∂x
(x,y)
), con U (x, 0) = 0
y U (x, Ly ) = f (x), mostrar que la solución es de la forma

1 X
U (x, y) = A0 y + An cos(nπx/Lx ) senh(nπy/Lx )
2 n=1

y determinar los coeficientes A0 , An .

4. Placa semi-infinita. Determinar la solución de la ecuación de Laplace en la región


0 < x < L, y > 0, con las condiciones de contorno U (0, y) = U (Lx , y) = 0, U (x, 0) = f (x),
y U (x, y) → 0 para y → ∞. Mostrar que es de la forma

X
U (x, y) = Bn sen(nπx/Lx )e−nπy/Lx
n=1

y determinar los coeficientes Bn .

5. (Opcional) Ecuación de Laplace en el disco r < a, 0 ≤ θ ≤ 2π. En coordenadas polares


r, θ (x = r cos θ, y = r sen θ), la ecuación de Laplace toma la forma
∂ 2U 1 ∂U 1 ∂ 2U
+ + =0
∂r2 r ∂r r2 ∂θ2
a) Mostrar que esta ecuación admite las soluciones producto

(A + B ln r)(C + Dθ) k=0
R(r)Θ(θ) =
(Ark + Br−k )(C cos(kθ) + D sen(kθ)) k =
6 0
b) Mostrar que en el disco, debe ser B = D = 0 si k = 0 y B = 0 si k 6= 0, con
k = 0, 1, 2, . . ., tal que la solución general tiene la forma

a0 X n
U (r, θ) = + r [an cos(nθ) + bn sen(nθ)]
2 n=1

Dar una expresión para los an , bn si la condición de contorno es U (a, θ) = f (θ).


c) Usando b), mostrar que U (0, θ) es el valor medio de f (θ).

– 36 –

También podría gustarte