Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Modulo II Mat C 2020
Modulo II Mat C 2020
UNLP
Matemática C
Módulo II
VI Transformaciones Lineales
2020
2020
2019
2
Temario:
1. Clase 1: Introducción. Definición. Ejemplos básicos. Proyección. Reflexión. Rotación.
Casos especiales. Imagen y espacio nulo de una transformación lineal. Propiedades
fundamentales. Isomorfismos.
6.1. Introducción
Estudiaremos aquı́ una clase de funciones denominadas transformaciones lineales,
que transforman un vector v de un espacio vectorial V en otro vector w de un espacio
vectorial W , cumpliendo con ciertas condiciones. Es decir, son casos especiales de funciones
F : V → W entre dos espacios vectoriales. Se las puede puede pensar como funciones de
“una sola variable”, donde el argumento de la función es un vector del espacio vectorial
V , y el “valor” de la función es un vector del espacio vectorial W .
Si V = W , de modo que transforma un vector v de V en otro vector w del mismo
espacio V , la transformación lineal se denomina usualmente operador lineal.
Usaremos la notación L : V −→ W para describir una transformación lineal:
L (v) = w, v ∈V, w ∈W
Veremos que una transformación lineal L de un espacio vectorial n-dimensional V en
otro espacio vectorial m-dimensional W podrá representarse por una matriz A de m × n.
Esto permitirá trabajar con la matriz A para discutir las caracterı́sticas y propiedades de
la transformación L, como ası́ también, en ciertos casos, determinar las propiedades de la
matriz A a partir de las propiedades de la transformación lineal que representa.
Definición.
Una función L : V −→ W de un espacio vectorial V en otro espacio vectorial W (ambos
sobre el mismo conjunto de escalares) es una transformación lineal si satisface
V W
x LHxL
L:VW
4
LHxL = 3x
x
x1
x2
x1
LHxL = x1e1
x2
x1
LHxL
x2
LHxL
Π2 x
x1
con c un escalar fijo, es una transformación lineal, como podrá el lector probar
fácilmente.
Si c > 0, Lc tiene el efecto de multiplicar la longitud del vector x por el factor de
escala c, dilatando el vector un factor c si c > 1 y contrayendo el vector un factor c
si 0 < c < 1, pero siempre conservando su dirección y sentido.
6.1. INTRODUCCIÓN 7
Si c = 1, la transformación resultante
L1 (x) = x
L0 (x) = 0
6. Inversión:
Corresponde a
−x1
L (x) = −x =
−x2
La linealidad de L es inmediata:
− (αx1 + βy1 ) −x1 −y1
L (αx + βy) = =α +β
− (αx2 + βy2 ) −x2 −y2
= αL (x) + βL (y)
x2
x1
LHxL = -x
Observar que el operador de inversión puede obtenerse como caso particular de otras
transformaciones. Por ejemplo,
8
Esta última puede también lograrse mediante dos rotaciones sucesivas de ángulo π/2 (por
ejemplo, ambas en sentido antihorario): Si R rota al vector x en π/2 antihorario, entonces
−x2 −x1
R (R (x)) = R = = −x
x1 −x2
L2 (x) ≡ L (L (x))
1. Si
−x1 x2
F (x) = −x1 x2 e1 + x2 e2 =
x2
obtenemos
αx1 x2
F (αx) = − (αx1 ) (αx2 ) e1 + (αx2 ) e2 = α
x2
6= αF (x) (excepto para α = 0 o 1 o x1 x2 = 0)
2. Traslación:
La traslación Ta suma a todo vectir x un vector fijo a:
Ta (x) = x + a
Problemas 6.1.1
Ejemplos de Transformaciones de Rn en Rm
x1
1. Sea x = y L : R2 −→ R1 , definida por
x2
L (x) = x1 + x2
Por lo tanto, cualquier matriz A de m × n puede verse como asociada a una trans-
formación lineal L : Rn −→ Rm . Más aun, veremos luego que toda transformación
lineal L : Rn −→ Rm es de la forma anterior (para alguna matriz A de m × n).
4. Sea L : C[a,b] −→ R1 definida por
Z b
L (f ) = f (x) dx
a
D(f ) = f 0
D2 (f ) = D(D(f )) = D(f 0 ) = f 00
6.2. IMAGEN Y NÚCLEO DE UNA TRANSFORMACIÓN LINEAL 11
1. L (0V ) = 0W
2. Si v1 , . . . , vn ∈ V , entonces
3.
L (−v) = −L (v) ∀ v ∈ V
Problema 6.1.2
1. Sea L : V −→ W una transformación lineal y sean w1 = L(v1 ), . . . , wk = L(vk ) las
imágenes de k vectores v1 , . . . , vk de V .
a) Mostrar que si el conjunto de los vectores {v1 , . . . , vk } es linealmente dependiente
⇒ {w1 , . . . , wk } es linealmente dependiente.
b) Mostrar que si {v1 , . . . , vk } es linealmente independiente ⇒ el conjunto {w1 , . . . , wk }
no es necesariamente independiente. Dar un ejemplo (considere proyecciones orto-
gonales sobre un cierto eje o la transformación nula).
Notar que la imagen por L del Nu(L) es el vector nulo 0W de W : L(Nu(L)) = {0W }.
Cada uno de estos conjuntos de vectores es un subespacio en los respectivos
espacios vectoriales:
12
V W V W
NuHLL S LHSL
0V 0W 0V 0W
L:VW L:VW
Teorema.
Si L : V −→ W es una transformación lineal, entonces
1. Nu (L) es un subespacio de V
por lo que v1 + v2 y αv1 ∈ Nu (L). El núcleo es pues cerrado por la suma y multiplicación
por un escalar, siendo entonces un subespacio.
Demostración de 2. L(S) contiene al 0W pues L(0V ) = 0W . Además, si w1 y w2 son
vectores en L (S), existen v1 y v2 en S tales que w1 = L(v1 ), w2 = L(v2 ). Entonces
por lo que {L(v1 ), . . . , L(vk )} genera Im(L). Además, {L(v1 ), . . . , L(vk )} es linealmente
independiente, pues si 0W = α1 L(v1 ) + . . . + αk L(vk ) = L(α1 v1 + . . . + αk vk ) ⇒
α1 v1 + . . . + αk vk ∈ Nu(L) y entonces α1 v1 + . . . + αk vk = β 1 vk+1 + . . . + β n vn . Pero por
ser los vi linealmente independientes, α1 = . . . = αk = β k+1 = . . . = β n = 0. Por lo tanto,
Ejemplos 6.2
(operador
de proyección). Es obvio que L (x) = 0 si y sólo si x1 = 0, es decir,
x1
x = ∈ Nu (L) si y sólo si x1 = 0. Por lo tanto, Nu (L) es el subespacio
x2
0
1-dimensional de R2 generado por el vector e2 = , es decir, es el eje x2 , como
1
es obvio geométricamente (graficar!):
0
Nu(L) =
1
Por otra parte, dado que L(x) = x1 e1 , la imagen Im(L) = L(V ) es el conjunto de
vectores proporcionales a e1 , es decir, el subespacio 1-dimensional de R2 generado
por el vector e1 , que geométricamente es el eje x1 :
1
Im(L) =
0
Problemas 6.2
1. Verificar que las siguientes transformaciones L : R3 −→ R2 son lineales, y determinar
Nu(L), la imagen
Im(L) y sus dimensiones,junto con una base de los mismos:
x x
x 2x + y
(a) L y =
(b) L y =
x+y+z −4x − 2y
z z
2 2
2. Idem 1. para
las siguientes
L: R −→ R :
transformaciones
x y x 0
(a) L = (b) L =
y −x y y
Interprételas geométricamente.
3. Importante: Sea L : Rn → Rm la transformación lineal definida por una matriz A
de m × n:
L(x) = Ax
Probar que:
a) El núcleo Nu(L) es el espacio nulo de la matriz A.
b) La imagen Im(L) es el espacio generado por las columnas de la matriz A (o
sea, el espacio columna de la matriz).
c) La igualdad dim Im(L) +dim Nu(L) = dim V es equivalente a
rango (A) + nulidad (A) = n
d) Verifique estos resultados para las transformaciones del ejercicio 2., escribiéndolas
en la forma L(x) = Ax.
4. Determinar si son lineales las siguientes transformaciones L : R2×2 −→ R. En caso
de que lo seanhalle su núcleo e imagen.
a b
(a) L( ) = a + d (Traza de la matriz)
c d
a b
(b) L( ) = ad − bc (Determinante de la matriz)
c d
5. a) Determine si la traza de una matriz cuadrada A de n × n, definida por
n
X
T r(A) = aii = a11 + . . . + ann
i=1
u ∈ C, v ∈ C ⇒ tv + (1 − t)u ∈ C ∀ t ∈ [0, 1]
v = α 1 v 1 + . . . + α n vn
y por lo tanto
Nótese, no obstante, que el conjunto {L(v1 ), . . . , L(vn )} puede ser linealmente de-
pendiente (por ej., algunos vectores L(vi ) puden ser nulos), en cuyo caso no será
una base de L(V ).
Isomorfismos:
5. Si L : V ⇒ W es una transformación lineal biyectiva, es decir, que es a la vez
inyectiva (Nu(L) = {0V }) y sobreyectiva (L(V ) = W ) ⇒ se dice que L es un
isomorfismo. Si V = W al isomorfismo se lo denota automorfismo.
Si L es un isomorfismo y dim V = n, con B = {v1 , . . . , vn } una base de V ⇒
{L(v1 ), . . . , L(vn )}
cumpliéndose que
L(L−1 (w)) = L(v) = w ∀ w ∈ W
L−1 (L(v)) = L−1 (w) = v ∀v∈V
es decir,
LL−1 = IW , L−1 L = IV
donde IW y IV son los operadores identidad en W y V .
La inversa L−1 : W −→ V de un isomorfismo L es también un isomorfismo
(probar!), es decir, una transformación lineal biyectiva.
por lo que L es también sobreyectiva. Este resultado puede también obtenerse directa-
mente de
dim Im(L) = dim V − dim Nu(L) = 2 − 0 = 2
L es entonces un automorfismo, es decir, un isomorfismo entre V y V , con V = R2 .
L tendrá entonces inversa L−1 : R2 −→ R2 , dada por (verificar!)
−1 x1 1 x1 + x2
L =
x2 2 x1 − x2
Problemas 6.3
v = x1 v 1 + . . . + xn v n
6. Mostrar que dos espacios V , W son isomorfos si y sólo si tienen la misma dimensión.
Ejemplos 6.4
3 2 x1 + x2
1. Sea L : R −→ R , definida por L (x) = (ejemplo anterior). Tenemos
x2 + x3
1 0 0
1 1 0
a1 = L (e1 ) = L 0 =
, a2 = L 1 =
, a3 = L 0 =
0 1 1
0 0 1
Por lo tanto,
1 1 0
A = (a1 , a2 , a3 ) =
0 1 1
Verificación:
x1
1 1 0 x1 + x2
Ax = x2 = = L (x)
0 1 1 x2 + x3
x3
a b
Por ejemplo, si A = ,
c d
a b x1 ax1 + bx2
L(x) = =
c d x2 cx1 + dx2
y entonces
a b 1 a
L(e1 ) = = = a1
c d 0 c
a b 0 b
L(e2 ) = = = a2
c d 1 d
por lo que (a1 , a2 ) = A.
El problema 6.2.3 implica entonces que la imagen Im(L) de una transformación
lineal L : Rn → Rm es el espacio columna de A = [L]B
Bc (es decir, el espacio generado
c
por los vectores columna de A) mientras que el núcleo Nu(L) es espacio nulo de A.
22
LHe2L
LHxL e2
LHe1L
Θ
x
Θ
Θ
x1
x1 e1
Tenemos
cos θ − sin θ
L (e1 ) = y L (e2 ) =
sin θ cos θ
Por lo tanto
cos θ − sin θ
A = (L (e1 ) , L (e2 )) =
sin θ cos θ
Entonces, para rotar un ángulo θ un vector x de R2 en sentido antihorario, se debe
multiplicar A por x:
cos θ − sin θ x1 x1 cos θ − x2 sin θ
y = L(x) = Ax = =
sin θ cos θ x2 x1 sin θ + x2 cos θ
Problemas 6.4
1. Hallar la matriz que representa, respecto de las bases canónicas, las siguientes trans-
formaciones lineales y escribir la forma explı́cita de L(x):
(a) La aplicación L : R2 → R2 que representa una dilatación con factor c1 a lo largo
del eje x y c2 a lo largo del eje y.
(b) La reflexión L : R2 → R2 respecto de la recta y = x.
(c) La rotación L : R2 → R2 de ángulo π/4 antihorario.
(d) La rotación L : R3 → R3 de ángulo θ antihorario alrededor del eje z.
(e) Idem anterior pero alrededor del eje y.
(f ) La proyección L : R3 −→ R3 sobre
el plano
xy.
2 2 1 1 0 −2
(g) L : R → R lineal, definida por L = ,L = .
0 1 2 2
1 1 1
3 2 1 1 0
(h) L : R → R lineal, definida por L 0 = , L 1 = , L 1 = .
1 −1 0
0 0 1
(i) Determinar la imagen y núcleo de las transformaciones anteriores.
xn
Por lo tanto, para L lineal,
L(v) = x1 L(v1 ) + . . . + xn L(vn )
Si ahora escribimos L(v) y L(vj ) en términos de los vectores de la base BW ,
L(v) = y1 w1 + . . . + ym wm
L(vj ) = a1j w1 + . . . + amj wm , j = 1, . . . , m
tal que sus vectores de coordenadas en la base BW son
y1 a1j
[L(v)]BW = ... = y , [L(vj )]BW = ... = aj
ym amj
obtenemos
y = [L(v)]BW = x1 [L(v1 )]BW + . . . + xn [L(vn )]BW
a11 a1n
= x1 ... + . . . + xn ...
am1 amn
a11 . . . a1n x1
.. . .. .
.. ...
= .
am1 . . . amn xn
= Ax
es decir,
[L(v)]BW = A[v]BV
donde A es la matriz de m × n
a11 . . . a1n
A = ([L(v1 )]BW , . . . , [L(vn )]BW ) = ... .. ..
. .
am1 . . . amn
Esta matriz A se denomina representación matricial de L respecto de las bases
BV de V y BW de W . La denotaremos también como A = [L]B BW .
V
V W
L:VW
v w=LHvL
x=@vDBV y=Ax
A Î Rmxn =@LHvLDBW
Rn Rm
Ejemplos 6.4.1
1. Sea L : R3 −→ R2 la transformación lineal definida por
L(x) = x1 b1 + (x2 + x3 ) b2
donde x = x1 e1 + x2 e2 + x3 e3 y
1 −1
b1 = , b2 =
1 1
Tenemos
L (e1 ) = b1 = 1b1 + 0b2
L (e2 ) = L(e3 ) = b2 = 0b1 + 1b2
Por lo tanto, la representación matricial de L con respecto a las bases Bc = (e1 , e2 , e3 )
de V = R3 y BW = (b1 , b2 ) de W = R2 es
Bc 1 0 0
A = [L]BW = ([L(e1 )]BW ), [L(e2 )]BW , [L(e3 )]BW ) =
0 1 1
Ası́,
x1
1 0 0 x1
[L(x)]BW = x2 =
0 1 1 x2 + x 3
x3
que implica justamente L(x) = x1 b1 + (x2 + x3 )b2 .
En cambio, en la base canónica de R2 obtenemos (probar!)
Bc 1 −1 −1
Ac = [L]Bc = (L(e1 ), L(e2 ), L(e3 )) =
1 1 1
con
x1
1 −1 −1 x1 − x2 − x3
[L(x)]Bc = x2 =
1 1 1 x1 + x2 + x3
x3
es decir, L(x) = (x1 −x2 −x3 )e1 +(x1 +x2 +x3 )e2 , que coincide con x1 b1 +(x2 +x3 )b2 .
6.4. REPRESENTACIÓN MATRICIAL DE TRANSFORMACIONES LINEALES 25
d
2. Sea D : P2 → P2 el operador derivada D = dx en el espacio de polinomios de grado
≤ 2. Como base ordenada de P2 consideramos B = (1, x, x2 ). Tenemos
D(1) = 0, D(x) = 1, D(x2 ) = 2x
Por lo tanto, su representación matricial en la base B es
0 1 0
A = [D]B 2
B = ([D(1)]B , [D(x)]B , [D(x )]B ) =
0 0 2
0 0 0
a0
2
Para p(x) = a0 + a1 x + a2 x ∈ P2 tenemos [p]B = a1 y entonces
a2
0 1 0 a0 a1
[D(p)]B = A[p]B = 0 0 2
a1 = 2a2
0 0 0 a2 0
que implica D(p) = a1 + 2a2 x + 0x2 = a1 + 2a2 x. Al ser P2 de dimensión 3, todo
operador lineal en P2 puede entonces ser representado por una matriz de 3 × 3, tal
como un operador en R3 .
resulta equivalente a
rango (A) + nulidad (A) = n
26
Los vectores ∈ Rm de una base del espacio columna de A son las coordenadas en la
base BW de los vectores de una base de la imagen Im(L), mientras que los vectores ∈ Rn
de una base del espacio nulo de A son las coordenadas en la base BV de los vectores
de una base del núcleo Nu(L). Por lo tanto, pueden obtenerse bases de estos espacios
mediante los métodos ya conocidos para obtener bases de los espacios columna y nulo de
una matriz. Y la ecuación L(v) = w es equivalente al sistema lineal A[v]BV = [w]BW .
0 0
Si A = [L]B B
B es la representación de L en la base B y A = [L]B 0 su representación en la
0 0
base B , las matrices A y A se relacionan por
A0 = S −1 AS
A = SA0 S −1
Podemos resumir el resultado en el siguiente esquema gráfico:
L:VV
vÎV w=LHvL
x=@vDB y=Ax
ÎRn A Ε Rnxn =@wDB
S S-1
x'=@vDB' y'=A'x'
ÎRn A' = S-1AS Ε Rnxn =@wDB'
det(A0 ) = det(A)
En efecto,
Esto implica que el determinante det(A) es una propiedad del operador lineal L
representado por A, permaneciendo invariante frente a cambios de base.
Ası́, comprobamos en el ejemplo 6.5.1 que det(A0 ) = det(A) = −1.
6.5. CAMBIO DE BASE 29
Tr A0 = Tr A
Pn
donde la traza Tr(A) = i=1 aii es la suma de los elementos diagonales.
Tr (AB) = Tr (BA)
Demostración:
n
X n X
X m m X
X n m
X
TrAB = (AB)ii = ( aij bji ) = ( bji aij ) = (BA)jj = TrBA
i=1 i=1 j=1 j=1 i=1 j=1
Luego
Tr A0 = Tr (SAS −1 ) = Tr ((AS −1 )S) = Tr (A(S −1 S)) = Tr A
Este resultado implica que la traza es también una propiedad del operador L representado
por A, permaneciendo invariante frente a cambios de base.
Ası́, comprobamos en el ejemplo 6.5.1 que Tr (A0 ) = Tr(A) = 0.
Problemas 6.5
1. Dada L : R3 −→ R3 definida por
2 2 0
L(x) = Ax , A = 1 1 2
1 1 2
x1
a) Obtener la expresión explı́cita de L(x) para un vector x = x2 .
x2
1 −2 1
b) Hallar su representación A0 en la base B 0 =−1 , 1 , 1.
0 1 1
Verificar que L(v10 ) = 0, L(v20 ) = v20 , y L(v30 ) = 4v30 , y que por lo tanto, A0 es
diagonal.
c) Usar esta representación diagonal para hallar su núcleo e imagen.
d) Usar esta representacióndiagonal
para interpretar L geométricamente.
0
e) Indique si el vector v = 1 pertenece a la imagen de L.
1
f) Verifique que la traza y determinante permanecen invariantes frente al cambio de
base: Tr(A) =Tr(A0 ), det (A) = det (A0 ).
2. Si la matriz A del problema anterior representa ahora una transformación L : P2 → P2
en la base canónica de P2 , con P2 el espacio de polinomios reales de grado ≤ 2 (y su
base canónica dada por (1, x, x2 )), dé una expresión para L(p) y determine la base
B 0 de P2 donde la representación A0 es diagonal (utilice resultados previos).
3. Considere la reflexión L : R2 → R2 respecto de una recta que pasa por el origen y
que forma un ángulo θ con el eje x, dada por y = mx, con m = tan θ (graficar).
a) Determine, a partir
de consideraciones
geométricas, su representación matricial
cos θ − sin θ
A0 en la base B 0 = , formada por un vector perteneciente a la
sin θ cos θ
recta y otro perpendicular a dicha recta (verificar!). Muestre que A0 es diagonal.
b) Utilice a) y cambio de base para obtener la representación matricial A en la base
canónica. Verifique que se obtiene el resultado del problema 6.4.2.
2 2 1 2 0 1
4. Sea L : R −→ R definida por L = ,L = .
0 2 1 1
a) Encuentre su representación matricial en la base canónica de R2 y dé una expre-
sión para L(x).
1 1
b) Encuentre su representación matricial en la base B 0 =( , ), y verifique
−2 1
que es diagonal. c) Determine su núcleo e imagen.
5. a) Muestre que la representación matricial A = [I]B
B del operador identidad I : V → V
con respecto a una base arbitraria B de un espacio vectorial V de dimensión n, es
siempre la matriz identidad In .
b) Muestre que la representación matricial del operador nulo 0 : V → V en cualquier
base B de V es la matriz nula de n × n.
6.6. COMPOSICIÓN DE TRANSFORMACIONES (OPERACIONES SUCESIVAS) 31
A0 = R−1 AS
v→w→u
L G
Problemas 6.6.1
AGL = AG AL (6.2)
tal que
x x
1 1 0 x+y
L y
= y =
0 1 1 y+z
z z
x 1 1 x x+y
G = =
y 2 −2 y 2x − 2y
Por lo tanto,
x x
1 1 1 1 0
(GL) y = y
2 −2 0 1 1
z z
x
1 2 1 y
=
2 0 −2
z
x + 2y + z
= (6.3)
2x − 2z
1 2 1
o sea, AGL = AG AL = , con (G L)(x, y, z) = (x + 2y + z, 2x − 2z).
2 0 −2
En el caso general, para representaciones matriciales en bases arbitrarias BV , BW y
BU de V , W , U , se obtiene también (se deja la demostración para el lector)
[GL]B BV BW
BU = AG AL con AL = [L]BW , AG = [G]BU
V
y su representación matricial es
AL−1 = A−1
L (6.6)
de forma que
2x 3 0 x 3x x
L = = =3
y 0 3 y 3y y
es decir, L2 (x) = 3x, lo que equivale a L2 = 3I, con I el operador identidad.
Problemas 6.6.2
Π2
v v
x1 x1
Por otro lado, la transformación lineal L R, que primero rota un vector un ángulo de
π/2 en sentido antihorario y luego lo refleja respecto de la recta y = x, queda representa-
da por la matriz
0 1 0 −1 1 0
A(L R) = AL AR = =
1 0 1 0 0 −1
y por lo tanto,
x 1 0 x x
LR = =
y 0 −1 y −y
Esto representa una reflexión respecto del eje x (mostrar!).
x2 x2
v
RLHvL
v
x1
x1
LRHvL
Por lo tanto, vemos que el resultado final depende del orden de la composición, lo
que se refleja en la no conmutatividad del producto matricial asociado.
Recordemos finalmente que la proyección ortogonal de un vector sobre el eje x está dada
por (graficar!)
x 1 0 x x
Px = =
y 0 0 y 0
Problemas 6.6.3
2. Sea F : R2 −→ R2 el operador lineal que primero rota todo vector un ángulo π/2
en sentido antihorario y luego lo proyecta sobre el eje x. Hallar su representación
matricial en la base canónica y una expresión para F (xy ).
3. Sea G : R2 −→ R2 el operador lineal que primero proyecta todo vector sobre el eje
x y luego lo rota un ángulo π/2 en sentido antihorario. Hallar su representación
matricial en la base canónica y una expresión para G(xy ).
a) Halle su determinante.
b) Muestre que la composición de dos reflexiones es una rotación.
a) Halle su determinante.
b) Muestre que la composición de dos rotaciones es otra rotación.
c) Muestre que la composición de una reflexión con una rotación es otra reflexión.
x2 x2
LHCL
LHCL
2
C
1
C
Θ
x1
x1
a) 1 1,5 b)
x2 x2
LHCL
C
1
Φ
d
LHCL
c
C
Θ
x1 x1
Θ 1
c) d)
Facultad de Ingenierı́a
UNLP
Matemática C
2019
1
1 Proyección ortogonal
En secciones previas hemos usado la proyección ortogonal de vectores de R3 sobre el
plano xy (subespacio). Asumiendo que el vector está por encima del plano xy, esta pro-
yección es la sombra (“al mediodı́a”) del vector sobre este plano:
PxyHvL
x
p
s
x
2
Es decir, ha caminado sobre la recta {cs, c ∈ R} hasta hallar el punto p = cp s de-
terminado por un coeficiente cp , con la propiedad de que el vector v−cp s es ortogonal a cp s.
v
v-c p s
Θ cp s
x
Para determinar cp , basta con observar que la condición anterior implica que el pro-
ducto escalar de estos dos vectores debe ser nulo:
s · (v − cp s) = 0
De aquı́ obtenemos
s·v
cp =
s·s
es decir, cp = |v|
|s|
cos θ, donde θ es el ángulo entre v y s. Estas consideraciones son aplicables
tanto en R o R como en Rn (y también en todo espacio vectorial en el que se ha definido
2 3
3
x
3
Ejemplo 1.1.2 En R la proyección ortogonal de un vector v = y sobre el eje y
z
es
x
0 1 0 · y
z 0 0
Ps (v) = 1 = y
0 0 0
0 1 0 · 1
0
1
Y la proyección de v sobre el vector s = 2 es
3
x
1 2 3 · y
z 1 1
x + 2y + 3z
Ps (v) = 2 = 2
1 14
3 3
1 2 3 · 2
3
13x − 2y − 3z
1
Puede verificarse que v − Ps (v) = 14 −x + 5y − 3z es ortogonal a s.
−3x − 6y + 5z
D2 = |v − αs|2 = |v − cp s − (α − cp )s|2
= (v − cp s − (α − cp )s) · (v − cp s − (α − cp )s)
= |v − cp s|2 + (α − cp )2 |s|2
≥ |v − cp s|2
2
La cota inferior Dmin = |v − co s|2 se alcanza pues para α = cp , es decir, para αs igual a
la proyección ortogonal cp s = Ps (v) de v sobre la recta. La distancia mı́nima a la recta
es entonces
Dmin = |v − Ps (v)|
4
Ejercicios 1.1
2
1.1 Encontrar la proyección ortogonal de v = sobre las rectas generadas por los
−1
1 1
vectores i) s = y ii) s = . Determinar también la distancia mı́nima Dmin
1 −2
de v a la recta y verificar que v − Ps (v) es ortogonal a s.
1.2 Idem anterior para:
1 1
1 3 2 1
i) s = 2, v = 0 ii) s =
−1, v = 1
1 3
2 1
x
1.3 Encontrar la proyección ortogonal de un vector genérico v = ∈ R2 sobre la
y
1
recta y = 2x (es decir, la recta generada por s = ) y determinar la distancia
2
mı́nima de v a dicha recta.
x 1
1.4 Encontrar la proyección ortogonal de v = y ∈ R3 sobre la recta c 1 , c ∈ R ,
z 1
y determinar la distancia mı́nima de v a dicha recta.
1.5 a) ¿Si v pertenece a la recta generada por s, ¿cual es su proyección ortogonal Ps (v)?
b) ¿Si v es ahora ortogonal a s, ¿Cual es su proyección ortogonal Ps (v)?
s·v
1.6 a) Mostrar que la proyección ortogonal Ps : Rn → Rn dada por Ps (v) = s·s s
(con s 6= 0) es una transformación lineal.
b) ¿Cual es su imagen? ¿Cual es su núcleo?
c) Hallar explı́citamente la matriz representativa de Ps en la base canónica en los
ejercicios 1.3 y 1.4, junto con su núcleo e imagen. Interpretarlos geométricamente.
1.7 a) Mostrar que |Ps (v)| = |v| | cos θ|, con θ el ángulo entre v y s.
b) Mostrar que Pαs (v) = Ps (v) ∀ α ∈ R, α 6= 0 (válido ∀ v, s ∈ Rn , s 6= 0).
1.8 Si D2 (c) = |v − cs|2 = |v|2 − 2cv · s + c2 s · s, verificar, minimzando esta función
respecto de c, que su valor mı́nimo se alcanza para c = cp = s · v/s · s. Concluir que
la distancia mı́nima de v a s es Dmin = |v − Ps (v)|.
5
Definición. Los n vectores no nulos b1 , b2 , . . . , bn son mutuamente ortogonales si todo par de
vectores son ortogonales:
bi · bj = 0 ∀ i 6= j
Es fácil ver que si son no nulos y ortogonales, el conjunto {b1 , b2 , . . . , bn } es necesariamente
linealmente independiente: Si consideramos la combinación lineal nula
c1 b1 + c2 b2 + . . . + cn bn = 0
bi · (c1 b1 + c2 b2 + . . . + cn bn ) = bi · 0
⇒ ci (bi · bi ) = 0
Definición. Una base ortogonal B = {b1 , . . . , bn } de un espacio vectorial V es una base formada
por vectores mutuamente ortogonales.
La gran ventaja de tener una base ortogonal B es que si v ∈ V , entonces las coordenadas
de v en esta base, es decir los coeficientes αi en la expansión
v = α 1 b1 + α 2 b2 + . . . + α n bn
bi · v = bi · (α1 b1 + α2 b2 + . . . αn bn )
= αi (bi · bi )
bi · v
αi = , i = 1, . . . , n
bi · bi
Se cumple entonces que
bi · v
α i bi = bi = Pbi (v) , i = 1, . . . , n
bi · bi
Es decir, cada término αi v en la expansión v = α1 b1 + . . . + αn bn es la proyección ortogonal
de v sobre la recta generada por bi .
Además, por la ortogonalidad se cumple también que
|v|2 = v · v
= α21 |b1 |2 + α22 |b2 |2 + . . . + α2n |bn |2
6
Definición. Una base B = {b1 , . . . , bn } de un espacio vectorial V se dice ortonormal si es una
base ortogonal y además los n vectores bi tienen longitud 1:
0 i 6= j
bi · bj = , i, j = 1, . . . , n
1 i=j
En este caso, las fórmulas anteriores se simplifican aun más: Si v ∈ V , los coeficientes αi en
v = α 1 b1 + α 2 b2 + . . . + α n bn
α i = bi · v , i = 1, . . . , n
1 −1
Ejemplo 1.2.1 La base B = b1 = , b2 = es una base ortogonal de R2 ,
1 1
b1 ·b2 = 0, y b1 6= 0, b2 6= 0. No es ortonormal, ya que b1 · b1 = b2 · b2 = 2 6= 1.
ya que
x
Si v = ∈ R2 , podemos escribir v como
y
1 −1
v = α1 + α2
1 1
donde los coeficientes α1 , α2 (las coordenadas de v en esta base) pueden obtenerse como
x x
1 1 · −1 1 ·
b1 · v y x+y b2 · v y −x + y
α1 = = = , α2 = = =
b1 · b1 2 2 b2 · b2 2 2
Por lo tanto,
x+y 1 y − x −1
v= +
2 1 2 1
Además, |v|2 = x2 + y 2 = 2(α21 +
α22 ).
0 1 −1
Ejemplo 1.2.2 La base B = = b01 √1 0
, b 2 = √21
es una base ortonor-
21 1
mal de R2 , ya que b01 · b02 = 0, y además b01 ·b01 = b02 · b02 = 1. Es la base canónica de R2
x
rotada 45o en sentido antihorario. Si v = ∈ R2 , podemos escribir v como
y
0 1 1 0 1 −1
v = α1 √ + α2 √
2 1 2 1
7
donde los coeficientes α01 , α02 (las coordenadas de v en esta base) están dadas por
0 0 1 x x+y 0 0 1 x −x + y
α 1 = b1 · v = √ 1 1 · = √ , α2 = b2 · v = √ −1 1 · = √
2 y 2 2 y 2
Por lo tanto,
x+y 1 1 y − x 1 −1
v= √ √ + √ √
2 2 1 2 2 1
Además, |v|2 = x2 + y 2 = α01 2 + α02 2 .
k1 = v1
k1 · v2
k2 = v2 − Pk1 (v2 ) = v2 − k1
k1 · k1
k1 · v3 k2 · v3
k3 = v3 − Pk1 (v3 ) − Pk2 (v3 ) = v3 − k1 − k2
k1 · k1 k2 · k2
.. ..
. .
m−1 m−1
X X ki · vm
km = vm − Pki (vm ) = vm − ki
i=1 i=1
ki · ki
forman una base ortogonal del mismo subespacio Sm (del cual M es una base no ortogonal):
ki · kj = 0 ∀ i 6= j
Demostración: Partiendo de k1 = v1 , se propone k2 = v2 −αk1 , con α determinado por la condición
k1 · k2 = k1 · v2 − αk1 · k1 = 0
8
1 1
Ejemplo 1.2.3 Consideremos M = v1 = 1 , v2 = 2 . Este conjunto es li-
1 0
nealmente independiente pero no ortogonal, siendo la base de un subespacio S2 de di-
mensión 2 de R3 (plano que pasa por el origen). Mediante el método anterior, podemos
obtener una base ortogonal de S2 : tenemos k1 = v1 y
1
1 1 1 · 2
1 0 1 1 1 0
k2 = v2 − Pk1 (v2 ) = 2 −
1 = 2 − 1 =
1
0 1 1 0 1 −1
1 1 1 · 1
1
3
que resulta ortogonal a k1 = v1 . Si se desea ahora
una
base ortogonal de R que
1
contenga a k1 y k2 , podemos considerar por ej. v3 = 0, ya que {v1 , v2 , v3 } resulta
0
linealmente independiente. Se obtiene (notar que con esta elección k2 · v3 = 0)
1 1 0 2
1 1
k3 = v3 − Pk1 (v3 ) − Pk2 (v3 ) = 0 − 1 − 0 1 = −1
3 3
0 1 −1 −1
√
k1 √
que es ortogonal a k1 y k2 . Y el conjunto { √ 3
, k22 , √3k3
2
} es una base ortonormal de R3 .
Ejercicios 1.2
2.2 Determinar una base ortonormal de R3 que contenga al vector (1, −1, 1).
2.4 Determinar una base ortogonal de R3 que contenga a la base de S hallada en 2.3.a).
T T
2.5 Hallar un vector v que sea ortogonal a v1 = 1 1 1 1 y a v2 = 1 2 3 2 .
9
2.7 Una gran ventaja de las bases ortonormales es que ellas simplifican la representación
de un vector con respecto a esa base. Por ejemplo,
1 1 1
(a) Representar v = respecto de la base no ortogonal B = , de R2 .
3 1 0
Mostrar que v NO es la suma de proyecciones ortogonales sobre cada vector de B.
1 o 1 1
(b) Representar ahora v = respecto de la base ortogonal B = , .
3 1 −1
Mostrar que en este caso el vector SÍ es la suma de proyecciones ortogonales sobre
cada vector de esta base.
(c) Mostrar que para una base ortogonal general B o = {k1 , . . . , km } de un subespacio
S de Rn de dimensión no nula m ≤ n, todo vector v ∈ S se escribe en la forma
v = Pk1 (v) + . . . + Pkm (v)
= α1 k1 + . . . + αm kn
donde Pki (v) = projki (v) = αi ki con
ki · v
αi = , i = 1, . . . , m
ki · ki
(Sugerencia: considerar el producto ki ·v y usar la ortogonalidad ki ·kj = 0 si i 6= j).
El resultado vale también para m = n (S = Rn ).
2.8 Mostrar que las columnas de una matriz A de n × n ortogonal forman una base
ortonormal de Rn si y sólo si A−1 = AT . Por ejemplo, la siguiente matriz es ortogonal:
√ √
1/√2 −1/√ 2 0
A = 1/ 2 1/ 2 0
0 0 1
Por ejemplo, en R2 el eje x, Sx = {(x, 0), x ∈ R}, es ortogonal al eje y, Sy = {(0, y), y ∈ R},
ya que el primero contiene vectores de la forma v = (x, 0) y el segundo w = (0, y),
cumpliéndose que v · w = 0 ∀ x, y.
Y la recta y = 2x es ortogonal a la recta y = −x/2, ya que la primera contiene vectores
de la forma v = (x, 2x) y la segunda w = (−2y, y), cumpliéndose v · w = 0 ∀ x, y.
10
Definición. El complemento ortogonal de un subespacio S ⊂ Rn se define como el
conjunto de vectores de Rn ortogonales a todo vector de S:
= {w ∈ Rn | w · v = 0 ∀ v ∈ S }
PS (v) ∈ S, v − PS (v) ∈ S⊥
v = PS (v) + (v − PS (v))
11
En efecto, la distancia al cuadrado de v a un vector arbitrario wS ∈ S es
D2 = |v − wS |2
= |v − PS (v) − (wS − PS (v))|2
= |v − PS (v)|2 + |wS − PS (v)|2
≥ |v − PS (v)|2
donde hemos utilizado que v − PS (v) es ortogonal a wS − PS (v) dado que v − PS (v) ∈ S⊥
y wS − PS (v) ∈ S. La distancia mı́nima se obtiene entonces para wS = PS (v), en cuyo
caso D = |v − PS (v)| = Dmin .
Veamos ahora como proyectar sobre S. Sea BS = {k1 , . . . , km } una base ortogonal de
S. Entonces, como PS (v) ∈ S,
PS (v) = α1 k1 + . . . + αm km
ki · (v − PS (v)) = 0 , i = 1, . . . , m
ki · v
αi = , i = 1, . . . , m
ki · ki
Entonces αi ki = Pki (v), por lo que
k1 · v1 km · vm
PS (v) = Pk1 (v) + . . . + Pkm (v) = k1 + . . . + km
k1 · k1 km · km
es decir, PS = Pk1 + . . . + Pkm . La proyección ortogonal de v sobre S es pues la suma de
las proyecciones ortogonales de v sobre los vectores de una base ortogonal de S.
Para obtener PS (v), basta entonces con disponer de una base ortogonal de S, y sumar
las proyecciones sobre los vectores de esta base. Y para obtener una base ortogonal de S,
puede aplicarse Gram-Schmidt a una base arbitraria de S.
12
−1 −1
Por lo tanto, BS = 1 , 0 es una base de S, no ortogonal. Mediante Gram-Schmidt,
0 1
podemos llegar a la base ortogonal (probar!)
−1 −1
BSo = k1 = 1 , k2 = −1
0 2
De esta forma
k1 · v k2 · v
PS (v) = Pk1 (v) + Pk2 (v) = k1 + k2
k1 · k1 k2 · k2
0
Por ejemplo, para v =2,
−2
4 2 6
PS (v) = k1 + k2 = 0
2 6
2
y la distancia mı́nima de v a S es
√ √
Dmin = |v − PS (v)| = 12 = 2 3
a) La expresión (*) muestra que el conjunto {k1 , . . . , km , km+1 , . . . , kp } genera Rn , ya que todo
v ∈ Rn puede escribirse como combinación lineal de ellos.
b) El conjunto {k1 , . . . , km , km+1 , . . . , kp } es linealmente independiente, ya que son todos no
nulos y ortogonales entre si (ki · kj = 0 si ki ∈ BS y kj ∈ BS⊥ , por pertenecer a subespacios
ortogonales, y además ki · kj = 0 si i 6= j y ambos pertenecen al mismo subespacio, ya que
forman una base ortogonal del mismo).
13
Ejemplo 1.3.3. Espacio fila y espacio nulo de una matriz A ∈ Rm×n .
En efecto, AX = 0 implica que X debe ser ortogonal a todas las filas de A, por lo que X
será ortogonal a cualquier vector de S = EF (A), es decir, del espacio generado por las filas. La
relación dimensional dim S + dim S⊥ = n implica entonces
Pero esta igualdad es el teorema rango-nulidad, ya que dim EF (A) = r(A) (rango de A) y
dim N u(A) = nul(A) (nulidad de A).
Este resultado coincide con el obtenido en 1.3.2 para BS⊥ a partir de la definición
original de S. Se obtiene también al mismo resultado si se emplea la base ortogonal BSo
en lugar de BS (probar!).
14
Obtención directa de PS (v): Es también posible obtener la proyección ortogonal PS (v)
sobre un subespacio S ⊂ Rn partiendo directamente de una base arbitraria del mismo, no
necesariamente ortogonal. Si BS = {v1 , . . . , vm } es una base de S, entonces
PS (v) = c1 v1 + . . . + cm vm = Ac
AT (v − Ac) = 0
c = (AT A)−1 AT v
Finalmente,
PS (v) = A(AT A)−1 AT v
donde la matriz A(AT A)−1 AT , de n × n, es la representación matricial en la base canónica
del operador de proyección ortogonal PS . Esta matriz no depende de la base de S elegida.
Ejemplo 1.3.5.
−1 −1
3
Consideremos de nuevo el subespacio S ⊂ R generado por la base BS = 1 , 0 .
0 1
En este caso
−1 −1
T −1 1 0
A= 1 0, A =
−1 0 1
0 1
T 2 1 T −1 1 2 −1
con A A = , (A A) = 3 y
1 2 −1 2
−1 −1 2 −1 −1
1 2 −1 −1 1 0 1
A(AT A)−1 AT = 1 0 = −1 2 −1
3 −1 2 −1 0 1 3
0 1 −1 −1 2
0
Para v =2 se obtiene
4
2 −1 −1 0 −2
1
PS (v) = −1 2 −1 2 =
0
3
−1 −1 2 4 2
que coincide con el resultado obtenido en el ejemplo 1.3.1.
−1 −1
Si se emplea la base ortogonal BSo hallada en 1.3.1, A → 1 −1 y AT A se torna
0 2
diagonal, pero la matriz final A(AT A)−1 AT (y por lo tanto PS (v)) no cambia (probar!).
15
Problemas
3.3 Determinar el subespacio ortogonal S⊥ en los dos casos anteriores, y escribir v como
suma de un vector de S y otro de S⊥ .
a) BS = {(1, 2)} (V = R2 )
b) BS = {(1, 2, 3)} (V = R3 )
c) BS = {(1, 2, 3), (1, 1, 1)} (V = R3 )
d ) BS = {(1, 1, 1, 1), (1, 0, 1, 0)} (V = R4 )
e) Encontrar en todos los casos una base de BS⊥ y verificar que BS ∪ BS⊥ es base
del espacio V , con dim S + dim S⊥ = dim V .
3.5 ¿Cual es el complemento ortogonal del subespacio nulo? ¿Qué es la proyección or-
togonal sobre dicho subespacio?
3.6 Mostrar que si un vector es ortogonal a todos los vectores de una base de un subes-
pacio S, entonces es ortogonal a todo vector de S.
3.7 Mostrar qué el único vector que puede pertenecer a S y a S⊥ es el vector nulo.
16
1.4 Proyección ortogonal y aproximación de cuadrados mı́nimos
La proyección ortogonal de un vector v ∈ Rn sobre un subespacio S ⊂ Rn puede
también verse como la mejor aproximación al vector v basada en un vector de S. Si se
desea aproximar v mediante un vector wS ∈ S, la mejor aproximación se logra eligiendo
wS como el vector de S más cercano a v, y tal vector es entonces la proyección ortogonal
vS = PS (v) .
Ac = v
Ac = PS (v)
de forma que
D = |v − PS (v)| = Dmin
Utilizando las formulas de la sección anterior tenemos que tal c estará dado por
c = (AT A)−1 AT v
AT Ac = AT v
donde AT A es de m × m y no singular.
P (x) = c0 + c1 x + c2 x2 + . . . + ck xk (I)
17
ya que en general no existirá un polinomio de grado k < n−1 que reproduzca exactamente
los n datos f (xi ), es decir, que satisfaga
Ac = f (IV)
con
1 x1 . . . xk1 c0 f (x1 )
1 x2 . . . xk2 c1 f (x2 )
A = .. .. , c = , f =
. . . . . .. .. ..
. . .
k
1 xn . . . xn ck f (xn )
siendo A de n×m, c de m×1 y f de n×1, con m = k +1. El sistema (IV) es normalmente
incompatible ya que en general k < n y tı́picamente k n.
La cantidad (II) resulta ası́ la distancia al cuadrado entre los vectores f y Ac:
D2 = |f − Ac|2
con j, l, = 1, . . . , m y m = k + 1.
Nótese que la dimensión de AT A depende sólo del grado del polinomio y no del número
de puntos a ajustar. Por ejemplo, si k = 2, P (x) = c0 + c1 x + c2 x2 es un polinonio de
grado 2 y AT A es de 3 × 3, independientemente del número n de valores a ajustar.
18
Se muestra en la figura la aproximación de 11 datos f (xi ) por medio de un polinomio de
grado 2 y uno de grado 4. No obstante, debe tenerse en cuenta que si los datos no exhiben
un comportamiento polinomial, el ajuste puede presentar oscilaciones, cuya magnitud
puede aumentar al incrementarse el grado k del polinomio. La matriz AT A se torna
también mal condicionada al aumentar k.
fHxL fHxL
f Hxi L f Hxi L
8 8
c0 +c1 xi +c2 x2i c0 +c1 xi +c2 x2i +c3 x3i +c4 x4i
6 6
4 4
2 2
x x
-1.5 -1.0 -0.5 0.5 1.0 1.5 -1.5 -1.0 -0.5 0.5 1.0 1.5
Ejercicios
4.1 Verifique que la minimización de D2 (II) respecto de los coeficientes cj conduce a la
solución (V).
4.2 Determine el polinomio P2 (x) = c0 + c1 x + c2 x2 que minimiza D2 si los datos son
f (−1,5) = 8,5, f (−0,9) = 2,5, f (−0,3) = 1, f (0) = 0,5, f (0,3) = 0,6, f (0,9) = 1,5,
f (1,5) = 3 (Utilice PC). Estos corresponden a la posición (en una cierta escala) en distintos
tiempos de un móvil con aceleración variable. Si la aceleración fuese constante, ¿como serı́a
el ajuste con este polinomio?
19
Facultad de Ingenierı́a
UNLP
Matemática C
7.1.2. Definición
Comenzamos por definir el número i (unidad imaginaria), que satisface
i2 = −1
z = x + y i, x, y ∈ R
donde tanto x como y son números reales. La parte real de z es x, y la parte imaginaria
de z es y (también un número real!):
Re(z) = x, Im(z) = y
Dos números complejos z1 = x1 + iy1 , z2 = x2 + iy2 , son iguales si y sólo si tanto sus
partes reales como imaginarias son respectivamente iguales:
x1 + y 1 i = x2 + y 2 i ⇔ x1 = x2 , y 1 = y 2 (x1 , x2 , y1 , y2 ∈ R)
ReHzL
0 x
7.1.3. Conjugación
El conjugado de un número complejo z = x + iy se lo denota como z̄ o z ∗ , y se lo
define como
z̄ = x − iy
de forma que Re(z̄) = Re(z), Im(z̄) = −Im(z). ImHzL
z=x+yi
y
Por ejemplo, i = −i, 1 + 2i = 1 − 2i y 1 − 2i = 1 + 2i y .
-y
Obviamente, z̄¯ = z (o sea, (z ∗ )∗ = z). z=x-yi
4
z1
ReHzL
0
La resta z1 − z2 es la suma de z1 y el opuesto −z2 = −x2 − y2 i
de z2 :
z1 − z2 = (x1 − x2 ) + (y1 − y2 )i
Por ejemplo, (1 + 2i) − (3 − 4i) = −2 + 6i, (1 + 2i) − (1 + 2i) = 0.
Ejercicio: Indique el significado geométrico de z1 − z2 .
Problema 1: Mostrar que el conjugado de una suma es la suma de los conjugados: y que
el conjugado de una resta es la resta de los conjugados:
z1 ± z2 = z 1 ± z 2
Por ejemplo,
z1 z2 = z 1 z 2
de donde
z̄ x − yi
z −1 = 2
= 2 , z 6= 0 (1.7)
|z| x + y2
Notamos aquı́ que el cociente z/α de un número complejo z = x + yi por un número real
α 6= 0 se define como (1/α)z, es decir, z/α = x/α+(y/α)i. Por ejemplo, (2+4i)/2 = 1+2i.
1
resultado que puede obtenerse multiplicando numerador y denominador de z
por z̄. Por
−i
ejemplo, 1i = −i 2 = −i:
1
= −i
i
verificándose que i(−i) = −i2 = 1. Como segundo ejemplo,
1 1 1−i 1−i 1 1
= = = − i
1+i 1+i1−i 2 2 2
verificándose que (1 + i)(1 − i)/2 = 1.
Puede mostrarse que el producto ası́ definido resulta conmutativo y asociativo (z1 z2 =
z2 z1 , (z1 z2 )z3 = z1 (z2 z3 ), para zj = (xj , yj ), j = 1, 2, 3), y distributivo con la suma:
8
Los números complejos pueden ser también representados por matrices reales de 2 × 2 de
la forma
x −y 1 0 0 −1
z = =x +y (1.11)
y x 0 1 1 0
= xI + yR , x, y ∈ R (1.12)
1 0 0 −1
donde I = es la matriz identidad y R = la matriz de rotación
0 1 1 0
definida en (1.3). Obtenemos, con el producto matricial usual, I.I = I, I.R = R.I = R, y
0 −1 0 −1 −1 0
R.R = = = −I (1.13)
1 0 1 0 0 −1
z1 + z2 = (x1 + x2 )I + (y1 + y2 )R
Como estructura algebraica, el conjunto de números complejos es, al igual que los
números reales o racionales, un cuerpo. Una estructura algebraica {F, +, ·}, donde F es
un cierto conjunto de números y +, · son operaciones binarias cerradas entre ellos, es un
cuerpo (o campo) si:
i) La suma satisface las propiedades de asociatividad, conmutatividad, existencia de ele-
mento neutro (0, tal que z +0 = z ∀ z ∈ F ) y opuesto (∀ z ∈ F ∃ −z tal que z +(−z) = 0).
ii) El producto es también asociativo y conmutativo, con existencia de elemento neutro 1
(z · 1 = z ∀ z ∈ F ) e inverso z −1 ∀ z 6= 0 (tal que z · z −1 = 1)
iii) El producto es distributivo: z1 · (z2 + z3 ) = z1 · z2 + z1 · z3 .
7.1. CONCEPTOS BÁSICOS 9
az 2 + bz + c = 0, (a 6= 0) (1.14)
Sabemos que las raı́ces están dadas por la muy conocida fórmula
√
−b ± b2 − 4ac
z± = (1.15)
2a
Problema 13: Obtener la fórmula (1.15), completando cuadrados.
Problema 14: Probar que para a 6= 0,
Como las raı́ces pueden repetirse, esta igualdad suele escribirse como
Si los coeficientes ai del polinomio son todos reales, entonces las raı́ces complejas aparecen
siempre en pares conjugados.
Problema 15: Probar el enunciado anterior, mostrando primero que si los coeficientes son
reales ⇒ Pn (z) = Pn (z).
7.1. CONCEPTOS BÁSICOS 11
7.1.11. Problemas
1) Realizar las siguientes operaciones, expresando el resultado como z = x + yi, con x, y ∈ R:
1 25
a) (1 − 2i)(3 + 4i) b) − i + (2 + 4i)(2 − ) c) 5 +
2i 3 + 4i
∗
1+i 3 + 4i i 2+i 1+i
d) e) f) g) +
1−i 3 − 4i 3−i 1 + i 1 + 1/i
2) Determinar la parte real, la parte imaginaria y el módulo de los resultados de las operaciones
anteriores.
3) Hallar todas las raı́ces de las siguientes ecuaciones, y escribir el polinomio correspon-
diente en la forma factorizada (1.16) o (1.18)–(1.19):
a) z 2 − 2z + 2 = 0 b) 2z 2 + 4 = 0 c) 2z 2 + 2z + 1 = 0
d) z 2 + 2iz = 0 e) z 2 + 2iz − 1 = 0 f ) z4 − 1 = 0
ix + y = i
4) Resolver el sistema
x + iy = −2
√ √ p √
5) Indicar el error en a) −1 = −1 −1 = (−1)(−1) = 1=1
√
1
q √
y b) 1i = √−1 = −1 1
= −1 = i.
|z − z0 | = r, r > 0
7) Mostrar que si z1 = x1 + y1 i, z2 = x2 + y2 i,
Re(z1 z̄2 ) = x1 x2 + y1 y2
ÈzÈ
donde
p
|z| = x2 + y 2
Φ
es el valor absoluto de z y φ es el ángulo que forma z ReHzL
con el eje real en el plano complejo, denominado
0 x=ÈzÈ cos Φ
argumento de z o arg(z).
Este ángulo satisface
tan φ = y/x
√
Por ejemplo, si z = 1 + i ⇒ |z| = 2 y tan φ = 1, con x > 0, y > 0, por lo que
φ = π/4. Por lo tanto
√
1 + i = 2(cos π/4 + i sen π/4)
entonces
Y si z2 6= 0,
z1 |z1 |
= [cos(φ1 − φ2 ) + i sen(φ1 − φ2 )] (2.22)
z2 |z2 |
ImHzL
z3 =z1 z2
Φ3 =Φ1 +Φ2
Èz3 È=Èz1 ÈÈz2 È
Φ3 z2
Φ2 z1
Φ1
ReHzL
0
14
Demostremos primero esta igualdad: Definiendo eiφ por medio de la serie exponencial,
y separando en términos pares e impares, obtenemos, utilizando (1.4) y (1.5) (i2n = (−1)n ,
i2n+1 = (−1)n i),
∞
iφ
X (iφ)n
e =
n=0
n!
∞ 2n 2n ∞
X i2n+1 φ2n+1
X i φ
= +
n=0
(2n)! n=0
(2n + 1)!
∞ ∞
X (−1)n φ2n X (−1)n φ2n+1
= +i
n=0
(2n)! n=0
(2n + 1)!
= cos φ + i sen φ (2.24)
donde φ = arg(z).
Por ejemplo,
i = eiπ/2
ya que |i| = 1 y arg(i) = π/2. Se comprueba que eiπ/2 = cos π/2 + i sen π/2 = 0 + i = i.
También,
−1 = eiπ
ya que | − 1| = 1, arg(−1) = π. Se comprueba que eiπ = cos π + i sen π = −1 + 0i = −1.
1 1 −iφ
= e
z |z|
Dado que
eiφ1
eiφ1 eiφ2 = ei(φ1 +φ2 ) , = ei(φ1 −φ2 )
eiφ2
resulta entonces obvio, utilizando la forma polar (2.26), que
y por lo tanto obtener las fórmulas (2.21)–(2.22). Resulta también obvio que |z1 z2 | =
|z1 ||z2 |, arg(z1 z2 ) = arg(z1 )+arg(z2 ), y |z1 /z2 | = |z1 |/|z2 |, arg(z1 /z2 ) = arg(z1 )−arg(z2 ).
Mediante la forma polar (2.23), resulta muy sencillo calcular cualquier potencia z n para
todo n natural o entero: Dado que (eiφ )n = einφ , obtenemos
z n = (|z|eiφ )n
= |z|n einφ (2.29)
= |z|n [cos(nφ) + i sen(nφ)] (2.30)
ImHzL ImHzL
3
z =1 z4 =1
z1 =i
z1 =ei2Π3
z0 =1 z2 =-1 z0 =1
ReHzL ReHzL
0
0
z2 =ei4Π3 z3 =-i
7.2. REPRESENTACIÓN POLAR Y FÓRMULA DE EULER 17
z n = a + ib
vemos que
zk = r1/n ei(φ+2kπ)/n
satisface
zkn = rei(φ+2kπ) = reiφ = a + ib
para todo k entero. Por lo tanto, las n raı́ces distintas (asumiendo r 6= 0) son
√ √ φ + 2kπ φ + 2kπ
zk = n
r ei(φ+2kπ)/n = n
r [cos( ) + i sen( )] , k = 0, . . . , n − 1
n n
Las n raı́ces son pues de la forma
√
zk = n
r eiφ/n ei2kπ/n
z2 = i
donde t ∈ R y u(t) = Re[f (t)], v(t) = Im[f (t)] son funciones reales. Un ejemplo de especial
interés es la función exponencial compleja
Por lo tanto, la expresión (eλt )0 = λeλt resulta válida también para λ complejo. Este
resultado será esencial a la hora de resolver ecuaciones diferenciales, y puede obtenerse
de forma más general por medio de la teorı́a de funciones analı́ticas de variable compleja,
que no trataremos en este curso.
De la misma forma, la integral de f se define como
Z Z Z
f (t)dt = u(t)dt + i v(t)dt
eλt
Z
eλt dt = +c
λ
para λ ∈ C, λ 6= 0, donde c ∈ C es en general una constante compleja.
Problema: La potencia tλ para λ = γ + iω ∈ C y t ∈ R+ se define como
tλ = eλ ln t = eγ ln t eiω ln t
= tγ [cos(ω ln t) + i sen(ω ln t)] (2.37)
7.2. REPRESENTACIÓN POLAR Y FÓRMULA DE EULER 19
donde ln t es el logaritmo natural. Por ejemplo ti = cos(ln t) + i sen(ln t). Se deja como
ejercicio probar que para λ ∈ C, también se obtiene
(tλ )0 = λtλ−1
tales como una corriente alterna o la posición de una partı́cula en movimiento oscilatorio
armónico. Resulta en general más conveniente expresar u(t) como
u(t) = Re[Aei(ωt+φ) ]
7.2.7. Problemas
1) Encontrar la representación polar z = |z|eiφ de
√
3+i 1
a) z = 1 − i b) z = c) z = −3i d) z = √ e) z = −i
1+i 1 + 3i
2) Mediante la forma polar, evaluar z n en los casos anteriores, y hallar el valor explı́cito para
n = 6 y n = −3.
eiπ/3
a) z = eiπ/6 b) z = c) z = e−i2π/3 eiπ/3
eiπ/2
4) Determinar todos los z que satisfacen
a) z 2 = −i b) z 3 = −1 c) z 4 = i d) z 6 = 1 e) z 2 = 1 − i
a) z 2 + 2iz − 1 + i = 0 b) z 2 + 2i = 0 c) z 4 + 2z 2 + 2 = 0
6) Escribir en la forma u(t) + iv(t), con u(t), v(t) funciones reales, las funciones
7) Determinar las derivadas de las funciones anteriores, y escribir su parte real y su parte
imaginaria.
Facultad de Ingenierı́a
UNLP
Matemática C
2
1 Introduccion
Motivaremos este captulo sobre autovalores discutiendo la ecuacion
ax + 2hxy + by = 1
2 2
como
; a h x
ax + 2hxy + by = x y : h b : y = xT :A:x
2 2
x a h
donde x = yA= y . La matriz A se llama matriz de la forma cuadratica.
h b
Objetivo ... Queremos aplicar un cambio de variables apropiado, la rotacion necesaria
de los ejes x e y, para que las coordenadas de los puntos de esa gura geometrica
respecto de los nuevos ejes x e y satisfagan una ecuacion reducida a la forma canonica:
1 1
x + y = 1.
1
2
1 2
2
1
La forma canonica es facil de analizar. Reconocemos a una elipse si los coecientes
son positivos, o una hiperbola si tienen distinto signo, etc.
... Ahora rotamos los ejes x e y en sentido antihorario mediante el angulo hasta los
nuevos ejes x e y .
1 1
3
De igual manera se obtiene que y = x sin + y cos .
1 1
base nueva (los vectores que dirigen los ejes nuevos), a las coordenadas (x; y) respecto de
la base canonica sabemos que es la matriz S :
cos ; sin
S = sin cos
As, para cada (x ; y ) se tiene que ...
x cos ; sin x
1 1
y = sin cos : y
1
x = S:x~
... Notamos que las columnas de S dan las direcciones de los semiejes positivos de
los ejes x e y . La matriz S de rotacion tiene la propiedad especial que det(S ) = 1 (
1 1
vercarlo).
Sabemos, que para obtener las nuevas coordenadas en terminos de las viejas ...
x cos sin
y = x~ = S :x = ; sin cos :x
1 ; 1
y = ;x sin + y cos
1
Ademas ...
... si reemplazamos en la ecuacion dada
;
xT :A:x = (S:x~)T :A: (S:x~) = x~T : S T :A:S :x~
... Supongamos ahora, como veremos mas adelante, que es posible elegir un angulo
tal que S T :A:S sea una matriz diagonal, entonces ...
0
xT :A:x = x~T :
0 :x~
1
= x + y1
2
1 2
2
1
.
Las soluciones de esta ecuacion representan una curva simetrica respecto a los ejes x 1
ey. 1
4
Las columnas de S , las columnas s y s , dan las direcciones de los ejes de simetra.
1 2
As si S es la matriz adecuada para cumplir con nuestro objetivo, sus columnas s y 1
A:s = :s
1 1 1 y A:s = :s
2 2 2
s y s , no nulos.
1 2 s
Para determinar el vector s = s , la primer ecuacion se escribe como
1
11
21
a h s s
h b : s = : s (1)
11 11
1
21 21
o
a ; h
s 0
h
1
b; : = s
11
0
1 21
... Hemos planteado un sistema homogeneo de 2 2, que debe tener solucion no trivial
(s ; s ) (es el nuevo eje). Por tanto, el determinante de la matriz de ese sistema debe ...
a ;
11 21
det h
b; =0
1
h 1
cumplira ...:
a ; h
det h
2
b; =0 2
a ; h
det h =0 b;
... Expandiendo el determinante se obtiene ...
; (a + b) + ab ; h = 0
2 2
5
Esta ecuacion tiene las races
q
a + b (a + b) ; 4 (ab ; h )
2 2
=
q 2
a + b (a ; b) + 4h 2 2
= 2
Las races son reales, y son distintas si a 6= b o si h 6= 0.
El caso en que a = b y h = 0 no necesita investigacion porque representa la ecuacion
de una circunferencia.
La ecuacion encontrada ;(a + b) +ab;h = 0 se llama la ecuacion de los autovalores
2 2
de la matriz A.
... Si conocemos los valores y , podremos encontrar s y s , que son las
1 2 1 2
el valor de .
2
...
6
... Dado un operador (o matriz de representacion de n n) A , si podemos construir
una base del espacio compuesta enteramente por autovectores de A, ...
... fu ; : : : ; ung, entonces cualquier vector x puede escribirse como una combinacion
1
= c :u + c :u + + cnn:un
X
1 1 1 2 2 2
n
= (cii) :ui
i
=1
0C C B
B cC CC
1
... C : B
A @.A .
.
2
ncn 0 0 n cn
Conclusion ...(I) La matriz de representacion de un operador A con respecto a una
base de sus autovectores (si existe esa base) es una \matriz diagonal", cuyos coecientes
en la diagonal son \los autovalores" de A.
Ademas ...
...(II) el efecto de un operador A sobre cualquiera de sus autovectores es simplemente
\escalar al autovector" por el correspondiente autovalor (ui ;! i :ui ), expandiendo o
contrayendo kui k por el factor i (que tambien puede ser igual a cero).
Observacion: En una seccion proxima se vera que \no siempre" se puede tener una
base de autovectores (el lindo resultado (I)).
Ejemplo
4 ;2 2
A = 1 1 y x= 1
4 ;2 2 6
A:x = 1 1 : 1 = 3
2
= 3: 1 = 3:x
7
Observacion: (4; 2)T es tambien otro autovector para el mismo autovalor = 3, por
tanto
4 ;2 4 12 4
1 1 : 2 = 6 = 3: 2
... As cualquier multiplo escalar de (2; 1)T tambien sera un autovector ( asociado al
mismo ), ya que
A: (c:x) = c:A:x = c::x = : (c:x)
Ademas ...
Los autovectores asociados a un particular autovalor de A, con el agregado del vector
0, forman un subespacio de <n que se denomina \ autoespacio" de A asociado a .
Para ver eso ...
Dado un que es autovalor ...
Si A:x = :x, y si y tambien satisface
A:y = :y entonces
A: (:x + :y) = :A:x + :A:y = :x + :y = : (:x + :y)
esto es ...
(:x + :y) es tambien un autovector deAcon el mismo autovalor
... As el conjunto de los autovectores correspondientes a un mismo , con
el agregado del vector 0 es un subespacio.
Por ahora, consideramos que A es una matriz real n n, y x un vector de
<n
....> Como se obtiene el conjunto de \autovectores" asociados a un ?
La ecuacion de autovalores A:x = :x puede escribirse ...
A:x = :In:x (3)
(A ; :In ) :x = 0 (4)
As estamos buscando vectores \no nulos" x que satisfagan la ecuacion (3). Es decir,
... buscamos soluciones \no triviales" del sistema lineal homogeneo (4). El conjunto
de todas estas soluciones \no nulas" esta en ...
... el subespacio o espacio nulo de la matriz A ; :In : N (A ; :In). Este subespacio
es un subespacio de R n ).
El espacio nulo N (A ; :In) se llama el autoespacio de A correspondiente al autovalor
.
Ademas ...
... si es un autovalor de A implica que existe algun x no nulo en N (A ; :I ).
Cualquier vector no nulo en N (A ; :I ) es un autovector asociado a . La dimension
N (A ; :I ) 1 (por lo menos hay un autovector para ese valor ).
8
La ecuacion (4) tiene solucion x no nula \ si y solo si" la matriz A ; :In es singular.
Por tanto, debe ser ...
det (A ; :In) = 0
... Esta ecuacion se denomina la ecuacion caracterstica de la matriz A.
... tiene n races (contando las races multiples) entonces A tiene exactamente n auto-
valores.
Sin embargo, hay que tener en cuenta que ...
Algunas races pueden repetirse, por tanto A tendra a lo sumo n autovalores \dis-
tintos";
Algunas races pueden ser numeros complejos, por tanto A puede tener autovalores
complejos (y consecuentemente, autovectores complejos).
( ; 4) ( + 3) = 0
= 4 y = ;3
1 2
correspondientes autovectores.
Para hacer esto, resolvemos los correspondientes sistemas homogenos
(A ; i:I ) :x = 0 (i = 1; 2)
Si tomamos = 4, y resolvemos por eliminacion el sistema
;1 2 ;1 2
1
A ; :I = 3 6 ;! 0 0
1
se obtiene ...
2
u = : 1
1
esto es ...
... cualquier multiplo no nulo de este vector es un autovector asociado a = 4; y
este vector es una base para N (A ; 4:I ), que es el autoespacio de ese autovalor.
1
Si consideramos = ;3
6 2 6 2
2
A ; :I = 3 1 ;! 0 0
2
como autovector asociado a . As este vector forma una base de N (A + 3:I ).
2
10
10 ;9 1 2 0 3 0 0
(a) 4 ;2 (b) 4 3 (c) 7 0 (d) 0 0
1 0
(e) 0 1
X 3.2 Para cada matriz, encontrar la ecuacion caracterstica, los autovalores y los au-
3asociados
tovectores
0
a cadauno.
3 2
(a) 8 ;1 (b) ;1 0
Otro ejemplo ...
1 2 1 ; 2
Ejemplo A = ;2 1 ;! det ;2 1 ; = 0 ;! (1 ; ) + 4 = 0 2
... Esto tena que pasar tarde o temprano. No nos habituaremos a los autovalores o
autovectores complejos, aunque haremos algunos comentarios:
Si es un autovalor complejo de una matriz real A, y su correspondiente autovector es
z, entonces si es el complejo conjugado de y z es el complejo conjugado de z ...
z = A:z = :z = :z
A:z = A:
... Por tanto, z es tambien un autovector de A con autovalor .
As autovalores y autovectores \complejos de las matrices reales" de n n siempre
aparecen con su complejo conjugado, es decir aparecen en \pares".
Problema (1)Dada una matriz de dimension n n, con n impar, vericar que tiene
por lo menos un autovalor real.
Problema (2) Usando los comandos del MATLAB. Los comandos del MATLAB para
calcular autovalores (despues de haber entrado la matriz A = [fila1; fila2; fila3]) es
E = eig(A), dando en E los autovalores.
Para obtener los autovectores: [U; D] = eig (A), da en las columnas de U los autovec-
tores (no garantiza que las columnas de U sean linealmente independientes), y en D los
autovalores. 10 ;9
Aplicar a la matriz A: 4 ;2
(3) Con la ayuda del MATLAB, calcular los autovalores de la matriz de 5 5 cuyos
terminos son aij = i j; . 0
1
1
10 ;9 1
+ 1
11
3.2 Localizacion de los autovalores. Crculos de Gershgorin
Objetivo Despues de haber calculado los autovalores de una matriz, y haber visto las
dicultades en calcular las races de los polinomios caractersticos, sabiendo ademas lo
dicil de ese tema cuando las matrices son de dimension n > 4, es importante conocer
el Teorema de Gershgorin. Este teorema nos provee un procedimiento para estimar la
localizacion de los autovalores de cada matriz, y en muchas oportunidades permite sacar
conclusiones sobre los autovalores sin calcularlos.
llamamos x a ese vector tal que Ax = x, y tal que ahora sus componentes satisfacen que
jxj j 1 (equivale a decir que la kxk1 = 1 = xi ). Entonces,
X
n
ai;j xj = xi = :
j =1
Por tanto,
X
n
; ai;i = ai;j xj ;
j6 i
=
3
Ejemplo Estimar la localizacion de los autovalores de A = 3 ;22
j ; 3j 2, desde la la 1, y desde la la 2 se obtiene que j ; (;2)j 3. Si fuesen
reales, estaran ( dibujar la recta) entre [;5; 5].
12
3.3 Operadores geometricos y autovalores (para visualizar).
Este ejemplo explica visualmente el signicado de los autovectores de esta transforma-
cion y visualiza tambien porque los restantes vectores de < no pueden ser autovectores.
2
A = (L (e ) ; L (e )) = 1 0
1 2
2 1
13
Para el otro autovalor, resolvemos (A ; :I ) :x = 0
1 1 1 1
2
1 1 ;! 0 0
y ... ;1
... el autoespacio asociado ... u = : 1
2
Lo que sigue explica visualmente el signicado de los autovectores hallados y explica
tambien porque no hay otros autovectores en esta aplicacion.
Para u = (1; 1)T , el vector permanece sobre el eje de re
eccion, y al re
ejarlo a traves
del eje retorna al mismo vector u .
1
L (u ) = u = 1:u
1 1 1
L (u ) = ;u = ;1:u
2 2 2
14
Cualquier otra orientacion del vector x al re
ejarse a traves del eje \no produce" un
vector que sea multiplo escalar de x: L (x) 6= :x
Solo los dos tipos de vectores u y u tienen la propiedad de conservar la direccion
1 2
Casos especiales...
4 Matrices diagonales
Si A es una matriz diagonal, entonces
0 1
a ; 0 0
BB 0 a ;
11
0 CC
0 = det (A ; :I ) = det B .. ... ...
22
... CA
@ .
0 0 ann ;
= (a ; ) (a ; ) (ann ; )
11 22
15
Por tanto ...
= a ; = a ; ; n = ann
1 11 2 22
As los autovalores de una matriz diagonal son los coecientes de la diagonal faii g
(eso muestra tambien que son todos reales).
Ademas, en este caso los autovectores tambien tienen una forma particularmente sim-
ple. En este caso: son precisamente los vectores de la base canonica e ; e ; : : : ; en, ya 1 2
que
A:e = :e ; A:e = :e ; etc
1 1 1 2 2 2
En otros casos, se podran encontrar bases que se puedan usar para obtener
una representacion con una matriz diagonal ...?
Si A no es diagonal... pero podemos determinar cuales son sus autovalores y autovec-
tores fi g y fxi g.
... Y supogamos que los \autovectores de A son linealmente independientes", con lo
cual forman una base de R n (porque son n vectores).
Entonces considerando esa base, los vectores coordenadas fx^i g de los autovectores fxi g
con respecto a esta \ autobase" seran e ; e ; : : : ; en.
1 2
A=B
^
@ ... ... . . . ... CA
2
0 0 n
... Veremos mas adelante, que cualquier matriz A de n n con \n autovectores
linealmente independientes" puede ser diagonalizada en este sentido. Puede ser represen-
tada con respecto a una base de sus autovectores mediante una \ matriz diagonal", con
sus respectivos autovalores en la diagonal.
Ademas,
la traza de A o tr A, denida como la suma de los coecientes de la diagonal de A,
esta dada por
X
n X
n
tr A = aii = i
i=1 i =1
Estos dos resultado son validos tambien para matrices que no son diagonales.
...
16
5 En general - Producto y suma de autovalores
Si A es una matriz cualquiera de n n, entonces
Demostracion. Recordar que p () = det (A ; :I ) tiene n ra ces fig. Por lo
tanto, cuando expandimos el determinante y factorizamos el polinomio resultante
obtendremos
p () = ( ; ) ( ; ) ( ; n)
1 2
... Una mirada detallada a la estructura del determinante muestra que de hecho
p () = (;1)n ( ; ) ( ; ) ( ; n)
1 2
= ( ; ) ( ; ) (n ; )
1 2
es siempre un numero real, el producto de todos los autovalores sera un numero real.
Observacion ... Similarmente, dado que la traza de una matriz real es real, la suma
de los autovalores tambien debe ser real. Y esto es cierto, aun cuando haya autovalores
complejos, dado que ...
+ = 2 Re (es tambien real)
17
En un ejemplo previo ...
3
Ejemplo la matriz dada es A = 3 ;22 . Vimos que los autovalores son = 4 y 1
= ;3.
2
tr A = 1 + 1 = (1 + 2i) + (1 ; 2i) = 2
det A = 1 + 4 = (1 + 2i) (1 ; 2i) = 5
det B
B@ ... ... C
... ... A = (a ; ) (a ; ) (ann ; )
22 2
11 22
0 0 ann ;
Conclusion Los autovalores de una matriz triangular (superior o inferior) son los coe-
cientes de la diagonal (como en el caso de las matrices diagonales).
A; :A:x = :A; :x
1 1
o
1 :x = A; :x1
As si x es un autovector de A con autovalor ,
... entonces x tambien es un autovector de A; correspondiente al autovalor 1= (como
1
18
6 Potencia de matrices
>Como son los autovalores y autovectores de Ak ?
Si se conocen los autovalores de A
A:x = :x
entonces
A :x = A: (A:x) = A: (:x) = :A:x = :x
2 2
00 que la matriz
1 de representacion es :
2 3 2
1 0 0
T = RepB;B (d=dx) = B
B 0 0 2 0C
@0 0 0 3CA
0 0 0 0 B;B
19
Hallar los autovalores, planteando
;0 ;1 02 00
0 = detT ; I = 0 0 ; 3 = 4
0 0 0 ;
La aplicacion tiene el unico autovalor = 0. Para hallar los asociados autovectores,
se resuelve
00 1 0 01 0u 1 0u 1
BB0 0 2 0CC BBu CC = 0 BBu CC
1 1
=) u = 0, u = 0, u = 0
@0 0 0 3A @u A 2
3
@u A
2
3
2 3 4
0 0 0 0 B;B u B 4 u B
4
As para
0u 1alcanzar su autoespacio
B 0 CC u 2 <g = fu + 0 x + 0 x + 0 x u 2 <g = fu u 2 <g
fB
1
@0A 1 1
2 3
1 1 1
0 B
6.6 Probar que los autovalores de una matriz triangular (superior o inferior ) son las
entradas de la diagonal.
X 6.7 Encontrar la formula del polinomio caracterstico de una matriz de 2 2.
? 6.8 Mostrar que si A es una n- matriz cuadrada y cada la suma c entonces c es un
autovalor de A.
X 6.9 (a) Puede cualquier vector no-~0 en un espacio vectorial ser un autovector ?
X 6.10 Mostrar que es un autovalor de T si y solo si la aplicacion representada por
T ; I es singular.
6.11 (a) Mostrar que si es un autovalor de A entonces k es un autovalor de Ak .
(b) > Que es lo erroneo en la demostracion siguiente ? \Si es un autovalor de A y
si es un autovalor de B , entonces es un autovalor de AB , ya que si A~x = ~x
y B~x = ~x entonces AB~x = A~x = A~x = ~x"? Cuidado !, con la obtencion de
resultados falsos. Observar si se puede armar que A y B tienen igual autovector?
(consultar).
20
7 Propiedad de Independencia lineal de los autovec-
tores. Bases de autovectores
Un resultado importante ...
Autovectores correspondientes a autovalores \distintos" son linealmente independientes.
entonces ...
A:(c :x + c :y) = 0
1 2
= c :A:x + c :A:y 1 2
= c :x + c :y 1 1 2 2
c :x + c :y = 0
1 1 2 2
c ( ; ) :y = 0
2 2 1
Conclusion ... As si una matriz tiene n autovalores distintos ) tiene n autovectores
linealmente independientes.
21
7.1 Autovalores multiples
...> Que ocurre cuando los autovalores son repetidos?
En este caso, > se puede armar que existen n autovectores independientes ?.
... La respuesta es ... \ no siempre existen n autovectores independientes", como se
puede ver en los dos ejemplos que siguen.
As nos interesara saber cuando existen y cuando no existen n autovectores lineal-
mente independientes de A.
Consideremos el ejemplo ...
0;2 2 ;31
A = @ 2 1 ;6A
;;21; ;2 20 ;3
det (A ; :I ) =
2 1 ; ;6
;1 ;2 ;
= ; ; ; 21 + 45
3 2
= ( ; 5) ( + 3) 2
Para = 5, tenemos
1
x = (1; 2; ;1)T
1 ( Vericar!)
Para los autovalores repetidos ...
= = ;3, la matriz caracterstica
01 1
2 3
2 ;3
(A ; :I ) = A + 3:I = @ 2 4 ;6A
;1 ;2 3
se reduce por las a
01 2 ;3
1
@0 0 0A
0 0 0
que tiene rango igual a 1. De la ecuacion obtenida x + 2x ; 3x = 0, o x = ;2x + 3x ,
1 2 3 1 2 3
vemos que tenemos dos variables independientes (en este caso, x y x ). La solucion
2 3
general sera
0;2 + 3 1
x=@ A
22
As podemos generar dos soluciones linealmente independientes eligiendo (; ) =
(1; 0) y (; ) = (0; 1)
0;21 031
x =@ 1 A
2 y x = @0A
3
0 1
... Esto es coherente, ya que si el rango de la matriz A + 3:I es igual 1 y n = 3,
entonces la dimension del espacio nulo N ((A + 3:I )) es la diferencia n ; 1 = 2.
... Hay 3 autovectores linealmente independientes ya que para los repetidos hay 2
autovectores linealmente independientes pues dim(N (A + 3:I )) = 2
Denicion Sea un autovalor de una matriz A.
Se denomina ...
Multiplicidad algebraica de : al numero M que indica el orden de la multiplicidad
de como raz del polinomio caracterstico p ().
Multiplicidad geometrica de : al numero m de autovectores linealmente indepen-
dientes asociados a . Este numero indica la dimension del \autoespacio" corre-
spondiente a ( que es dimN (A ; :I ) ).
Observaci
P on Como el polinomio caracterstico tiene grado n se tiene que ...
... (multiplicidades algebraicas) = n
Observacion En general, sucede que ...
... m M . La diferencia se llama defecto: = M ; m .
Ejemplo Sea la matriz ...
0 1 ; 1
A= 0 0 para calcular sus autovalores...se plantea det (A ; :I ) = 0 ; = 2
=0
0
Por tanto, M = 2; m = 1; = 1.
0 0 0
... Este es un ejemplo donde la suma de las multiplidades geometricas es \ menor "
que n. Entonces, no existen n autovectores independientes para la matriz dada.
...
23
Conclusion Si hay autovalores repetidos ... la existencia o no de n autovectores inde-
pendientes...
... depende de la suma de las multiplicidades geometricas de los autovalores. Si la
multiplicidad geometrica es n ) hay n autovectoresPlinealmente independientes. Sino,
hay tantos independientes como el valor de la suma m.
Problema >Cuantos autovectores linealmente independientes tiene esa matriz?.
0;1 ;3 ;91
@0 5 18 A
0 ;2 ;7
(a) Usando el Matlab calcular los autovalores. (b)Hallar los autovectores resolviendo
(A ; i I )x = 0, para cada autovalor.
3
8 Matrices semejantes
Ya las hemos denido ...
... Recordemos que una matriz B de n n es semejante a una matriz A de n n si
existe una matriz no singular S tal que
B = S ; :A:S 1
= det (A ; :I )
= pA ()
... A y B semejantes, tienen precisamente el mismo polinomio caracterstico ...
... y por tanto el mismo conjunto de autovalores fig.
>Que pasa con los autovectores de B ?
Si x es una autovector de A con autovalor , entonces
A:x = :x
; S:B:S; : = :x 1
S ; S:B:S ; :x = S ; : (:x)
; ;
1 1 1
B: S ; :x = : S ; :x
1 1
24
... As el autovector de B correspondiente al autovalor es justamente S ; :x, donde 1
x es el autovector de A asociado a .
Conclusion ... Si A y B son matrices semejantes de n n, con B = S ; :A:S , entonces 1
9 Diagonalizacion
Denicion Una matriz A de n n es diagonalizable si existe una matriz no singular X
tal que
X ; :A:X = D
1
Entonces
A:X = (A:x ; A:x ; : : : ; A:xn)
1 2
= ( :x ; :x ; : : : ;0n:xn)
1 1 2 2
1
0 0
BB 0 1
0 C
C
= (x ; x ; : : : ; xn) : B .. .. 2
. . . ... C
1 2
@. . A
0 0 n
= X:D
Dado que los fxi g son linealmente independientes, X es no singular; y por tanto ...
A:X = X:D =) D = X ; :A:X 1
A:X = X:D...
... desde ah se llega a que las columnas de X son autovectores de A (linealmente
independientes, ya que X es no singular).
25
Conclusion Observacion Sea A un matriz de n n
Si A es diagonalizable, entonces los vectores columnas de la matriz de diagonal-
izacion X son autovectores de A, y los elementos de la diagonal de D son los
autovalores correspondientes.
La matriz de diagonalizacion X no es unica. Reordenando su columnas, o multipli-
candolas por un escalar no nulo, se obtiene una nueva matriz de diagonalizacion.
Si A tiene n autovalores \distintos", los autovectores correspondientes son lineal-
mente independientes, y por tanto A es diagonalizable.
Si los autovalores de A no son todos distintos, A puede ser o no diagonalizable.
Si A tiene menos de n autovectores linealmente independientes, no es diagonalizable.
As ...
... si hay autovalores repetidos se debe hallar la multiplicidad geometrica de los
autovalores repetidos (que coincide con la dimension del autoespacio, o sea con la
dim(N (A ; i I )), si el autovalor es i).
... Si la multiplicidad geometrica coincide con la multiplicidad algebraica de los
autovalores repetidos, entonces hay n autovectores linealmente independientes.
... Si la multiplicidad geometrica para un i repetido, es menor que su multiplicidad
P A no es diagonalizable (no hay n autovectores independientes,
algebraica, entonces
sino solo r = m ).
Ejercicios
9.1 Diagonalizar la matriz (hallar autovalores,
y una base de autovectores si es posible):
4 2
3 3
9.2 Para la misma matriz anterior, usando el MATLAB, si es diagonalizable hallar la
descomposicion A = XDX ; . 1
26
Otros resultados importantes ...
Si una matriz A es diagonalizable, puede ser factoreada en el producto X:D:X ; . 1
2
; 1
;
A = X:D:X ; : X:D:X ; = X:D :X ; 1
2 1
(8)
y en general,
Ak = X:D0k :X ; 1
1
k 0 0
B 0 k 0 C
= X: B C
1
B@ ... ... 2
. . . ... C
A :X ; 1
0 0 kn
Ejemplo Sea
2 ;3
A= 2 ;5
Entonces ...
det (A ; :I ) = (2 ; ) (;5 ; ) + 6 = + 3 ; 4 = ( ; 1) ( + 4)
2
3 1
X= 1 2
Entonces ...
X;
1
:A:X = 51 ;21 ;31 : 22 ;
;
3 : 3 1
5 1 2
1 0
= 0 ;4
= 0 0 = D 1
^
X= 2 1
Entonces ... 1 ;3 2 ;3 1 3
; 1
1
D^ = X^ :A:X^ = ; 5 ;2 1 : 2 ;5 : 2 1
;4 0
= 0 1
0
= 0 2
27
Conclusion ... Esto es, si A es diagonalizable, puede factorearse A = XDX ; , y los 1
X1 k
= exp(A) = I + A + A + + + : : : = A
A A 2 3
eA 2
2! 3! k k! =0
siendo A = In.
0
X1 k
eA = exp(A) = X (I + D + D + D2! + D3! + : : : )X ; = X ( Dk! )X ;
2 3
2 1 1
k =0
eD = limn;>1 2
.. . y usando (8)
0Pm k1
1 0 1
BB k =0 k Pm CC Be e
1
C
CC = BB C
!
k2
limm;>1 B
2
eD = B@ k k
... C
... A @ A
=0 !
Pm kn e n
k =0 k!
)
eA = XeD X ; : 1
28
Ejercicios
X 9.1 S i T es una matriz n n y c; d son escalares.
(a) Probar que si T tiene un autovalor con un asociado autovector ~v entonces ~v es
un autovector de cT + dIn asociado con el autovalor c + d.
(b) Probar que si T es diagonalizable entonces lo es cT + dIn.
9.2 Matrices equivalentes por las tienen iguales sus autovalores?.
La respuesta es no!. Vericar que las siguientes matrices son equivalentes y no
tienen los mismos autovalores. Estas matrices equivalentes tienen la misma magnitud,
igual rango y distintos autovalores.
1 0 1 0
0 1 0 2
9.3 Mostrar que una matriz cuadrada con coecientes reales y un numero impar de
las tiene siempre al menos un autovalor real.
9.4 Diagonalizar la matriz (hallar los autovalores, y autovectores, multiplicidad alge-
braica y multiplicidad geometrica):0 1
;1 2 2
@2 2 2A
;3 ;6 ;6
9.5 Es posible diagonalizar la matriz A siguiente?. Hallar autovalores. El autoespacio
para cada autovalor ( es N (A ; i In) ). Hallar la multiplicidad geometrica para
cada autovalor. >Cantos autovectores0;1linealmente 1independientes hay ?.
;3 ;9
@ 0 5 18 A
0 ;2 ;7
9.6 Diagonalizar la matriz (hallar autovalores, y una base de autovectores (si es posi-
ble): 4 2
3 3
9.7 Repetir el ejercicio anterior resolviendo con el MATLAB, usando: E=eig( A). Luego
con el comando : [U,D]= eig(A) (obtiene los autovectores de A en las columnas de U
(pueden ser dependientes), y en D los autovalores. Hallar el N (A ; lambda:I ), y una
base correspondiente a cada autoespacio de cada autovalor.
9.8 Es posible diagonalizar la matriz siguiente?. (a)Hallar autovalores y los autovec-
tores linealmente independientes (observar
03 2 que41es simetrica ):
@2 0 2A
4 2 3
29
Matrices simetricas: AT = A
Matrices ortogonales: las columnas de A forman un conjunto ortonormal de R n
(y por lo tanto, una base).
En cambio en el caso de las matrices complejas tenemos lo equivalente
... :
;
Matrices hermitianas: Son las que satisfacen M H = M T = M .
Matrices unitarias: las columnas de M forman un conjunto ortonormal de C n (y
por tanto, una base).
Luego ...
Una matriz real hermitiana es una matriz simetrica
Una matriz real unitaria es una matriz ortogonal
Resultados relacionados importantes:
Estos resultados se dan aqu sin demostracion (se recomienda ver la bibliografa S.
Grossman para conocer los fundamentos que conducen a ellos).
Los resultados siguientes son de gran importancia y de ellos depende la resolucion de
muchas aplicaciones importantes.
Conclusion ... Esto quiere decir que si A es una matriz simetrica \ existe siempre"
una base de autovectores ortogonales.
... Proviene esa conclusion de los resultados ...
(1) Si A es simetrica, los autovectores asociados a autovalores distintos son ortogonales.
(2) Si A es simetrica, los autovalores repetidos tienen la multiplicidad geometrica igual
a la multiplicidad algebraica. Es decir, si la multiplicidad algebraica de un i es r,
entonces la dimension dim(N (A ; i:I )) = r. Observar que, por ejemplo con el
comando del MATLAB null(A ; i :I ), puede siempre obtener una base ortogonal
de este autoespacio de i. As ...
(3) Existe una base ortogonal de autovectores si A es simetrica.
30
Ejercicios
10.1 Rehacer un ejercicio previo: > Es posible diagonalizar la matriz siguiente?. Hallar
autovalores y los autovectores ortogonales
03 2(Observar
1 que es simetrica).
4
@2 0 2A
4 2 3
10.2 Es posible diagonalizar la matriz ?
0 2 ;1 0 1
@;1 2 ;1A
0 ;1 2
10.3 Idem para 0 4 ;1 0 ;11
BB;1 4 0 0 CC
@ 0 0 4 ;1A
;1 0 ;1 4
OBSERVACIONES:
Hacemos una peque~na incursion en el mundo de los escalares complejos, los vectores
y matrices complejas ...
El conjunto C n es el espacio vectorial formado por las n-uplas de numeros complejos.
Seran los escalares a considerar :
= a + ib (con a y b numeros reales)
Recordemos que...
Conjugado de :
= a ; ib
Longitud o modulo de :
p p
jj = : = a + b 2 2
z=B C
@ ... A
2
= ( z ; z
1 ; :
2 : : ; z n ) T y
z = B
@ ... CA = (z ; z ; : : : ; zn)
2
1 2
T
zn zn
Longitud o modulo de un vector:
q
kzk = jz j + jz j + + jznj
2 2 2
;
1 2
= zT :z = 1 2
Notacion:
;
zT zH y kzk = zH :z = (conjugado transpuesto de z)
1 2
Producto interno:
hz; wi = wH :z
Propiedades:
31
1. hz; zi 0 ("=" si y solo si z = 0)
2. hz; wi = hw; zi para todo z y w en V
3. h:z + :w; ui = hz; ui + hw; ui
Matrices:
M = fmij g con mij = aij + ibij o,
M = A + iB con A = faij g y B = fbij g
y M H = M T
Para matrices complejas ...
los autovalores de una matriz hermitiana son todos reales.
La matriz conjugada transpuesta de una matriz unitaria U es su inversa: U ; = U H 1
11 Aplicaciones
Nos limitaremos a ver dos casos, mas adelante cuando veamos Ecuaciones Diferenciales
veremos otras aplicaciones interesantes.
punto de su dominio.
Sea un vector u = (u ; u )T , de longitud kuk = 1, que indica una direccion.
1 2
Ademas, si calculamos
32
la derivada segunda de g(t) en t = 0, nos da la curvatura de g(t) en t = 0, que
coincide con la de la funcion f en P , en la direccion indicada por u. 0
cadena, se obtiene:
g00(t) == @ f @xP02 tu (u ) + 2 @ f @xy
2 P
0 tu
u :u + @ f @y
2 P tu
(u ) .
2 ( + ) 0 2 ( + ) ( + )) 2
12 1 2 2
@ 2 f P0 (u ) .
( ) 2
@y2 2
H= @x2 @xy ,
@ 2 f P0( ) @ 2 f P0
( )
@yx @y2
... la curvatura de f (x; y) en P , en la direccion de u, coincide con ...
u 0
00
g (0) = (u ; u )H u 1 2
1
de f en P . 0
positiva en otra direccion. As f (x; y) tiene en P , curvatura negativa en alguna direccion 0
33
Problema (i) Dada una matriz real simetrica A (n n). Vericar que si tiene n
autovalores positivos equivale a que la forma cuadratica uT Au > 0, para todo u 2 <n, con
u=6 0.
Ayuda: considerar que existe una base de autovectores ortonormales fu ; u P ; :::; ung
1 2
tales que Aui = i ui . Luego usar esa base de autovectores para escribir: u = iui .
Reemplazar en uT Au, para ver que se obtiene un valor positivo para todo u, si cada
i > 0 ya que uTi Aui = i > 0.
Recprocamente, si para todo u 6= 0, uT Au > 0, entonces tambien para todo autovector
uTi Aui = i > 0. As tiene autovalores positivos.
(ii) Lo mismo se puede hacer cuando todos los autovalores son negativos.
Problema (i) Sea la funcion z = exy , en el punto (1; 2). Ver cual es la curvatura en
(1; 2) en cualquier direccion u, de acuerdo a los autovalores del Hessiano en ese punto.
(ii) Sea la funcion z = ;x + 4xy ; 2y + 1, analizar la curvatura en los puntos donde
3 2
el gradiente es cero. Puede obtener alguna conclusion sobre el tipo de puntos estacionarios
que tiene?.
Entonces, si denominamos
A a la matriz y ...
... ~vn al vector de componentes f (n + 1) y f (n),
tenemos que
~vn = A~vn; ; 1
~vn = AA~vn; ; 2
~vn = An~v : 0
1 0 = 1 ;p ; p 2 5 2 5
1
2 2
0 p p 1
2
5 1
5
1+
2 5
5
= 1 2
1
2 p
; n ;
p
2
f (0)
5 2 5
0 p p 1
2
5 1
5
1+
2 5
5
35
p
Notamos que f es dominada por su primer termino porque (1 ; 5)=2 es menor que 1,
as sus potencias tienden a cero.
En general, una relacion de recurrencia lineal tiene la forma
f (n) = a f (n ; 1) + a f (n ; 2) + + ak f (n ; k)
1 2
0 = ;f (n) + a f (n ; 1) + a f (n ; 2) + + ak f (n ; k):
1 2 (9)
Esta es una relacion de recurrencia de orden k. Esa relacion, con las condiciones iniciales
f (0); : : : ; f (k ; 1)
determina completamente la sucesion, para n k.
Por ejemplo, la relacion de Fibonacci es de orden 2, y con las condiciones inicales
f (0) = 1 y f (1) = 1, determina la secuencia de Fibonacci, para f (2), f (3)....
Veremos como se puede usar el Algebra Lineal para resolver relaciones de recurrencia
lineales.
Primero, denimos el espacio vectorial en el cual trabajamos.
Sea V el conjunto de funciones f denidas para los numeros naturales N = f0; 1; 2; : : : g
y con valores f (n) en los numeros reales. (Tendremos tambien funciones con dominio
f1; 2; : : : g, eso es , sin el 0, pero eso no cambia lo principal.)
Dejando de lado \las condiciones iniciales" por un momento, para cualquier relacion
de recurrencia, podemos considerar el
... subconjunto S (del espacio V ) de las funciones soluciones f (n) de una relacion
de recurrencia.
El subconjunto S de soluciones es un subespacio de V .
Es no vacio, ya que la funcion f (n) = 0, constante, satisface la relacion (9) (aunque
no las especcas condiciones iniciales).
Ademas, si dos funciones f y f son soluciones, tambien la suma de ellas f + f lo
1 2 1 2
es:
2 1 2 2
= 0:
36
Tambien, si se multiplica por un escalar rf , lo es : 1
= r0
1 1 1 1
= 0:
0a a a : : : a a 1
BB 1 0 0 : : : k0; 0k CC 0f (n ; 1)1 0 f (n) 1
1 2 3 1
BB 0 1 0 CC BBf (n ; 2)CC BB f (n ; 1) CC
BB 0 0 1 CC B@ ... CA = B@ ... CA
B@ ... ... ... ... C A f (n ; k) f (n ; k + 1)
0 0 0 ::: 1 0
37
Para encontrar la ecuacion caracterstica de la matriz, lo vemos primero para el caso
de una matriz de 2 2:
a ; a
1 ; = ; a ; a
1 2 2
1 2
1 ;
1 2 3
0
que muestra que la ecuacion caracterstica es la siguiente.
a ; a a : : : ak; ak
1 ; 0 : : : 0 0
1 2 3 1
0 1 ;
0. 0. 1 . .
. .
. . . . .
.
0 0 0 : : : 1 ;
= (;k + a k; + a k; + + ak; + ak )
1
1
2
2
1
fr2 (n) = rn... hasta fr (n) = rkn, potencias de las races del polinomio.
1
2 k
Problema (i) Mostrar que cada una de esas funciones ees una solucion de la relacion
(9).
(ii) Ver que son linealmente independientes.
38
Sntesis Dada una relacion de recurrencia lineal homogenea f (n) = a f (n ; 1) + +
ak f (n ; k) (es decir, 0 = ;f (n)+ a f (n ; 1)+ + ak f (n ; k)) consideramos la ecuacion
1
p c + p c =1 1 2
(1 + 5=2)c + (1 ; 5=2)c = 1
1 2
p p
Resolviendo ese sistema, conduce a c = 1= 5 y c = ;1= 5, como se habia calculado
1 2
antes.
39
Ejercicios
Resolver la siguientes relaciones lineales de recurrencia:
(d) Escribir la solución de las relaciones anteriores, para condiciones iniciales generales
f (0) = f0 , f (1) = f1 .
– 40 –
Apéndices
1. Autovalores de matrices definidas por bloques
Consideremos la matriz
A 0
M=
0 B
donde A es una matriz de n × n, B de m × m y 0 denota matrices nulas, tales que M
es de (n + m) × (n + m). Estas matrices aparecen frecuentemente en diversos problemas,
representando por ejemplo dos sistemas A y B independientes.
Es fácil ver que para hallar los autovalores y autovectores de M , basta con obtener los
autovalores de A y de B por separado, y luego unir ambos conjuntos, completando con
ceros los autovectores correspondientes:
A A 0 X A X
AX = λ X ⇒ =λ
0 B 0 0
B A 0 0 B 0
BY = λ Y ⇒ =λ
0 B Y Y
Estas expresiones muestran que todo autovalor y autovector de A o B origina un autovalor
y autovector de M . Además, hemos visto antes que det M = det A det B y por lo tanto,
– 41 –
Los autovalores y autovectores de M serán entonces
1 1 0 0
1 −1 0
, λ4 = 1, V4 ∝ 0
λ1 = 0, V1 ∝
0 , λ2 = 2, V2 ∝ 0 , λ3 = 3, V3 ∝ 1
1
0 0 1 −1
Problemas:
1. En base a los resultados anteriores, determinar los autovalores y una base de los espacios
propios asociados de las matrices
2 −2 0 0
2 −2 0 −1 1 0 0
a) M = −1 1 0 b) M = 0
0 1 3
0 0 3
0 0 3 1
2 −2 0 0
−1 1 2 0 −2
0 0
c) M = d) M = 0 3 0
0 0 1 −1
−1 0 1
0 0 −2 2
2. Para pensar: Discuta el caso en que
A C
M=
0 B
– 42 –
2. Polinomio de Taylor en varias variables. Forma diagonal
Consideremos un campo escalar F : Rn → R, es decir, una función que asigna a
cada vector r = (x1 , . . . , xn ) ∈ Rn un número real F (r) = F (x1 , . . . , xn ). Asumiendo
que poseea derivadas parciales de todo orden continuas en una región |r − a| < R, con
a = (a1 , . . . , an ), se define el polinomio de Taylor de grado k como
X ∂F 1 X ∂ 2F
Pk (r) = F (a) + (a)(xi − ai ) + (a)(xi − ai )(xj − aj ) (1)
i
∂xi 2! i,j ∂xi ∂xj
1 X ∂kF
+... + (a)(xi1 − ai1 )(xi2 − ai2 ) . . . (xik − aik ) (2)
k!i ,i ,...,i ∂xi1 ∂xi2 . . . ∂xik
1 2 k
∂F ∂F
donde ∂x i
(a) = ∂xi
|r=a y las sumas sobre i, j, i1 , . . . ik corren entre 1 y n. Este polinomio
ajusta todas las derivadas parciales de F hasta orden k en r = a, reduciéndose en el
caso de una dimensión (n = 1) al polinomio Taylor ya estudiado. Para r cercano a a, la
diferencia F (r) − Pk (r) es pequeña, con |F (r) − Pk (r)| = O(|r − a|k+1 ).
Los tres primeros términos (1) del desarrollo constituyen el polinomio de Taylor de
∂F ∂F
segundo orden P2 (r). Mediante el gradiente ∇F (r) = ( ∂x 1
, . . . , ∂x n
) y la matriz Hessiana
∂2F ∂2F 2F
. . . ∂x∂1 ∂x
∂x21 ∂x1 ∂x2 n
H(r) =
.. .. ... ..
(3)
. . .
∂2F ∂2F ∂2F
∂xn ∂x1 ∂xn ∂x2
... ∂x2 n
– 43 –
De esta forma, R satisface
λ1 0 ... 0
0 λ2 ... 0
R−1 = RT , RT H(a)R = (5)
.. .. .. ..
. . . .
0 0 . . . λn
donde λ1 , . . . , λn son los autovalores de H(a). Reemplazando ahora r − a = R(r 0 − a0 ),
(r − a)T = (R(r 0 − a0 ))T = (r 0 − a0 )T RT , se obtiene la forma diagonal
1 1 0
(r − a)T H(a)(r − a) = (r − a0 )T (RT H(a)R)(r 0 − a0 )
2 2
n
1X
= λi (x0i − a0i )2 (6)
2 i=1
La forma diagonal (7) permite ver que si λi > 0 ∀ i, F será cóncava “hacia arriba” en
a en todas las direcciones, como en el caso en que a es un mı́nimo local, mientras que si
λi < 0 ∀ i, F será cóncava “hacia abajo” en a en todas las direcciones, como en el caso
en que a es un máximo local. En general, F será cóncava hacia arriba en las variables
x0i asociadas a autovalores λi > 0, y cóncava hacia abajo en las variables x0i asociadas a
autovalores λi < 0. Si algun autovalor λi es nulo, se deben utilizar derivadas de orden
superior u otros métodos para determinar la concavidad respecto de x0i .
donde
x0 √
T x x+y
=R = / 2
y0 y −x + y
5) Muestre que R representa una rotación de 45o en sentido antihorario, y que por lo tanto,
x0 , y 0 , son las coordenadas respecto de ejes rotados 45o en sentido antihorario respecto de
los ejes originales.
6) A partir de la forma diagonal (8) y la anulación del gradiente, concluya que 0 = (0, 0)
es un máximo local de F si |α| < 2 y un punto silla de F si |α| > 2. En particular, si
α > 2, F es en el origen cóncava hacia abajo en x0 y hacia arriba en y 0 . ¿Que sucede en
el caso α = 2?
7) Analice de la misma forma los otros puntos crı́ticos de F . La figura muestra el gráfico
de F cerca del origen para dos valores de α.
– 45 –
3. Autovalores de operadores lineales
Un operador lineal o endomorfismo en un espacio vectorial V es una transformación
lineal L : V → V . Se dice que un vector no nulo v ∈ V es autovector de L si existe un
escalar λ, denominado autovalor, tal que
L(v) = λv
Por lo tanto, el conjunto de todos los autovectores con autovalor λ, junto con el vector
nulo 0 (que satisface L(0) = 0 = λ0 ∀ λ) forma un subespacio de V , denominado espacio
propio o autoespacio asociado al autovalor λ:
Sλ = {v ∈ V |L(v) = λv}
ML X = λX
donde
m11 . . . m1n x1
ML = .. , X = ...
.
mn1 . . . mnn xn
son, respectivamente, la matriz que representa a L en esta base y el vector columna de
coordenadas de v en esta base. Esto implica que λ es autovalor de L si y sólo si λ es
autovalor de la matriz representativa ML , es decir, si y sólo si Det[ML − λIn ] = 0.
Esto es válido para cualquier base elegida, es decir, para cualquier representación
matricial ML de L, por lo que todas las matrices que representan a L en alguna base
– 46 –
deben tener los mismos autovalores. Podemos comprobar esto recordando que si ML y
ML0 representan a L en bases B y B 0 respectivamente, entonces son matrices semejantes:
ML0 = S −1 ML S
donde S es la matriz no singular de cambio de base, cuyas columnas son las coordenadas
de los vectores de la base B 0 en la base original B:
s11 . . . s1n
b0i = s1i b1 + . . . + sni bn , i = 1, . . . , n ⇒ S = ...
sn1 . . . snn
Por lo tanto, los polinomios caracterı́sticos asociados a ML y ML0 son los mismos:
Det[ML0 − λIn ] = Det[S −1 ML S − λIn ] = Det[S −1 (ML − λIn )S] = Det[ML − λIn ]
ya que Det[S −1 AS] = Det(S)Det(A)Det(S) = Det(A). Los autovalores de ML y ML0 serán
entonces idénticos.
Recordemos también que las coordenadas de v en estas bases se relacionan por
X 0 = S −1 X
por lo que si ML X = λX ⇒ ML0 X 0 = S −1 ML SS −1 X = S −1 ML X = λS −1 X = λX 0 . Esto
muestra que si X es autovector de ML con autovalor λ, X 0 = S −1 X es autovector de ML0
con el mismo autovalor λ.
– 47 –
1) s es autovector de Ps con autovalor λ1 = 1
2) s⊥ es autovector de Ps con autovalor λ2 = 0
Estos resultados fueron obtenidos de la definición de Ps , sin utilizar ninguna representación
matricial determinada. En la base B d = (s, s⊥ ) de R2 , la matriz representativa de Ps
será entonces diagonal:
d 1 0
MPs =
0 0
Por otro lado, en la base canónica se obtiene
Ps (e1 ) = Ps (e2 ) = 12 s = 12 (e1 + e2 )
por lo que la matriz que representa a Ps en esta base es
1 1 1
MPs =
2 1 1
Se verifica (probar!) que sus autovalores son λ1 = 1 y λ2 = 0, con espacios propios
generados por los autovectores X1 = (11 ) y X2 = (−1
1 ) respectivamente:
1 1 1 −1 0 −1
MPs = =1 , MPs = =0
1 1 1 1 0 1
siendo X1 y X2 las coordenadas de s y s⊥ en la base canónica. Se comprueba que
d −1 1 0 1 −1 −1 1 1 1
MPs = S MPs S = , con S = , S =
0 0 1 1 2 −1 1
Ejercicios:
1. Hallar las matrices que representan a la reflexión R : R2 → R2 respecto de la
recta y = x en i) la base canónica, ii) la base B 0 = ((1, 1), (−1, 1)) y iii) la base
B 00 = ((1, 0), (1, 1)). Mostrar luego que poseen los mismos autovalores, y que B 0 es una
base de autovectores de R.
–1–
Referencias
[1] R.L. Burden, J.Douglas Faires, Analisis Numerico , Grupo Editorial
Iberoamericana, Mexico, 1985.
[2] J. Demmel, Applied Numerical Linear Algebra, SIAM,Philadelphia, 1997.
2
Hemos visto previamente que toda matriz simetrica A se puede descomponer A =
PDP T , siendo P una matriz ortogonal (P T = P ;1), D una matriz diagonal que contiene
los autovalores de A. Cuando A no es simetrica, pero si cuadrada, si A es diagonizable
existe una descomposicion de A = SDS ;1, siendo S no singular aunque no necesariamente
ortogonal. Pero, cualquier matriz no es diagonizable ! !.
.... Ahora veremos que toda matriz (cuadrada o no, simetrica o no) tiene una factor-
izacion de la forma:
A = PDQT ;
donde P y Q son matrices ortogonales y D una matriz diagonal. Este resultado se llama
\ descomposicion en valores singulares"(DVS), y es una de las mas importantes entre las
descomposiciones de matrices.
... Explicaremos como obtenerla y haremos consideraciones sobre sus aplicaciones.
Denicion Si A es una matriz mn, los valores singulares de A son las races cuadradas
de los autovalores de AT A, y se denotan mediante 1 ; : : : ; n. Es convencional acomodar
los valores singulares de modo que 1 2 : : : n.
Ejemplo 1: Encontrar los valores singulares de A:
Ejemplo
01 11
A = @1 0A
0 1
La matriz AT A
2 1
AT A =
1 2
p : 1 = 3, 2 = 1. En consecuencia los valores singulares de A son :
tiene pautovalores
1 = 3, 2 = 1.
3
Para comprender el signicado lde los valores singulares de A consideremos los autovec-
tores de AT A. Por ser simetrica sabemos que hay n autovectores ortogonales, que se
pueden considerar de longitud 1. As sean v1 ; v2; : : : ; vn esa base de autovectores ordena-
dos y correspondientes a los autovalores 1 2 : : : n. Estos autovectores satisfacen:
AT Avi = ivi;
o equivalentemente
kAvik2 = i;
por consiguiente
p
kAvik = i:
As los valores singulares de A son las longitudes de los vectores Av1 ; : : : ; Avn. Geomet-
ricamente esto tiene una importante interpretacion. Si consideramos el ejemplo 1, y si
consideramos x 2 fx : kxk2 = 1g, entonces kAxk2 = Ax Ax = xT AT Ax =
; 2 1 x
xTATAx = x1 x2 1 2 : 1 = 2x21 + 2x1 x2 + 2x22
x2
lo cual es una forma cuadratica.
... Es facil ver que los valores mnimos y maximos que toma una forma cuadratica en
los vectores x con kxk = 1, es
min xT AT Ax max
si min es el menor autovalor de AT A, y si max es el mayor autovalor de esa matriz.
p En
; 1=
el caso del ejemplo de arriba, el autovector correspondiente a min = 1 es 1=p22 , y
1=p2
el autovector de max = 3 es 1=p2 .
p p
Por tanto, kAvik2 = i, se tiene que 1 = 3 = kAv1k, 2 = 1 = kAv2 k, son
los valores maximo y mnimo de las longitudes kAxk, cuando x recorre la circunferencia
unitaria dada por : kxk = 1.
La transformacion lineal T con matriz A, T : <2 ; ;; > <3 transforma el crculo
unidad kxk = 1 en una \elipse" que esta sobre el plano de ecuacion: x ; y ; z = 0
(vericar que la imagen de la transformacion es ese plano en <3). Las longitudes 1 , y
2 son las longitudes de los semiejes mayor y menor respectivamente de esa elipse.
para cada i = 1; : : : ; r. Eso garantiza que [u1; : : : ; ur ] son ortonormales en <m . Si r < m
ese conjunto no es una base de <m. En ese caso hay que extender ese conjunto para tener
m vectores ortonormales de <m .
... Esa es la parte mas dicil de la factorizacion que queremos obtener: A = U V T .
5
La matriz U estara formada por las columnas ortonormales U = [u1; : : : ; ur ; ur+1; :::um].
...Veamos que con tales matrices V , U , y , se verica que
A = U V T
Como V T = V ;1 por ser una matriz ortogonal, vericar que vale A = U V T , es igual
a ver que ( multiplicando por V ):
AV = U
Sabemos que Avi = i ui, para i = 1; 2; : : : ; r, y que
kAvik = i = 0; para i = r + 1; : : : ; n:
Por tanto,
Avi = 0; para i = r + 1; : : : ; n:
Por consiguiente,
AV = A[v1 : : : vn] = [Av1 : : : Avn]
entonces
AV = [Av1 : : : Avr ; 0 : : : 0] = [1u1 : : : r ur ; 0 : : : 0]
0 1
; BB...1 :. :. .: 0... C
OC
AV = u1 u2 : : : um B @ 0 : : : r CA = U
O O
como se requiere para vericar que A = U V T .
Observacion Los vectores de las columnas de U se denominan vectores singulares por la
izquierda de A, mientras los vectores de las columnas de V se llaman vectores singulares
por la derecha de A. Las matrices U y V no estan determinadas en forma unica por A,
en cambio si, porque contiene los valores singulares de A.
Ejemplo Encontrar una descomposici
0 1 on de valor singular de las matrices
1
1 0
1 1
(i)A = 0 0 1 (ii)A = 1 0A
@
0 1 01 1
1 0
Solucion: (i) Consideramos AT A = @1 1 0A y hallamos los autovalores: 1 = 2,
0 0 1
2 = 1, 3 = 0, con sus autovectores:
011 001 0;11
@1A ; @0A ; @ 1 A
0 1 0
6
Estos vectores son ortogonales, de manera que los normalizamos para obtener:
01=p21 001 0;1=p21
p p
v1 = @1= 2A v2 = @0A v3 = @ 1= 2 A
0 1 0
p p p
Los valores singulares de A son 1 = 2,2 = 1 = 1,3 = 0 = 0.
As
01=p2 0 ;1=p21 p2 0 0
p p
V = @1= 2 0 1= 2 A y = 0 1 0
0 1 0
Para determinar U , calculamos
01=p21
p
1 = 1= 2 1 1 0 @ p A = 1
u1 = Av
0 0 1 1= 2 0
1 0
y
1 001
u2 = Av
2
2= 1
0 0
0 @0A = 0
1 1
1
1 0ya forman una base ortonormal de <2, de manera que tenemos la matriz
Estos vectores
U : U = 0 1 . Esto produce la descomposicion DVS de la matriz A:
1 1 0p2 0 1=p2 1=p2 01
A = 0 10 1 = 0 1
0 0
0 1
0 @ 0 A
0 ;1=p2 1=0p2 10 = U V
T
8
obteniendose ...
0 1 0v1T 1 0T 1
; 1 : : : 0 Bv T C ; ; vr+1
B
= u1 u2 : : : ur @ ... . . . ... C
A B@ ... CA + ur+1 : : : um O @ ... CA
B 2C B
0 : : : r vrT vnT
0 1 0v1T 1
; 1 : : : 0 Bv T C
B
= u1 u2 : : : ur @ ... . . . ... C
A BB@ ...2 CCA
0 : : : r vr T
0 T1
; v1
= 1u1 : : : r ur @ ... C
B A = 1u1v1T + : : : + r urvrT
vrT
Se ha justicado que...
Lema Sea A una matriz m ncon valores singulares 1 2 : : : r > 0 y
r+1 = : : : = n = 0. Sean u1; : : : ; ur vectores singulares por la izquierda, y sean v1; : : : ; vr
vectores singulares por la derecha de A correspondientes aesos valores singulares. entonces
A = 1u1v1T + 2 u2v2T + : : : + r ur vrT
Observacion La DVS de una matriz A da mucha informacion acerca de A como se
resalta en el siguiente teorema:
Teorema Sea A = U V T una descomposicion de valor singular de una matriz A de
m n. Sean 1; : : : ; r todos los valores singulares NO NULOS de A. Entonces
(i) el rango de A es r.
(ii)fu1; u2 ; : : : ; ur g es una base ortonormal de R(A)
(iii)fur+1; ur+2; : : : ; um g es una base ortonormal de N (AT )
(iv)fv1; v2; : : : ; vr g es una base ortonormal de R(AT )
(v)fvr+1; vr+2 ; : : : ; vng es una base ortonormal de N (A)
Demostracion.
(i)Como U y V T son matrices no singulares(ademas, ortogonales) se sabe que rango(A) =
rango(U V T ) coincide con = rango(V T ) = rango() = r.
(ii) Como Avi, con i = 1; : : : ; r son linealmente independientes (ortogonales), y como
ui = (1=i)Avi , i = 1; : : : ; r, entonces fu1; : : : ; ur forman una base ortonormal del
rango(A).
(iii) Como fu1; : : : ; ur ; : : : ; um forman una base ortonormal de <m, luego por (ii), y con-
siderando que fur+1; : : : ; um es una base del espacio complementario a R(A), se obtiene
que ese conjunto es una base ortonormal del subespacio N (AT ) o del R(A)?.
(v) Como Avr+1 = Avr+2 = : : : Avn = 0, se tiene que fvr+1; : : : ; vn, que es un conjunto
9
ortonormal de vectores contenido en el anulador de A, de dimension n ; r, por lo que es
una base ortonormal del N (A).
(iv) Esta propiedad se desprende de considerar (v) y que fv1; v2 ; : : : ; vr g es un conjunto
ortonormal complementario del de (v), por lo que es una base de R(AT ).
Otro resultado importante que se obtiene desde la descomposicion DV S ....
Lema Sea A = U V T la descomposicion de A de m n con rango r. Por consiguiente,
la imagen de la esfera unitaria en <n, bajo la transformacion matricial que aplica x 2 <n
en Ax 2 <m , es
(a)la supercie de un elipsoide en <m si r = n,
(b) un elipsoide solido en <m si r < n.
Demostracion: Sean u1; : : : ; um y v1 ; v2; : : : ; vn los vectores singulares por la izquierda y
por la derecha de A, respectivamente. En razon que rango(A) = r, los valores singulares
0 11 2 : : : r > 0, y r+1 = r+2 = : : : = n = 0.
de A satisfacen
x
BBx12 CC
Sea x = B .. C un vector unitario de <n. Ahora, como V es una matriz ortogonal,
@.A
xn
tambien lo es V T , por tanto V T x es un vector unitario(conserva longitudes), as
0T 1
v1 x
B
B v2T xCCC
V x=B
T
@.A .
.
vnT x
de manera que (v1T x)2 + (v2T x)2 + : : : + (vnT x)2 = 1.
Como A = 1 u1v1T + : : : + r ur vrT . Por tanto,
Ax = 1u1v1T x + : : : + r ur vrT x = (1 v1T x)u1 + : : : + (r vrT x)ur
Ax = (1v1T x)u1 + : : : + (r vrT x)ur = y1u1 + : : : + yr ur
donde denotamos con yi = (iviT x).
(a) Si r = n, entonces corresponde al caso n m, y
Ax = y1u1 + : : : + ynun = Uy
0y 1
BBy12 CC
donde y = B @ ... CA.Por consiguiente, como U es ortogonal, kAxk = kUyk = kyk. Como
yn
( y1 )2 + : : : + ( yn )2 = (v1T x)2 + : : : + (vnT x)2 = 1
1 n
lo que muestra que los vectores Ax forman la supercie de un elipsoide en <m.
(b) Si r < n, la unica diferencia en los pasos anteriores es que la ecuacion se convierte
en
( y1 )2 + : : : + ( yr )2 1
1 r
puesto que despreciamos algunos terminos. Esto corresponde a un elipsoide solido de <m.
10
Facultad de Ingenierı́a
UNLP
Matemática C
Bibliografı́a:
1. E. Kreyszig, Matemáticas Avanzadas para Ingenierı́a (2do.vol), Limusa.
–2–
1. Ecuaciones diferenciales lineales ordinarias
1.1. Introducción
Estudiaremos en este capı́tulo ecuaciones diferenciales lineales. Recordemos primero
que una ecuación diferencial es una ecuación donde la incógnita es una función, y donde
esta aparece vinculada con sus derivadas. Si la función incógnita depende de una sóla
variable, que llamaremos t, la ecuación diferencial se denomina ordinaria. Si la misma
contiene derivadas hasta de orden n de la función incógnita, se dice que la ecuación
diferencial es de orden n.
es un espacio vectorial.
Demostración: Una solución de (1.12) es una función y(t) que la satisface. El conjunto
de soluciones S = {y(t) | L[y] = 0}, es el núcleo del operador lineal L y la propiedad 1 es
entonces consecuencia directa de la linealidad de L:
a) La función nula y(t) = 0 ∀ t ∈ I es siempre una solución de (1.12), denominada
solución trivial, como puede verse fácilmente (L[0] = 0).
b) Además, si y1 (t) e y2 (t) son soluciones de (1.12), la combinación lineal
y(t) = c1 y1 (t) + c2 y2 (t)
es también solución de (1.12), para cualquier valor de las constantes c1 y c2 , ya que
L[c1 y1 + c2 y2 ] = c1 L[y1 ] + c2 L[y2 ] = c1 0 + c2 0 = 0
Es decir, si y(t) es solución, cy(t) también lo es, y si y1 (t) e y2 (t) son soluciones, y1 (t)+y2 (t)
también lo es. Por lo tanto, S es no vacı́o y cerrado bajo las operaciones usuales de suma
de funciones y multiplicación por un escalar. Esto implica que S es un subespacio del es-
pacio vectorial de funciones derivables hasta orden n en I, y por ende un espacio vectorial.
El conjunto {y1 (t), . . . , yn (t)} es pues una base de S, y la expresión (1.13), con n constantes
de integración arbitrarias c1 , . . . , cn , es la solución general de (1.12).
–5–
Probaremos este teorema en las páginas siguientes. Como ejemplo, consideremos la
ecuación lineal de segundo orden (n = 2)
y 00 + y = 0 (1.14)
que corresponde a k/m = 1 en (1.5) (en unidades apropiadas!). Podemos ver que
y1 (t) = cos t, y2 (t) = sen t
son soluciones de (1.14), ya que (cos t)00 = − cos t, (sen t)00 = −sen t. Por lo tanto, como
el conjunto {cos t , sen t} es linealmente independiente y la ecuación (1.14) es de orden 2,
toda solución de (1.14) es necesariamente de la forma
y(t) = c1 cos t + c2 sen t (1.15)
con c1 , c2 constantes. El conjunto {cos t, sen t} es pues una base del espacio S de soluciones.
con t0 ∈ I. Si todas las ai (t) son continuas para t ∈ I, existe una única solución y(t)
para t ∈ I que satisface (1.12) junto con las n condiciones iniciales (1.16), ∀ b0 , b1 , . . . , bn−1 .
Este es un caso particular del teorema general de existencia y unicidad que se aplica,
bajo ciertas condiciones, también al caso no homogéneo e incluso al caso no lineal, como
veremos más adelante. La solución que satisface (1.12) junto con (1.16) es una solución
particular de (1.12).
En el caso homogéneo, esto implica, utilizando la solución general (1.13), que las n
constantes c1 , c2 , . . . , cn quedan completamente determinadas por las n condi-
ciones iniciales (1.16), para cualquier valor de b0 , b1 , . . . , bn−1 . Las condiciones iniciales
conducen a un sistema de n ecuaciones lineales para c1 , . . . , cn :
c1 y1 (t0 )+ ... +cn yn (t0 ) = b0
c1 y10 (t0 )+
... +cn yn0 (t0 ) = b1
.. .. ..
. . .
(n−1) (n−1)
c1 y1 (t0 )+ . . . +cn yn (t0 ) = bn−1
El presente teorema asegura que el sistema anterior posee solución única (es compatible
determinado) ∀ t0 ∈ I. Por lo tanto, el determinante de la matriz de coeficientes debe ser
no nulo ∀ t0 ∈ I, es decir,
y1 (t) y2 (t) ... yn (t)
y10 (t) y20 (t) ... yn0 (t)
W (t) = 6= 0 ∀t ∈ I (1.17)
...
(n−1) (n−1) (n−1)
y1 (t) y2 (t) . . . yn (t)
Este determinante se denomina Wronskiano.
–6–
Problema 3: Probar que si las funciones {y1 (t), . . . , yn (t)} fuesen linealmente depen-
dientes para t ∈ I, entonces W (t) = 0 ∀ t ∈ I (Sug.: Usar que una de las yi (t) será en tal
caso combinación lineal de las restantes!).
–7–
4. Soluciones complejas. Supongamos que t y las n funciones ai (t), i = 0, . . . , n − 1,
son reales. Si y(t) es una solución compleja de la ecuación homogénea (1.12),
donde y1 (t) e y2 (t) son funciones reales y i2 = −1, tanto la parte real
y1 (t) = Re[y(t)]
L[y1 ] = 0, L[y2 ] = 0
Esto es muy fácil de probar, dado que L es lineal y real. La linealidad implica
0 = L[y] = L[y1 + iy2 ] = L[y1 ] + iL[y2 ]
y como L es real, L[y1 ] y L[y2 ] son ambos reales, por lo que la igualdad anterior implica
L[y1 ] = 0, L[y2 ] = 0
Además, la función conjugada y(t) = y1 (t) − iy2 (t) es también solución de (1.12), pues
L[y] = L[y] = 0 = 0.
Fórmula de Euler. El resultado anterior resulta útil en conjunto con la fórmula de Euler
para la exponencial de un número complejo, que se obtiene del desarrollo en serie de la
exponencial:
eibt = cos(bt) + i sin(bt) (1.21)
y en general,
e(a+ib)t = eat eibt = eat cos(bt) + ieat sin(bt) (1.22)
Por lo tanto, para a, b y t reales,
y 0 + p(t)y = 0 (1.24)
y 0 + yt = 0
2 /2 2 /2
es y(t) = ce−t , y que la única solución que satisface y(0) = 1 es y(t) = e−t .
Esta ecuación juega un rol muy importante en diversas áreas de la fı́sica e ingenierı́a. Por
ejemplo, la 2a ley de Newton (1.4) conduce a una ecuación de este tipo cuando la fuerza
F en (1.4) es una función lineal de la posición y velocidad: F (t) = αy + βy 0 .
En tal caso p(t) = −α/m, q(t) = −β/m.
Los resultados generales anteriores implican que si p(t) y q(t) son continuas en un intervalo
I, la ecuación (1.28) posee siempre dos soluciones linealmente independientes y1 (t)
y y2 (t), tales que toda solución de (1.28) puede escribirse en la forma
–9–
Además, el problema de condiciones iniciales
00
y + p(t)y 0 + q(t)y = 0
y(t0 ) = y0 (1.30)
y 0 (t0 ) = v0
que entonces posee ∀ t0 ∈ I una solución única para c1 y c2 , para cualquier valor de y0 y
v0 (sistema compatible determinado). Esto implica que el determinante (Wronskiano)
y1 (t) y2 (t)
W (t) = 0
= y1 (t)y20 (t) − y2 (t)y10 (t) (1.32)
y1 (t) y20 (t)
y20 (t0 )y0 − y2 (t0 )v0 −y10 (t0 )y0 + y1 (t0 )v0
c1 = , c2 =
W (t0 ) W (t0 )
– 10 –
A diferencia de la ecuación lineal de primer orden, para el caso general no es posible
dar una expresión de y1 e y2 en términos de integrales de p(t) y q(t). Sin embargo, sı́ es
posible encontrar la segunda solución y2 (t) si se conoce una de las soluciones y1 (t):
y 00 + ay 0 + by = 0 (1.36)
Como eλt 6= 0 (tanto si λ es real como complejo), eλt será solución de (1.36) si y sólo si
λ2 + aλ + b = 0 (1.39)
Esta ecuación se denomina ecuación caracterı́stica. Tiene a lo sumo dos raı́ces distintas:
√ √
−a + a2 − 4b −a − a2 − 4b
λ1 = , λ2 =
2 2
Caso II: λ1 = λ2 (a2 = 4b): La única raı́z λ = −a/2 origina la solución y1 (t) = eλt .
La segunda solución y2 (t) podemos hallarla con el método (1.33). Obtenemos aquı́
R
e− adt e−at
Z Z Z
v(t) = dt = dt = 1dt = t
e2λt e−at
donde hemos descartado las constantes de integración (ver página previa). Por lo tanto,
una segunda solución linealmente independiente de y1 (t) es y2 (t) = v(t)y1 (t) = teλt .
Obtenemos ası́ el par de soluciones linealmente independientes
y la solución general es
y(t) = c1 eλt + c2 t eλt (1.43)
– 12 –
Raı́ces complejas. Supondremos a y b reales. El caso I comprende dos subcasos:
I.1. a2 > 4b: Ambas raı́ces λ1 , λ2 son reales. Las soluciones son de tipo exponencial
(creciente o decreciente) o constante (si λ1 o λ2 es nulo).
El espacio generado por las soluciones (1.40) o (1.44) es el mismo cuando se consi-
deran escalares complejos: Se deja como ejercicio probar que
c1 eαt cos(ωt) + c2 eαt sen (ωt) = c+ e(α+iω)t + c− e(α−iω)t (1.46)
con
c1 ∓ ic2
c± = (1.47)
2
Amplitud y fase. La solución (1.45) suele escribirse en forma más clara como
A cos φ = c1 , −A sin φ = c2
– 13 –
yHtL yHtL yHtL
t t t
T 2T 3T 4T T 2T 3T 4T T 2T 3T 4T
-A -A -A
Gráfico de la solución (1.48), y(t) = Aeαt cos(ωt + φ), para α = −ω/10 y distintos valores
de la fase φ. T = 2π/ω > 0 es el perı́odo de la función cos(ωt + φ).
Ejemplo 1:
y 00 − y = 0 (1.50)
Planteando una solución de la forma y(t) = eλt , se obtiene la ecuación λ2 − 1 = 0, cuyas
raı́ces son λ1 = 1, λ2 = −1. Por lo tanto,
y(t) = c1 et + c2 e−t
Ejemplo 2:
y 00 + 2y 0 + y = 0 (1.52)
Planteando una solución de la forma y(t) = eλt , se obtiene la ecuación λ2 + 2λ + 1 = 0,
es decir (λ + 1)2 = 0, cuya única raı́z es λ = −1. Por lo tanto, utilizando (1.42),
Ejemplo 3:
y 00 + 2y 0 + 5y = 0 (1.54)
Planteando una solución
√
de la forma y(t) = eλt , se√obtiene la ecuación λ2 +2λ+5 = 0, cuyas
raı́ces son λ1 = −2+ 2 4−20 = −1 + 2i, λ2 = −2− 2 4−20 = −1 − 2i. Por lo tanto, utilizando
(1.44),
y1 (t) = Re[e(−1+2i)t ] = e−t cos(2t), y2 (t) = Im[e(−1+2i)t ] = e−t sen (2t) (1.55)
Esta solución general puede expresarse también como y(t) = c+ e(−1+2i)t + c− e(−1−2i)t o
y(t) = Ae−t cos(2t + φ), donde c± y A, φ se relacionan con c1 , c2 mediante (1.47) y (1.49).
– 14 –
yHtL
yHtL yHtL
4 1 1
Exp@tD Exp@-tD Cos@2tD
3
Exp@-tD
2 Exp@-tD Sin@2tD
t Exp@-tD
1 0 t
Exp@-tD 1 2 3 4
0 t0 1 2 3 4
t
1 2 3 4
Problema
11: Halle las soluciones particulares de (1.50), (1.52) y (1.54) que satisfacen
y(0) = 1
. Grafique estas soluciones.
y 0 (0) = 0
y1 y2
Problema 12: Si W [y1 , y2 ] = 0
denota el wronskiano (1.32), muestre que
y1 y20
a) W [eλ1 t , eλ2 t ] = (λ2 − λ1 )e(λ1 +λ2 )t
b) W [eλt , teλt ] = e2λt
c) W [eαt cos(ωt), eαt sen (ωt)] = ωe2αt
Ejercicios I:
1) Hallar la solución general de las siguientes ecuaciones diferenciales. Dar una expresión
real de la misma.
a) y 00 − 4y 0 + 4y = 0 b) y 00 − 3y 0 − 4y = 0 c) y 00 + 4y = 0
d) y 00 + 4y 0 = 0 e) y 00 + 4y 0 + 5y = 0 f ) y 00 = 0
000 0
g) y = y h) y 00 + 2αy 0 + α2 y = 0, i) y 00 − ω 2 y = 0, ω 6= 0
2) Excepto en g), hallar las soluciones particulares de las ecuaciones anteriores que satis-
facen a) y(0) = 0, y 0 (0) = 1, b) y(0) = 1, y 0 (0) = 0. Grafı́quelas.
En g) considerar y(0) = y 0 (0) = y 00 (0) = 1.
– 15 –
1.7. Aplicaciones
Problema 13: El oscilador armónico. Determinar el mo-
vimiento de una masa m > 0 unida a un resorte de constante
k > 0, de modo que la fuerza neta sobre la masa es F = −ky,
con y la posición medida desde el punto de equilibrio.
M
a) Planteando una solución y(t) = eλt , mostrar que λ = ±iω y que por lo tanto, las
soluciones reales linealmente independientes son
y la solución general es
y(t) = c1 cos(ωt) + c2 sen (ωt)
b) Usando (1.48), reescribir esta solución como
y(t) = A cos(ωt + φ)
Esta expresión permite ver claramente que toda solución corresponde a un movimiento
oscilatorio de amplitud A y frecuencia angular ω. La frecuencia de oscilación es
ω
f=
2π
y el perı́odo r
1 2π m
T = = = 2π
f ω k
ya que ωT = 2π y por lo tanto A cos(ω(t + T ) + φ) = A cos(ωt + φ) (probar!). Observar
que el perı́odo es independiente de la amplitud A y la fase φ, es decir, de las condiciones
iniciales. Estas determinan A y φ, pero no ω.
c1 = y0 , c2 = v0 /ω
y por lo tanto q
A = y02 + v02 /ω 2 , tan φ = −v0 /(ωy0 )
c) Analizar el caso ω = 0 en (1.56). Determinar la solución general.
– 16 –
Problema 14: El oscilador armónico amortiguado.
Determinar el movimiento de una masa m > 0 unida a un resorte
de constante k > 0 en un medio viscoso (en el que la fuerza de
roce es proporcional a la velocidad), de modo que la fuerza neta
sobre la masa es F = −ky − µy 0 , con y la posición medida desde
el punto de equilibrio y µ > 0 un coeficiente de roce.
M
II. γ = ω: Amortiguamiento crı́tico. Probar que en este caso ambas raı́ces son
coincidentes: λ± = −γ < 0, y que la solución general es
y(t) = c1 e−γt + c2 te−γt
Describa en forma cualitativa el movimiento resultante.
III. γ < ω: Movimiento subamortiguado. Probar que en este caso las raı́ces son
complejas conjugadas,
p
λ± = −γ ± iω γ , ω γ = ω 2 − γ 2 > 0
con ω γ real, y que la solución general es entonces
y(t) = c1 e−γt cos(ω γ t) + c2 e−γt sen (ω γ t) = Ae−γt cos(ω γ t + φ)
Describa en forma cualitativa el movimiento resultante, mostrando que corresponde a un
movimiento oscilatorio con una amplitud que decrece exponencialmente al aumentar t, y
una frecuencia angular efectiva ω γ < ω. τ = 1/γ es el tiempo de decaimiento (o relajación).
c) Hallar la solución en los casos I, II y III que satisface las condiciones iniciales:
i) Desplazamiento inicial A, velocidad inicial nula: y(0) = A, y 0 (0) = 0.
ii) Desplazamiento inicial nulo, velocidad inicial v0 : y(0) = 0, y 0 (0) = v0 .
– 17 –
yHtL yHtL
A Γ=0 A Γ=0
t t
T 2T 3T 4T T 2T 3T 4T
-A -A
yHtL yHtL
A Γ=Ω10 A Γ=Ω10
t t
T 2T 3T 4T T 2T 3T 4T
-A -A
yHtL yHtL
A Γ=Ω A Γ=Ω
t t
T 2T 3T 4T T 2T 3T 4T
-A -A
yHtL yHtL
A Γ=2 Ω A Γ=2 Ω
t t
T 2T 3T 4T T 2T 3T 4T
-A -A
– 18 –
Problema 15: Circuito LCR en serie. i C
Determinar la descarga de un capacitor de capacitancia L
C en un circuito como el de la figura, con resistencia R
e inductancia L. R
b) Discutir los tres casos posibles de evolución, indicando para qué valores de L, C, R el
sistema será sub y sobre-amortiguado, y en que caso será crı́tico.
c) Determinar explı́citamente la solución para una carga inicial q0 y corriente inicial i0 = 0
(circuito inicialmente abierto, que se cierra en t = 0).
donde φ es el ángulo que forma el hilo con la vertical, ya que la fuerza en la dirección
tangencial es −mg sen φ. Podemos reescribir esta ecuación como
Esta es una ecuación diferencial de segundo orden no lineal, por lo que en principio no
podemos aplicar los métodos presentes. Sin embargo, para pequeños ángulos |φ| 1,
podemos escribir, utilizando el desarrollo de Maclaurin de sen φ ,
sen φ = φ + O(φ3 )
– 19 –
Despreciando los términos O(φ3 ), obtenemos la aproximación lineal sen φ ≈ φ, que con-
duce a la ecuación diferencial lineal
φ00 + ω 2 φ = 0
Esta es exactamente igual a la del oscilador armónico. Por lo tanto, para pequeños ángulos
el movimiento del péndulo es similar al de una masa unida a un resorte.
a) Mostrar, en base a la discusión anterior, que el perı́odo de oscilación para pequeños
ángulos iniciales será independiente de la amplitud:
p
T = 2π/ω = 2π L/g
b) Determinar φ(t) para φ(0) = φ0 , φ0 (0) = 0.
Ejercicios II:
1) Determinar el movimiento de una masa m = 1kg sujeta a un resorte de constante
k = 1N/m, con un coeficiente de roce viscoso µ: Halle la solución general, el perı́odo en
ausencia de roce, y el valor de µ a partir del cual el sistema cesa de exhibir oscilaciones.
2) Determine la solución de la ecuación diferencial
y 00 + 2γy 0 − α2 y = 0
que corresponde a k < 0 en el problema 17, asumiendo α > 0, γ > 0. Indique si el roce
(µ = 2mγ) logra evitar el alejamiento de la posición de equilibrio.
– 20 –
Problema 18: Ecuación de Euler de 2o orden.
Esta ecuación es de la forma
y0 y
y 00 + b + a 2 = 0 (1.57)
x x
donde a y b son constantes y x ∈ (0, ∞) denota la variable independiente. Esta ecuación
lineal puede resolverse exactamente y surge en diversas aplicaciones.
a) Mostrar que la función
y(x) = xλ
será solución de (1.57) si y sólo si λ es raı́z de la ecuación
λ2 + λ(b − 1) + a = 0
b) Si dicha ecuación posee dos raı́ces distintas λ1 , λ2 , justifique que la solución general es
y(x) = c1 xλ + c2 xλ ln x (1.59)
– 21 –
1.8. Ecuación lineal homogénea de orden n con coeficientes cons-
tantes
Los resultados anteriores se generalizan en forma inmediata a la ecuación
y (n) + a(n−1) y (n−1) + . . . + a1 y 0 + a0 y = 0
donde a0 , . . . , an−1 son constantes. Proponiendo una solución y(t) = eλt , obtenemos
eλt [λn + an−1 λn−1 + . . . + a1 λ + a0 ] = 0, lo que conduce a la ecuación caracterı́stica
λn + an−1 λn−1 + . . . + a1 λ + a0 = 0
Si esta ecuación posee n raı́ces distintas λi , i = 1, . . . , n, las n soluciones linealmente
independientes serán yi (t) = eλi t y la solución general será
y(t) = c1 eλ1 t + . . . + cn eλn t
Por el contrario, si una raı́z λ tiene multiplicidad m, pueden obtenerse de ella m soluciones
linealmente independientes,
eλt , teλt , . . . , tm−1 eλt
P
Como la suma de todas las multiplicidades de las raı́ces distintas es n ( i mi = 1) se
obtienen ası́ n soluciones linealmente independientes.
Las raı́ces complejas se tratan de forma similar. Si los ai , i = 1, . . . , n, son todos reales,
las raı́ces complejas aparecen en pares conjugados: λ = α±iω. De cada par de multiplici-
dad m pueden obtenerse 2m soluciones reales tk eαt cos(ωt), tk eαt sen(ωt), k = 0, . . . , m−1.
Importante: Todas las raı́ces, tanto reales como complejas, deben ser incluidas en la so-
lución general.
es decir,
L[y] = f (t) (1.61)
donde a1 (t), . . . , an (t) y f (t) continuas en intervalo abierto I.
1. La solución general de (1.60) está dada por la suma de la solución general yh (t) de la
ecuación homogénea más una solución particular yp (t) de la ecuación no homogénea:
donde
yh (t) = c1 y1 (t) + . . . + cn yn (t) (1.63)
es la solución general (1.13) y satisface L[yh ] = 0, mientras que yp (t) satisface L[yp ] = f (t).
Demostración: Dado que L[yh ] = 0 y L[yp ] = f (t), vemos que (1.62) es también
solución de (1.60), pues al ser L lineal,
Además, toda solución y(t) de (1.60) es de la forma (1.62), pues si L[y(t)] = f (t), entonces
lo que muestra que la diferencia y(t) − yp (t) es una solución yh (t) de la ecuación
homogénea. Por lo tanto y(t) − yp (t) = yh (t) y entonces y(t) = yh (t) + yp (t).
Para resolver la ecuación (1.60) debemos pues resolver la ecuación homogénea y luego
encontrar alguna solución particular yp (t) de (1.60) mediante algún método.
2. Si yp1 (t), yp2 (t) son soluciones de (1.60) para f (t) = f1 (t) y f (t) = f2 (t) respectiva-
mente, una solución particular de (1.60) para la combinación lineal
f (t) = c1 f1 (t) + c2 f2 (t) es la combinación lineal de soluciones particulares:
– 23 –
1.10. La ecuación lineal no homogénea de primer orden
La ecuación es
y 0 + p(t)y = f (t) (1.64)
Vimos previamente que la solución general de la ecuación homogénea es
R
yh (t) = cy1 (t), y1 (t) = e− p(t)dt
Para hallar una solución particular, utilizamos el método usualmente denominado varia-
ción de parámetros: Como en (1.33), consiste en proponer una solución de la forma
Problema 19: Probar que la solución particular que se anula en t = t0 puede escribirse
como Z t Rt
yp (t) = g(t, t0 )f (t0 )dt0 , con g(t, t0 ) = y1 (t)/y1 (t0 ) = e− t0 p(s)ds
t0
2 /2
y que la solución general es entonces y(t) = ce−t + 1.
– 24 –
1.11. La ecuación lineal no homogénea de segundo orden
Consideremos ahora
y 00 + p(t)y 0 + q(t)y = f (t) (1.68)
donde
y (t) y2 (t)
W (t) = 10 = y1 (t)y20 (t) − y10 (t)y2 (t)
(1.70)
y1 (t) y20 (t)
es el wronskiano de las soluciones (hemos visto ya que W (t) 6= 0 ∀ t ∈ I).
La solución general de (1.68) es entonces
Problema 21: Probar a partir de (1.69) que la solución particular que satisface yp (t0 ) =
yp0 (t0 ) = 0 es
Z t
−y1 (t)y2 (t0 ) + y2 (t)y1 (t0 )
yp (t) = g(t, t0 )b(t0 )dt0 , g(t, t0 ) =
t0 W (t0 )
siendo g(t, t0 ) la solución de la ecuación homogénea que satisface y(t0 ) = 0, y 0 (t0 ) = 1.
– 25 –
Ejercicios III. Halle la solución general de las siguientes ecuaciones diferenciales.
Utilice resultados de ejercicios previos.
a) y 00 + y 0 /t − 4y 0 /t2 = t b) y 00 − y = e−t
y 00 + ay 0 + by = f (t) (1.73)
es decir,
L[y] = f (t), L[y] = y 00 + ay 0 + by
Método general:
Para obtener una solución particular en el caso de una f (t) general, podemos aplicar el
método de variación de parámetros, cuyo resultado final es la ecuación (1.69).
eαt
Z Z
yp (t) = [− cos(ωt) e sin(ωt)f (t)dt + sin(ωt) e−αt cos(ωt)f (t)dt] (1.76)
−αt
ω
Problema 25: Muestre que la solución particular que satisface yp (t0 ) = yp0 (t0 ) = 0 puede
escribirse en todos los casos como
Z t
yp (t) = g(t − t0 )b(t0 )dt0 ,
t0
– 26 –
Ejemplo : Resolver
y 00 + 4y 0 + 4y = f (t)
Proponiendo y(t) = eλt para la solución de la ecuación homogénea se obtiene λ2 +4λ+4 =
(λ + 2)2 = 0, o sea λ = −2. La solución general de la ecuación homogénea es entonces
t2
Z Z
yp (t) = e [t dt − tdt] = e−2t [t2 − t2 /2] = e−2t
−2t
2
La solución general de la ecuación
y 00 + 4y 0 + 4y = e−2t
es entonces
t2 −2t
y(t) = c1 e−2t + c2 te−2t + e
2
0 c1 + 0 = 0
Si las condiciones iniciales son y(0) = y (0) = 0, se obtiene el sistema
−2c1 + c2 = 0
cuya única solución es c1 = c2 = 0. La única solución particular de la ecuación anterior
2
que satisface esta condición inicial es por lo tanto y(t) = t2 e−2t .
a) y 00 + 2y 0 + y = e−t b) y 00 + 2y 0 + y = te−t
c) y 00 + y = A cos(t) d) y 00 − y = Ae−t
e−t
e) y 00 + 2y 0 + y = 1+t2
f ) y 00 − y = e−t cos t
– 27 –
1.13. Método de coeficientes indeterminados para ecuaciones
con coeficientes constantes
En el caso de coeficientes constantes, este método facilita el cálculo de una solución
particular de L[y] = f (t) cuando f (t) es exponencial, seno, coseno, polinomio o producto
de estas funciones. Consiste en proponer una solución particular yp (t) del mismo tipo que
f (t), si es que tal propuesta no contiene sumandos que sean soluciones de la ecuación
homogénea. Damos a continuación una tabla de propuestas básicas de solución particu-
lar yp (t) de L[y] = f (t), válidas para el caso general de orden n con coeficientes constantes.
Problema 28: Mostrar que una solución particular de y 00 − y = Ae−t es yp (t) = − 21 Ate−t .
Ejemplo 2:
y 00 + ay 0 + by = A0 + A1 t + A2 t2 , A2 6= 0 (1.78)
Proponiendo
yp (t) = B0 + B1 t + B2 t2
se obtiene yp0 = B1 + 2B2 t, yp00 = 2B2 y reemplazando en (1.78),
(2B2 + aB1 + bB0 ) + (2aB2 + bB1 )t + bB2 t2 = A0 + A1 t + A2 t2
Igualando los coeficientes de igual grado, se llega al sistema
bB0 + aB1 + 2B2 = A0
bB1 + 2aB2 = A1
bB2 = A2
– 29 –
Ejemplo 3:
y 00 + ay 0 + by = A cos ωt (1.79)
Tenemos dos formas de resolverlo: 1) Se propone
yp (t) = B cos ωt + C sen ωt
Se obtiene yp0 = ω(C cos ωt − B sen ωt), yp00 (t) = −ω 2 yp y reemplazando en la ecuación,
((b − ω 2 )B + aCω) cos ωt + ((b − ω 2 )C − aBω) sen ωt = B cos ωt
que conduce al sistema
(b − ω 2 )B + aωC = A
−aωB + (b − ω 2 )C = 0
Este posee solución única salvo que a = 0 y ω 2 = b > 0 (asumiendo ω real), caso en el
que cos ωt es solución.
Problema 31: Probar que una solución particular de y 00 + 2y 0 + y = A cos t
es yp (t) = 21 A sen t.
– 30 –
Problema 33: Mostrar que una solución particular de y 00 + 2y 0 + y = Aeit es
yp (t) = 2i1 Aeit = − 2i Aeit , y que por lo tanto,
a) yp (t) = 12 A sen t es solución particular de y 00 + 2y 0 + y = A cos t
b) yp (t) = − 12 A cos t es solución particular de y 00 + 2y 0 + y = A sen t.
Determinar la diferencia de fase de la solución particular con respecto a la entrada.
y 00 + ω 2 y = A cos(ωt),
a) y 00 + 2y 0 + y = e−2t b) y 00 + 2y 0 + y = 4e−2t + t + t2
c) y 00 + 4y = A cos(ωt), ω 2 6= 4 d) y 00 + 4y = A cos(2t)
4) a) Muestre que en una ecuación diferencial lineal de segundo orden, si f (t) → αf (t), la
solución particular obtenida por el método general o por el de coeficientes indeterminados,
se multiplica por α.
b) ¿ Es válida dicha propiedad para la solución particular de la misma ecuación que satis-
face condiciones iniciales fijas no nulas y(0) = y0 , y 0 (0) = v0 ? ¿Qué sucede si y0 = v0 = 0?
– 31 –
1.14. Aplicaciones
Problema 34. El oscilador armónico en presencia de una fuerza constante
Supongamos que se aplica una fuerza constante F , tal como la fuerza de gravedad
F = −mg, sobre una masa unida a un resorte. Muestre que la ecuación que describe la
posición y (medida a partir de la posición de equilibrio del resorte para F = 0) es
y 00 + ω 2 y = f , ω 2 = k/m > 0, f = F/m > 0
a) Muestre que una solución particular de esta ecuación es la constante
yp (t) = y0 , y0 = f /ω 2 = F/k
y que y0 representa la nueva posición de equilibrio en presencia de la fuerza constante.
b) Escriba la solución general de la ecuación, y muestre que el único efecto de la fuerza
constante fue desplazar el punto de equilibrio, es decir, el centro de las oscilaciones.
c) Muestre que la ecuación diferencial que satisface ỹ = y − y0 (posición medida a partir
del nuevo punto de equilibrio) es idéntica a la ecuación que satisface y para F = 0.
Problema 35.
El oscilador armónico forzado. Resonancia.
– 32 –
d) Mostrar que si ω ex = ω (resonancia), la solución general es
A
y(t) = c1 cos(ωt) + c2 sen (ωt) + sen (ωt) , (ω ex = ω) (1.81)
2ω
y la solución que satisface y(0) = y 0 (0) = 0 es
A
y(t) = t sen (ωt), (ω ex = ω) (1.82)
2ω
Grafique e interprete esta solución, y discuta el fenómeno de resonancia.
e) Muestre que el lı́mite de la solución (1.80) para ω ex → ω (y t fijo) es la solución (1.81).
yHtL yHtL
Ωe=0.8 Ω Ωe=0.9 Ω
10 A 10 A
t t
-10 A -10 A
10 T 20 T 10 T 20 T
yHtL yHtL
Ωe=0.95 Ω 50 A Ωe=Ω
10 A
-10 A
t t
-10 A
-10 A
10 T 20 T -50 A 10 T 20 T
Problema 36.
Oscilador forzado amortiguado.
Examinemos ahora el sistema anterior en presencia
de una fuerza de roce viscosa Fr = −µy 0 .
a) Mostrar que la ecuación que describe el movimiento
en presencia de una fuerza externa F (t) es M
– 33 –
b) Mostrar que para
f (t) = F cos(ω ex t)
una solución particular es
10 A 10 A
t t
-10 A -10 A
10 T 20 T 10 T 20 T
yHtL AHΩeL
Ωe=Ω
10 A
10 A Γ=Ω20
-10 A
10 T 20 T ΩeΩ
1 2
Gráficos de la solución en presencia de roce viscoso con γ = ω/20 para y(0) = y 0 (0) = 0.
La última figura (1.80) muestra la amplitud de la solución particular en función de la
frecuencia externa para γ = ω/20, ω/10 y ω/5. Es máxima para ω ex ≈ ω.
– 34 –
La ecuación no homogénea de orden n.
El método (1.33) para obtener una solución particular se puede extender al caso general
– 35 –
2. Sistemas de ecuaciones diferenciales ordinarias
Un sistema de ecuaciones diferenciales ordinarias de primer orden es un sistema con
n funciones incógnitas y1 (t), y2 (t), . . . , yn (t), que deben satisfacer las n ecuaciones
0
y1 = f1 (t, y1 , . . . , yn )
.. (2.1)
.
y 0 = f (t, y , . . . , y )
n n 1 n
Toda ecuación diferencial ordinaria de orden superior puede expresarse como un sistema
de ecuaciones ordinarias de primer orden.
y 00 = f (t, y, y 0 )
– 36 –
es equivalente al sistema de dos ecuaciones de primer orden
0
y1 = y2
y20 = f (t, y1 , y2 )
donde y1 = y y y2 = y 0 . Si y(t) representa una posición, y2 (t) = y 0 (t) es la velocidad.
Problema 1: Escribir la ecuación y 00 + y = t como un sistema de primer orden.
– 37 –
2.1. Sistemas lineales de primer orden
Un sistema de n ecuaciones diferenciales de primer orden es lineal si las n funciones fi (t, Y )
son funciones lineales de y1 , y2 , . . ., yn (aunque no necesariamente de t). Un sistema lineal
de primer orden puede escribirse en la forma
0
y1 = a11 (t)y1 + . . . a1n (t)yn + f1 (t)
.. (2.8)
.
y 0 = a (t)y + . . . + a (t)y + f (t)
n n1 1 nn n n
es decir,
Y 0 = A(t)Y + F (t) (2.10)
con Y (t), F (t) vectores columna de 1 × n y A(t) una matriz de n × n.
y1 a11 (t) . . . ann (t) f1
Y = ... , A(t) = ... .
, F (t) = .. (2.11)
yn an1 (t) . . . ann (t) fn
En este caso el teorema de existencia y unicidad asegura, si todos los elementos aij (t)
y fi (t) son funciones continuas en un intervalo I, que el problema de condiciones iniciales
Y 0 = A(t)Y + F (t)
(2.12)
Y (t0 ) = Y0
tendrá solución única ∀ Y0 ∈ Rn , ∀ t0 ∈ I.
Problema 2: Mostrar que la unicidad implica que si Y1 (t), Y2 (t) son dos soluciones de
(2.10) y cumplen Y1 (t0 ) 6= Y2 (t0 ), entonces Y1 (t) 6= Y2 (t) ∀ t ∈ I.
Ejemplo: El sistema 0
x = x−y
(2.13)
y 0 = −x + y + 2t
es un sistema de dos ecuaciones diferenciales lineales de primer orden para las funciones
incógnitas x(t), y(t). Podemos escribirlo en forma matricial como
0
x 1 −1 x 0
= + (2.14)
y0 −1 1 y 2t
o sea, Y 0 = AY + F (t), con
x 1 −1 0
Y = , A= , F =
y −1 1 2t
– 38 –
2.2. Sistema lineal homogéneo de primer orden
Consideremos ahora el sistema homogéneo
Y 0 = A(t)Y (2.15)
Asumiremos que todos elementos aij (t) de A(t) son funciones continuas para t ∈ I.
M 0 = A(t)M (2.21)
Como los vectores {Y1 (t), . . . , Yn (t)} son linealmente independientes ∀ t ∈ I, M (t) es no
singular: det[M (t)] 6= 0 ∀ t ∈ I. La solución general (2.16) puede ası́ escribirse como
c1
Y (t) = M (t)C , C = ...
cn
Y 0 = AY (2.23)
o en forma explı́cita,
0
y1 = a11 y1 + . . . + a1n yn
..
.
y0 = a y + . . . + a y
n n1 1 nn n
λeλt V = Aeλt V
lo que conduce a
AV = λV
Si exigimos V 6= 0 (solución no trivial) esta igualdad implica que λ debe ser autovalor
de A (Det[A − λI] = 0) y V un autovector asociado.
Si buscamos ahora la solución general, tenemos dos casos:
– 41 –
a) La matriz A es diagonalizable. En este caso existen n autovectores linealmente inde-
pendientes V1 , . . . , Vn , asociados a n autovalores λ1 , . . . , λn (no necesariamente distintos):
AVi = λi Vi , i = 1, . . . , n
Autovalores complejos.
Los autovalores λ pueden ser complejos, aún si la matriz A es real! Si
λ = α + iω
Para obtener un par de soluciones reales linealmente independientes, basta con tomar
las partes real e imaginaria de una de las dos, por ejemplo
Problema 8: Probar que si A es real y Y (t) es una solución compleja del sistema ho-
mogéneo Y 0 = AY , las partes real Re[Y (t)] e imaginaria Im[Y (t)] son también soluciones
de dicho sistema.
Problema 9: Probar que si Y (t) y Y (t) son soluciones linealmente independientes, en-
tonces Re[Y (t)] y Im[Y (t)] son también linealmente independientes.
– 43 –
Ejemplo: Consideremos el sistema,
0
x = x−y
(2.27)
y0 = x + y
que corresponde a
1 −1
A=
1 1
Esta matriz es real antisimétrica, y por lo tanto diagonalizable aunque con autovalores
complejos. Los autovalores y autovectores asociados son
1 1
λ1 = 1 + i, V1 = α , α 6= 0, λ2 = 1 − i, V2 = β , β 6= 0
−i i
es decir, x(t) = et (c1 cos t + c2 sin t), y(t) = et (c1 sin t − c2 cos t).
Problema 10: Mostrar que la solución general puede expresarse también como
(1+i)t 1 (1−i)t 1
Y (t) = c+ e + c− e
−i i
Re[Y (t)] = eαt [U cos ωt − W sen ωt], Im[Y (t)] = eαt [U sen ωt + W cos ωt]
– 44 –
2.4. Representación diagonal y desacoplamiento
El caso diagonalizable puede también tratarse pasando a una representacı́ón diagonal
del sistema. En este caso la matriz A es semejante a una matriz diagonal D, de modo
que existe una matriz S de n × n no singular tal que
λ1 0 . . . 0
0 λ2 . . . 0
−1
S AS = D, D= , S = (V1 , . . . , Vn )
. .
.
0 0 . . . λn
S −1 Y 0 = S −1 AY = (S −1 AS)(S −1 Y )
o sea,
z1
Z 0 = DZ, con Z = S −1 Y = ...
zn
Por ser D diagonal, las n funciones z1 (t), . . . , zn (t) satisfacen un sistema de n ecua-
ciones diferenciales de primer orden desacopladas:
0
z1 = λ1 z1
Z0 = D Z ⇔ ..
.
z0 = λ z
n n n
– 45 –
Ejemplo: Consideremos nuevamente el sistema (2.26),
0
x =x−y
y 0 = −x + y
1 1
En este caso λ1 = 2, λ2 = 0 y S = (V1 , V2 ) = (−1 1 ). Entonces S
−1
= (11 −1
1 )/2 y el vector
x
de coordenadas de Y = (y ) en la base de autovectores de A es
z1 1 1 −1 x 1 x−y
= =
z2 2 1 1 y 2 x+y
o sea, z1 = (x − y)/, z2 = (x + y)/2. Estas variables satisfacen el sistema desacoplado
0
z1 = 2z1
z20 = 0
x0 −y 0 x0 +y 0
ya que z10 = 2
= x − y = 2z1 , z20 = 2
= 0. La solución de este sistema es
z1 (t) = c1 e2t , z2 (t) = c2
y entonces, se obtiene el resultado previo
x(t) 2t 1 1
= z1 (t)V1 + z2 (t)V2 = c1 e + c2
y(t) −1 1
Ejercicios VI.
1) Determinar la solución general de los siguientes sistemas de primer orden homogéneos.
Dar una expresión real de la solución y escribir la matriz fundamental. Identificar también
las variables en las que el sistema queda desacoplado.
0 0
x = −2x + y x = −2x + y
a) 0 b)
y = x − 2y y 0 = −x − 2y
0 0
x = x − 2y + z x =y
c) y 0 = −2x − 2z d) y 0 = −y + z
0 0
z = x − 2y + z z = −y − z
2) Hallar la solución de 1 a) y de 1 b) que satisface x(0) = 1, y(0) = 0, y la solución de 1
c) y de 1 d) que satisface x(0) = 1, y(0) = 0 = z(0) = 1.
Indique también si alguno de los sistemas del ej. 1) tiene soluciones constantes no nulas.
2.5. Aplicaciones
1. Evolución de la concentración de un soluto.
Considere los tanques A, B, C de volúmenes 10, 20 y 30 litros, inicialmente llenos con
agua salada. Si entra agua pura (sin sal) a razón de 10 lts por hora en el tanque A, saliendo
agua por el orificio inferior de C tal que el volumen de agua en cada uno de los tanques
permanece constante, muestre que la cantidad de sal x, y, z, en A, B y C (asumiendo
distribución uniforme en c/tanque) satisface el sistema lineal (t medido en horas)
dx/dt = −x
dy/dt = x − y/2 A
dz/dt = y/2 − z/3
B
Encuentre la solución general de este sistema y halle la
solución para concentración inicial uniforme c.
Grafique la concentración en cada tanque. C
– 47 –
cos(ωt + φ) 0
= A − sin(ωt + φ)
+ c3 0
(2.30)
0 1
Interpretar esta solución, mostrándo que corresponde a velocidad constante en la direc-
ción z, y movimiento circular uniforme en el plano x, y, de frecuencia angular ω.
– 48 –
4. Utilizando el método anterior, resuelva el problema de dos masas iguales (m) unidas
cada una a una pared por un resorte de constate k1 y unidas entre sı́ por un resorte de
constante k2 .
a) Muestre que si y1 , y2 denotan las posiciones de las masas a partir de los respectivos
puntos de equilibrio, las ecuaciones de movimiento son
k1 k2 k1
my100 = −k1 y1 + k2 (y2 − y1 )
my200 = k2 (y1 − y2 ) − k1 y2
M M
ambos negativas, y que por lo tanto, las frecuencias de oscilación del sistema (asumiendo
k1 > 0, k2 > 0, m > 0) son
r r
k1 + 2k2 k1
ω1 = , ω2 =
m m
c) Muestre que la solución general del sistema es
y1 (t) + iω 1 t − −iω 1 t 1 + iω 2 t − −iω 2 t 1
= (c1 e + c1 e ) + (c2 e + c2 e )
y2 (t) −1 1
1 1
= A1 cos(ω 1 t + φ1 ) + A2 cos(ω 2 t + φ2 ) (2.32)
−1 1
5. Resuelva el problema anterior pero considerando que la segunda masa no está uni-
da a la pared. Determine las frecuencias y los modos normales de vibración.
d2 r
m = −kr
dt2
con r = (x, y), que es nuevamente un sistema lineal homogéneo de segundo orden. Deter-
mine su solución e identifique las trayectorias posibles.
– 49 –
7. Importante: Trayectorias en el plano de fase
Considere el sistema lineal homogéneo de primer orden,
0
x = ax + by
a, b, c, d ∈ R (2.33)
y 0 = cx + dy
Las soluciones reales x(t), y(t) del sistema pueden visualizarse graficando las “trayecto-
rias” (x(t), y(t)) para t ∈ R, en el plano x, y, denominado plano (o espacio) de fase.
a) Muestre que las trayectorias correspondientes a soluciones distintas no pueden cruzarse
para tiempos t finitos.
dy cx+dy
b) Pruebe que la ecuación que define las trayectorias es dx = ax+by .
x(0)
c) Muestre que si (y(0) ) coincide con un autovector de la matriz asociado a un autovalor
real λ 6= 0, la trayectoria es recta. Indique en qué casos se alejará, y en que casos se
acercará al origen.
d) Considere ahora el caso a = d = α, b = c = β. Muestre que los autovalores de la matriz
son λ± = α ± β y grafique e interprete las trayectorias para:
i) α = 1, β = 1/2, ii) α = −1, β = 1/2, iii) α = −1, β = 2. Identifique los casos en que el
origen (x, y) = (0, 0) es un punto de equilibrio estable y aquellos en que es inestable.
e) Considere ahora el caso a = d = α, c = −b = ω, en el que los autovalores de la matriz
son λ± = α ± iω. Grafique e interprete las trayectorias para:
i) α = −1, ω = 1, ii) α = 1, ω = 1, iii) α = 0, ω = 1. Muestre que en este último caso las
trayectorias son cı́rculos centrados en el origen.
y y y
4 4 4
2 2 2
x x x
-4 -2 2 4 -4 -2 2 4 -4 -2 2 4
-2 -2 -2
-4 -4 -4
1 y
2 y
3 y
4 4 4
2 2 2
x x x
-4 -2 2 4 -4 -2 2 4 -4 -2 2 4
-2 -2 -2
-4 -4 -4
4 5 6
Gráficos de las soluciones del sistema (2.33) para a = d, |α| = |β|. Las flechas indican
el sentido del movimiento. Los gráficos corresponden a: 1) Ambos autovalores reales y
positivos, 2) Ambos reales y negativos, 3) Uno positivo y uno negativo, 4) Complejos con
parte real negativa, 5) Complejos con parte real positiva, 6) Imaginarios.
– 50 –
2.6. El caso no diagonalizable
Tratemos ahora en detalle este caso. Existe al menos un autovalor repetido λ de la
matriz A cuya multiplicidad algebraica m (multiplicidad como raı́z del polinomio ca-
racterı́stico) es mayor que su multiplicidad geométrica l (dimensión del espacio propio
correspondiente).
Los l autovectores linealmente independientes asociados proveen l < m soluciones
linealmente independientes del sistema Y 0 = AY . Para obtener las soluciones restantes,
tenemos el siguiente teorema general:
para algún entero positivo no nulo ki ≤ m, siendo I la matriz identidad. Estos m vectores
originan m soluciones linealmente independientes del sistema Y 0 = AY , de la forma
tki −1
Yi (t) = eλt [Vi + t(A − λI)Vi + . . . + (A − λI)ki −1 Vi ] (2.35)
(ki − 1)!
y que formen, junto con los l autovectores previos, un conjunto linealmente indepen-
diente. Cada uno de estos nuevos vectores (que a lo sumo serán l) genera una solución
adicional de la forma
Y (t) = eλt [V + t(A − λI)V ]
– 51 –
Estas nuevas soluciones formarán, junto con las anteriores, un conjunto ampliado de so-
luciones linealmente independientes.
Si aún no se tienen m soluciones linealmente independientes, se determinan todos los
vectores V linealmente independientes que satisfacen
y que formen, junto con todos los anteriores, un conjunto linealmente independiente. Cada
uno de estos nuevos vectores (a lo sumo habrá l) aportará una solución adicional
t2
Y (t) = eλt [V + t(A − λI)V + (A − λI)2 V ]
2!
generándose ası́ un nuevo conjunto ampliado de soluciones linalmente independientes.
Este proceso se continúa hasta obtener m soluciones linealmente independientes.
(A − λI)2 V2 = 0, (A − λI)V2 6= 0
V1 = (A − λI)V2 (2.38)
Y (t) = eλt (V + tW )
que indica precisamente que W debe ser autovector de A con autovalor λ y V un vector
que satisface (A − λI)V = W (y por lo tanto (A − λI)2 V = 0).
– 52 –
Y en general, si λ es un autovalor de multiplicidad algebraica m > 1 y multiplicidad
geométrica l = 1, las m soluciones linealmente independientes son
donde Vk , k = 1, . . . , m, satisface
Vk = (A − λI)m−k Vm , k = 1, . . . , m − 1 (2.44)
es 1 y por lo tanto la nulidad es 1. Esto indica que existirá un sólo autovector linealmente
independiente, V1 ∝ (10 ). Eligiendo V1 = (10 ), se obtiene la solución
t 1
Y1 (t) = e
0
(A − λI)2 V2 = 0, (A − λI)V2 6= 0.
– 53 –
Como en este caso (A − λI)2 = (00 00 ), basta con encontrar un vector V2 linealmente
independiente de V1 , por ejemplo V2 = (01 ), que satisface, dado que b 6= 0,
0 b 0 b
(A − λI)V2 = = 6= 0
0 0 1 0
ab
Observación: Si b 6= 0, la matriz
√ A = (ε a ) es diagonalizable ∀ ε 6= 0, ya que tendrá
dos autovalores distintos λ± = a ± bε.
El caso no diagonalizable ocurre únicamente cuando ε = 0. Los autovalores serán
ambos reales si bε ≥ 0, y complejos si bε < 0. Por lo tanto, el caso no diagonalizable
corresponde al punto “crı́tico” ε = 0, en el que se produce la transición de autovalores
reales (bε > 0) a autovalores complejos (bε < 0), es decir, de soluciones Y (t) de tipo
exponencial a soluciones de tipo oscilatorio.
– 54 –
Ejercicios VII
1) Mostrar que la solución general del sistema
0
x = −x − y
y 0 = x − 3y
es
x(t) −2t 1 −2t 1 2
= c1 e + c2 e +t
y(t) 1 −1 2
es decir, x(t) = c1 e−2t + c2 e−2t (1 + 2t), y(t) = c1 e−2t + c2 e−2t (−1 + 2t).
y0 = x − y
que satisface x(0) = 1, y(0) = 1.
5) Mostrar que si la ecuación de segundo orden con coeficientes constantes y 00 +ay 0 +by = 0
tiene raı́ces iguales (a2 = 4b) el sistema lineal de primer orden asociado
0
z1 = z2
z20 = −bz1 − az2
donde z1 = y, z2 = y 0 , corresponde necesariamente a una matriz no diagonalizable.
– 55 –
2.7. Matriz fundamental
Tanto para el caso (a) (A diagonalizable) como para el caso (b) (A no diagonalizable),
la matriz ∞
X Ak tk
exp[At] =
k=0
k!
es una matriz fundamental del sistema Y 0 = AY con A independiente de t, y es la matriz
fundamental que satisface M (0) = I, con I la matriz identidad.
– 56 –
por lo que exp[At] puede evaluarse directamente. En el caso no diagonalizable, la evalua-
ción se realiza mediante la denominada forma canónica de Jordan de la misma, que es la
representación en la base de autovectores generalizados.
Pruebe que
−1 2t 1 + e2t 1 − e2t
exp[At] = S exp[Dt]S = S(e0 10 )S −1
= 1
1 − e2t 1 + e2t
2
1 1 + e2t 1 1 − e2t
Por lo tanto, las columnas Y1 (t) = 2 , Y2 (t) = 2 , son soluciones
1 − e2t 1 + e2t
linealmente independientes del sistema, que satisfacen Y1 (0) = (10 ), Y2 (0) = (01 ).
– 57 –
2.8. Sistema lineal no homogéneo general de primer orden
Consideremos ahora el sistema no homogéneo
Y 0 = A(t)Y + F (t) (2.46)
que podemos escribir como L[Y ] = F (t), con L[Y ] = Y 0 − A(t)Y .
Al igual que en el caso de la ecuación lineal de orden n, es válido el siguiente teorema:
Teorema 2. La solución general de (2.46) está dada por la suma de la solución general
Yh (t) del sistema homogéneo más una solución particular Yp (t) del sistema no homogéneo:
donde Yh (t) = c1 Y1 (t) + . . . cn Yn (t) es la solución general (2.16) (satisface Yh0 = A(t)Yh )
mientras que Yp (t) satisface Yp0 = A(t)Yp0 + F (t).
Teorema 3. Si M (t) es la matriz fundamental (2.20) del sistema homogéneo, una solución
particular de (2.46) es Z
Yp (t) = M (t) M −1 (t)F (t)dt (2.48)
– 58 –
que conduce a la solución (2.48). La solución general (2.47) puede pues escribirse como
Z
Y (t) = M (t)C + M (t) M −1 (t)F (t)dt (2.49)
4. Superposición: Si Yp1 (t) e Yp2 (t) son soluciones de (2.46) para F1 (t) y F2 (t), una
solución particular para la combinación lineal F (t) = c1 F1 (t) + c2 F2 (t) es la combinación
lineal de soluciones Yp (t) = c1 Yp1 (t) + c2 Yp2 (t):
0
Yp1 = A(t)Yp1 + F1 (t)
⇒ (c1 Yp1 + c2 Yp2 )0 = A(t)(c1 Yp1 + c2 Yp2 ) + c1 F1 (t) + c2 F2 (t)
Yp20 = A(t)Yp2 + F2 (t)
– 59 –
Aplicando (2.48), obtenemos
Z −2t
−e−2t
R −2t
1 e f (t) 1 eR (f (t) − g(t))dt
Yp (t) = M (t) dt = M (t)
2 1 1 g(t) 2 (f (t) + g(t))dt
(2.51)
Definiendo las funciones
Z Z
1 2t −2t 1
v(t) = e e (f (t) − g(t))dt, w(t) = (f (t) + g(t))dt
2 2
la solución general es entonces
2t
e 1 v(t) + w(t)
Y (t) = c1 + c2 + (2.52)
−e2t 1 −v(t) + w(t)
Problema 5: Mostrar que a solución general de (2.50) para f (t) = 0, g(t) = 1 es
x(t) = c1 e2t + c2 + 1/4 + t/2
y(t) = −c1 e2t + c2 − 1/4 + t/2
Determinar también la única solución que cumple x(0) = 0, y(0) = 0.
Problema 6:
a) Mostrar que la ecuación lineal de segundo orden no homogénea
b) Justificar que el teorema 2.1 asegura que existen dos soluciones linealmente indepen-
dientes y1 (t), y2 (t), de (2.53).
c) Mostrar que el determinante de la matriz fundamental M (t) de soluciones del sistema
y1 y2
homogéneo asociado a (2.54), es el Wronskiano: det M (t) = W (t) = 0 .
y1 y20
d) Mostrar que la solución particular (2.48) para el sistema (2.54) implica la solución
particular Z Z
y2 (t) y1 (t)
yp (t) = −y1 (t) f (t)dt + y2 (t) f (t)dt
W (t) W (t)
de (2.53).
– 60 –
2.9. Sistema lineal no homogéneo con coeficientes constantes.
Método general y representación diagonal.
Consideremos ahora el caso no homogéneo de primer orden con A independiente de t,
Y 0 = AY + F (t) (2.55)
Si conocemos una matriz fundamental M (t), podemos aplicar directamente el resultado
general (2.48) para determinar la solución particular Yp (t):
Z
Yp (t) = M (t) M −1 (t)F (t)dt (2.56)
que es completamente análoga! a la solución general y(t) = eat c + eat e−at f (t)dt de la
R
– 61 –
Ejemplo: Resolver el sistema
0
x x 1 −1 f (t)
=A + F (t) , con A = , F (t) =
y0 y −1 1 g(t)
Este sistema ya fue resuelto en 2.8 mediante la aplicación de la ecuación (2.56). Para
1
aplicar el método (2.61), en la base de autovectores de A formada por V1 = (−1 ), V2 = (11 ),
g1 (t) f (t) f (t)−g(t)
con λ1 = 2, λ2 = 0, tenemos (g2 (t) ) = S −1 (g(t ) = 12 (f (t)+g(t) ) y por lo tanto
f (t) − g(t) 1 f (t) + g(t) 1
F (t) = g1 (t)V1 + g2 (t)V2 = + ,
2 −1 2 1
donde v(t) y w(t) son las funciones definidas en (2.28). La solución general es entonces
2t
1 1 e 1 v(t) + w(t)
Y (t) = z1 (t) + z2 (t) = c1 + c2 +
−1 1 −e2t 1 −v(t) + w(t)
– 62 –
donde V , V1 , V2 , etc. son vectores con coeficientes a determinar e independientes de t.
Si no se cumple la condición se debe multiplicar la propuesta por un polinomio en t (con
coeficientes vectores). Nuevamente es más efectivo trabajar en forma compleja cuando
F (t) es seno o coseno. La propuesta debe ser completa, aún cuando F tenga componentes
no nulas sólo en ciertas filas.
Yp (t) = eαt V
(αI − A)V = F
que es un sistema lineal no homogéneo para el vector V . El sistema tendrá solución única
∀ F sii αI − A es no singular, es decir, si α no es autovalor de A (Det (A − αI) 6= 0),
lo que justifica la condición requerida. En tal caso,
V = (αI − A)−1 F
Ejemplo. Consideremos
x0 = x − y + eαt
y 0 = −x + y
1 −1 1
que corresponde a A = , F = . Proponemos una solución particular
−1 1 0
– 63 –
de la forma
αt v1
Yp (t) = e V , con V =
v2
Reemplazando, obtenemos el sistema (αI − A)V = F , es decir,
α−1 1 v1 1
=
1 α−1 v2 0
eαt
α−1
Yp (t) = (α 6= 2, α 6= 0)
α(α − 2) 1
Y 0 = AY + F0 + F1 t + F2 t2 , (2.65)
Yp (t) = V0 + V1 t + V2 t2
– 64 –
x0 = −x + y + t
Ejemplo. Consideremos
y 0 =−x − y +1
−1 1 0 1
que corresponde a A = , F = +t .
−1 −1 1 0
Proponemos una solución particular
a0 a1
Yp (t) = V0 + tV1 = +t
b0 b1
Reemplazando, obtenemos
V1 = A(V0 + tV1 ) + (01 ) + t(10 )
que conduce al sistema
AV0 = V1 − (01 )
AV1 = −(10 )
Como A es no singular, A−1 = 21 (−1−1
1−1 ) y
−1 −1 1/2 −1 0 1/2
V1 = A = , V0 = A (V1 − )=
0 −1/2 1 1
La solución general del sistema es entonces (probar!)
x(t) −t cos t −t sen t (1 + t)/2
= c1 e + c2 e +
y(t) −sen t cos t 1 − t/2
Caso Periódico. Consideremos ahora una fuente de frecuencia angular ω, tal que
Y 0 = AY + F eiωt
Yp (t) = V eiωt
(iωI − A)V = F
V = (iωI − A)−1 F
Y 0 = AY + F cos ωt
como
Ypr (t) = Re[(iωI − A)−1 F eiωt ]
Las componentes de esta solución oscilan con la frecuencia de la fuente F (t) con una
amplitud que depende de la frecuencia, y pueden presentar un desfasaje respecto de F (t).
– 65 –
Si en cambio iω es autovalor (resonancia!) entonces debemos proponer una solución
Yp (t) = eiωt (V1 + tV2 ).
Ejemplo. Resolver
x0 = y + eiωt
ω 2 6= 1
y 0 = −x
01 iωt
que corresponde a A = (−1 0 ), F (t) = F e , con F = (10 ). Proponiendo una solución
particular Yp (t) = V eiωt obtenemos, siguiendo el método anterior (probar!)
−1 1 −iω
V = (iωI − A) F = 2
ω −1 1
Por lo tanto,
1 −iω
Yp (t) = 2 eiωt
ω −1 1
es una solución particular del sistema anterior, y la parte real
r 1 ω sin ωt
Yp (t) = Re[Yp (t)] = 2
ω −1 cos ωt
x0 = y + cos ωt
y 0 = −x
Ejercicios VIII
– 66 –
3) Determine la solución general de los sistemas
0 0
0 x = −2x + z x = −x + y
x = 2y + A sen ωt
a) b) y 0 = −x + z c) y 0 = −x − y + t
y 0 = −2x 0
z = x − 2z + e−2t
0
z = x − z + e−2t
Dé una expresión real en todos los casos. En a) considere los casos ω 6= ±2 y ω = 2.
2.11. Aplicaciones
5) Resolver el problema de una partı́cula de carga q en un campo magnético B constante
y campo eléctrico E. La fuerza es q(v × B + E) y la ecuación
mdv/dt = q(v × B + E)
6) Determinar las corrientes i1 (t), i2 (t) i3 (t) en el circuito de la figura. Plantear el sistema
de ecuaciones lineales de primer orden correspondiente y resolverlo para a) un fem cons-
tante ε0 y b) una fem alterna ε = V0 cos ωt, para condición inicial i1 (0) = i2 (0) = i3 (0) = 0.
Grafique las soluciones. Muestre que el sistema es
ε = Ldi1 /dt + R(i1 − i3 )
0 = Ldi3 /dt + 2R i3 − R i1 L R
R
con i1 = i2 + i3 . ¶ L
i1 i2 i3
– 67 –
Facultad de Ingenierı́a
UNLP
Matemática C
X Series de Fourier
y
Ecuaciones Diferenciales en Derivadas Parciales
2020
2019
–1–
Temario por clase:
Clase 1: Funciones periódicas. Funciones ortogonales. Series de Fourier.
Bibliografı́a:
1. R. Churchill, Series de Fourier y Problemas de Contorno, McGraw-Hill
–2–
I. Series de Fourier
1. Introducción
Las series de Fourier cumplen un rol fundamental en el análisis de funciones periódicas.
Permiten escribir estas funciones como una serie de funciones sinusoidales (senos y cose-
nos), y ası́ obtener una descripción precisa de las mismas por medio de los coeficientes de la
serie. Constituyen, por lo tanto, una herramienta fundamental no solo en Matemática, sino
también en diversas áreas de la Ingenierı́a, Fı́sica, Astronomı́a y otras Ciencias, tales como
análisis y generación de señales, telecomunicaciones, ingenierı́a eléctrica, acústica, óptica,
procesamiento de imágenes, compresión de datos, mecánica cuántica, etc. Por ejemplo,
permite comprender en forma inmediata el origen de la diferencia entre un “La” de fre-
cuencia 440 Hz emtido por un piano y un “La” de la misma frecuencia emitido por otro
instrumento, a través los distintos coeficientes de la serie correspondiente (distribución de
armónicos).
Como veremos en la sección siguiente, las series de Fourier juegan también un rol esen-
cial en la resolución de ecuaciones diferenciales en derivadas parciales, de importancia en
Ingenierı́a, Fı́sica y Matemática, y surgieron de hecho en relación con estas ecuaciones.
El nombre proviene del matemático y fı́sico francés Jean-Baptiste Joseph Fourier (1768-
1830), quien desarrolló la teorı́a con el objeto de resolver la ecuación del calor, una ecuación
diferencial en derivadas parciales. Otros matemáticos y fı́sico-matemáticos que contribu-
yeron (antes y después) al desarrollo de la teorı́a incluyen a Leonhard Euler (1707-1783),
D’Alembert, Daniel Bernoulli, Gauss, Dirichlet y Riemann. Y la idea de descomponer os-
cilaciones complejas en oscilaciones simples es aun más antigua, existiendo antecedentes
incluso en el sigo 3 a.C.
Por otro lado, el desarrollo de la teorı́a general continúa hoy en diversas formas. El
análisis de Fourier dió origen a teorı́as generales de análisis de señales y series temporales.
Generalizaciones recientes incluyen las denominadas transformadas wavelet, transforma-
das de Fourier fraccionarias, etc. Y el desarrollo reciente de la computación cuántica fue
impulsado precisamente por el descubrimiento de un algoritmo cuántico eficiente para
implementar la transformada de Fourier en sistemas cuánticos.
–3–
2. Funciones periódicas
Una función f : R → R es periódica con perı́odo T > 0 si satisface
f (x + T ) = f (x) ∀x ∈ R
Basta entonces conocer los valores de f (x) en cualquier intervalo de longitud T (por ejem-
plo, (−T /2, T /2]) para determinar su valor f (x) en cualquier x ∈ R.
f HxL
T
Ejemplos bien conocidos de funciones periódicas con perı́odo T son
ya que cos( 2π
T
(x + T )) = cos( 2π
T
x + 2π) = cos( 2π
T
x) ∀ x (igualmente para sen( 2π
T
x)).
También
f (x) = A cos(2πx/T − φ) (3)
es periódica con perı́odo T para cualquier valor de A (amplitud) y φ (fase). Y una función
constante f (x) = c ∀ x es un caso trivial de función periódica. Esto incluye en particular
a la función nula 0(x) = 0 ∀ x.
Si f1 (x) y f2 (x) son dos funciones periódicas con el mismo perı́odo T , toda combinación lineal
es también una función periódica con el mismo perı́odo T , como es muy fácil probar. El
conjunto de funciones periódicas con perı́odo T es entonces un subespacio (de dimensión
infinita) del espacio vectorial de funciones generales f : R → R.
Por ejemplo, la función (3) es una combinación lineal de las funciones (1) y (2):
–4–
Toda función periódica con perı́odo T /n, con n ≥ 1 natural, es también periódica con
perı́odo T : f (x + T ) = f (x + n(T /n)) = f (x) ∀ x. Por lo tanto, las funciones
que pueden escribirse como cos(2πx/Tn ), sen(2πx/Tn ), con Tn = T /n, son también pe-
riódicas con perı́odo T , ya que su perı́odo es Tn = T /n.
Cuando x representa un tiempo t, suelen escribirse las funciones (5) como
-2L -L L 2L
x -2L -L L 2L
x
-1 -1
-2L -L L 2L
x -2L -L L 2L
x
-1 -1
-2L -L L 2L
x -2L -L L 2L
x
-1 -1
–5–
3. Conjunto ortogonal de funciones
Para definir ortogonalidad entre funciones, debemos definir primero un producto in-
terno (análogo al producto escalar entre vectores de Rn ). Dadas dos funciones periódicas
reales f y g de perı́odo T = 2L > 0, continuas, definimos aquı́ su producto interno como
1 L
Z
(f, g) = f (x)g(x)dx (8)
L −L
que satisface (f, g) = (g, f ). Si g = f , se tiene
1 L
Z
(f, f ) = [f (x)]2 dx ≥ 0
L −L
p
La norma de una función f se define entonces como ||f || = (f, f ). Satisface: ||f || ≥ 0,
con ||f || = 0 para f continua sólo si f es la función nula. Además, se verifica:
1) ||αf || = |α| ||f || (α ∈ R) y 2) |(f, g)| ≤ ||f || ||g|| (desigualdad de Cauchy-Schwarz).
La propiedad (2) implica (probar!) |||f1 || − ||f2 ||| ≤ ||f1 + f2 || ≤ ||f1 || + ||f2 ||.
El producto (8) puede extenderse a funciones seccionalmente continuas (es decir, que
tengan a lo sumo un número finito de discontinuidades finitas en un perı́odo) o integrables.
–6–
Por lo tanto, dada una función periódica f (x) definida por la combinación lineal
N
a0 X nπx nπx
f (x) = + [an cos( ) + bn sen( )] (16)
2 n=1
L L
1 L
Z
mπx
f (x) cos( )dx = am , m = 0, 1, 2, . . . , N (17)
L −L L
1 L
Z
mπx
f (x) sen( )dx = bm , m = 1, 2, . . . , N (18)
L −L L
Por lo tanto, si se conoce f (x) en un perı́odo completo y se sabe que es de la forma (16),
los coeficientes an , bn pueden obtenerse como
1 L
Z
an = f (x) cos(nπx/L)dx n = 0, 1, 2, . . . , N (19)
L −L
1 L
Z
bn = f (x) sen(nπx/L)dx n = 1, 2, . . . , N (20)
L −L
Tal como ocurreP con los vectores de Rn cuando se los escribe en la base canónica,
v = (x1 , . . . , xn ) = ni=1 xi ei , con xi = v · ei , las coordenadas an , bn de la función f en
este conjunto ortogonal de funciones pueden determinarse mediante productos escalares:
an = (f, cos(nπx/L)), bn = (f, sen(nπx/L)).
Y ası́ como xi ei es la proyección ortogonal de v sobre ei , an cos(nπx/L) es la pro-
yección ortogonal de f sobre cos(nπx/L), y bn sen(nπx/L) aquella sobre sen(nπx/L).
1
RL
Para n = 0, (19) implica a0 = L −L
f (x)dx, por lo que el primer término en (16),
Z L
a0 1
= f (x)dx (21)
2 2L −L
Surge ahora naturalmente la pregunta ¿Es posible representar cualquier función pe-
riódica f de perı́odo 2L por una suma de la forma (16) con N → ∞?
–7–
4. Desarrollo en serie de Fourier
El desarrollo en serie de Fourier de una función periódica f consiste esencialmente en
tomar el lı́mite N → ∞ en la suma (16).
1 L
Z
an = f (x) cos(nπx/L)dx n = 0, 1, 2, . . . , (24)
L −L
1 L
Z
bn = f (x) sen(nπx/L)dx n = 1, 2, . . . , (25)
L −L
–8–
Observaciones importantes:
con Z L Z L
1 2
an = f (x) cos(nπx/L)dx = f (x) cos(nπx/L)dx (31)
L −L L 0
con Z L Z L
1 2
bn = f (x) sen(nπx/L)dx = f (x) sen(nπx/L)dx (33)
L −L L 0
3. Si f no es perıódica o está definida en [−L, L], la serie de Fourier (28) con los coeficientes
(24)–(25) convergerá fuera de (−L, L) a la extensión periódica de la función.
f (L) + f (−L)
S(±L) = (34)
2
7. Si an , bn y a0n , b0n son los coeficientes de Fourier de dos funciones f y g que satisfacen las
condiciones de convergencia, el resultado (27) se extiende a
L ∞
a0 a00 X
Z
1
(f, g) = f (x)g(x)dx = + (an a0n + bn b0n ) (35)
L −L 2 n=1
RL
la mejor aproximación en el sentido de minimizar ||f −SN ||2 = L1 −L [f (x)−SN (x)]2 dx,
se obtiene para los coeficientes de Fourier: cn = an , bn = dn ∀ n.
–9–
Ejemplo 1: f (x) = x2 /L2 , |x| ≤ L.
Como f (L) = f (−L) = 1, la extensión periódica de esta función es continua (ver
figura). El desarrollo en serie de Fourier de f convergerá a esta extensión, dada para x ∈ R
por f (x) = f (x − mx L), con mx un entero tal que x − mx L ∈ (−L, L].
Como f (x) es par, bn = 0 ∀ n y (ver (30)–(31))
2 L x2 2 L x2 4(−1)n
Z Z
2
a0 = dx = , an = cos(nπx/L)dx = , n≥1
L 0 L2 3 L 0 L2 n2 π 2
donde para n ≥ 1 se ha integrado por partes dos veces. Se obtiene
∞ ∞
a0 X 1 X 4(−1)n nπ
f (x) = + an cos(nπx/L) = + cos x (37)
2 n=1
3 n=1 n2 π 2 L
∞
X 1 1 1 1 π2
(−1)n+1 = 1 − + − + . . . =
n=1
n2 4 9 16 12
∞
1 π2
= 1 + 14 + 91 + . . . =
P
Y si x = L, f (L) = 1 y (37) implica (probar!) n2 6
n=1
f HxL,SN HxL f HxL,SN HxL
1 N=0 1 N=1
0.5 0.5
x x
-2L -L 0 L 2L -2L -L 0 L 2L
f HxL,SN HxL f HxL,SN HxL
1 N=2 1 N=5
0.5 0.5
x x
-2L -L 0 L 2L -2L -L 0 L 2L
f HxL, SN HxL
an
1 N = 10
0.6
0.4
0.5 0.2
2 4 6 8 10
n
– 10 – -0.2
x
-2L -L 0 L 2L -0.4
Ejemplo 2: f (x) = x/L, |x| ≤ L.
En este caso f (−L) = −1 6= f (L) = 1, por lo que la extensión periódica de f es
discontinua en x = ±L, ±3L, . . ., con f (L− ) = 1, f (L+ ) = −1 (ver figura).
Como f (x) es impar, an = 0 ∀ n y (ver (32)–(33))
2 Lx 2(−1)n+1
Z
nπx
bn = sen dx = , n≥1
L 0 L L nπ
donde se ha integrado por partes. La serie de Fourier es entonces
∞ ∞
X X 2(−1)n+1 nπ
S(x) = bn sen(nπx/L) = sen x (38)
n=1 n=1
nπ L
1 N=1 1 N=2
0.5 0.5
x x
-2L -L 0 L 2L -2L -L 0 L 2L
-0.5 -0.5
-1 -1
f HxL, SN HxL f HxL, SN HxL
1 N=6 1 N = 20
0.5 0.5
x x
-2L -L 0 L 2L -2L -L 0 L 2L
-0.5 -0.5
-1 -1
f HxL, SN HxL
1 N = 80 bn
0.5 0.6
0.4
x 0.2
-2L -L 0 L 2L
-0.5 5 10 15 20
n
– 11 – -0.2
-1 -0.4
SHxL, SN HxL
SHxL
1
1
0.5 0.5
0 x x
-2L -L L 2L -2L -L 0 L 2L
-0.5 -0.5
-1 -1
En este caso se trata de una función periódica que es combinación lineal de las funciones
ortogonales cos(nπx/L) y sen(nπx/L). Por lo tanto la expresión que la define ya es su
desarrollo en serie de Fourier. Usando la ortogonalidad se verifica que
1 L 1 L
Z Z
nπ 2 n=3
a0 = f (x)dx = 8, an = f (x) cos( x)dx =
L −L L −L L 0 n 6= 3, n ≥ 1
Z L
1 nπ −6 n = 2
bn = f (x) sen( x)dx = (39)
L −L L 0 n 6= 2
y converge condicionalmente. En [−L, L], converge a f (x) para |x| = 6 d y al punto medio
1/2 para x = ±d. Nuevamente, se observa en las figuras, obtenidas para d = L/2, la
convergencia lenta en los bordes de la discontinuidad y el fenómeno de Gibbs.
Una observación importante es que |an |/a0 es pequeño recien para n L/d. Ası́,
el número de términos necesarios para representar el pulso correctamente aumenta al
disminuir d en relación a L. O sea, cuanto más corto es el pulso en relación al perı́odo.
mayor es el número de frecuencias necesarias para representarlo. De ahi el nombre de “ultra
wideband” para la tecnologı́a de comunicación basada en pulsos cortos. Esta conclusión
es general: Mayor concentración en tiempo ⇒ mayor dispersión en frecuencia, y viceversa.
0.5 0.5
x x
-2L -L -d d L 2L -2L -L L 2L
f HxL, SN HxL
f HxL, SN HxL
N=9
N = 27
1 1
0.5 0.5
x x
-2L -L L 2L -2L -L L 2L
f HxL, SN HxL
N = 99
1
an
1.0
0.8
0.5 0.6
0.4
0.2
– 13 – 5 10 15 20
n
x -0.2
-2L -L L 2L
-0.4
f HxL
Ejemplo 5.
1
an T bn
0.4 0.4
0.3 0.3
0.2 0.2
0.1 0.1
2 4 6 8 10
n 2 4 6 8 10
n
-0.1 -0.1
Problemas 4.
1) a) Verificar los resultados de los ejemplos 1, 2, 3 y 4. Indicar a qué valor convergen
las series de Fourier en x = 0, L y 3L/2 (usar d = L/2 en 4).
b) MostrarPque la igualdad de Parseval
P∞ (27) en los desarrollos (37) y (38) implica
∞ 4 4 2 2
las identidades n=1 1/n = π /90 y n=1 1/n = π /6 .
1 0≤x≤L
2) Hallar el desarrollo en serie de Fourier de f (x) = para L = 1.
−1 −L < x < 0
Indicar a qué valor converge el desarrollo en x = 0, 1, 2 y 3/2. Graficar f y las primeras
sumas parciales (n ≤ 5) en el intervalo [−2, 2].
3) Hallar el desarrollo en serie de Fourier de f (x) = |x| en el intervalo [−1, 1]. Indicar
a qué valor converge la serie en x = 0, 1, 2 y x = 3/2. Graficar f y las primeras sumas
parciales.
6) Probar que la suma finita (36) que minimiza ||f − SN ||2 corresponde a cn = an y
dn = bn , con an , bn los coeficientes (24)–(25). ¿Cual es el valor mı́nimo de ||f − SN ||2 ?
– 14 –
5. Desarrollos de medio rango
Si f (x) está definida en el intervalo [0, L], es posible desarrollarla en serie de Fourier completándola
en forma par (f (−x) = f (x)) o impar (f (−x) = −f (x)) para x ∈ [−L, 0).
Esta opción se utiliza normalmente cuando f (x) se anula en x = 0 y x = L. Notar que si f (0) 6= 0,
la función extendida tendrá una discontinuidad en x = 0. Y si f (L) 6= 0, su extensión periódica
tendrá una discontinuidad en x = ±L, ±3L, . . ..
Problemas 5.
– 15 –
6. Forma compleja del desarrollo
Recordando que
e±inπx/L = cos(nπx/L) ± i sen(nπx/L) (45)
es posible reescribir la serie de Fourier (28) en la forma compacta
∞
X
S(x) = Cn einπx/L (46)
n=−∞
∞
P N
P
donde = lı́m y
n=−∞ N →∞ n=−N
Z L
1
Cn = e−inπx/L f (x)dx , n = 0, ±1, ±2, . . . (47)
2L −L
o sea,
C0 = a0 /2 = hf i, C±n = (an ∓ ibn )/2 (n ≥ 1)
El resultado (46)–(47) vale además para cualquier función periódica compleja f : R → C que
satisfaga las condiciones de convergencia. Si la función f es real, C−n = Cn∗ (conjugado).
El desarrollo (46) puede obtenerse directamente notando que las funciones (45) forman
también un conjunto ortogonal con el producto interno definido para funciones complejas
f : R → C de perı́odo 2L como
1 L ∗
Z
(f, g) = f (x)g(x)dx
L −L
RL
Este producto satisface (f, g) = (g, f )∗ , con (f, f ) = L1 −L |f (x)|2 dx ≥ 0 para cualquier f
compleja, donde |f (x)|2 = f ∗ (x)f (x) es el cuadrado del módulo de f (x). Con este producto,
1 L −inπx/L imπx/L
Z
inπx/L imπx/L 0 n 6= m
(e ,e )= e e dx = (48)
L −L 2 n=m
1
R L −inπx/L
por lo que 2L −L
e S(x)dx = Cn .
En la forma compleja, las igualdades (27) y (35) toman la forma compacta
Z L ∞
1 2
X
|f (x)| dx = |Cn |2 (49)
2L −L n=−∞
Z L ∞
1 ∗
X
f (x)g(x)dx = Cn∗ Cn0 (50)
2L −L n=−∞
– 16 –
7. Transformada discreta de Fourier (opcional)
Dada una función f : [0, T ] → C, pueden considerarse sus valores fj = f (tj ) en n tiempos
equiespaciados 0 ≤ t1 < t2 < . . . < tn ≤ T . Resulta entonces válido el desarrollo
n
X
fj = ei2πjk/n Fk , j = 1, . . . , n (51)
k=1
De esta forma, los coeficientes (52) posibilitan un análisis de Fourier de la función f (t)
restringida a estos n tiempos. Y para n suficientemente grande y f de variación acotada, el
esquema discreto puede proporcionar una buena aproximación al desarrollo en serie de Fourier
de f . Su ventaja es que requiere solo el conocimiento de f en un número finito de puntos (y no
su forma funcional exacta). Además el cálculo de los n coeficientes Fk puede realizarse en forma
eficiente (requiere O(n) pasos).
– 17 –
II. Ecuaciones Diferenciales en
Derivadas Parciales
– 18 –
1. Introducción
Las ecuaciones diferenciales en derivadas parciales juegan un rol fundamental en In-
genierı́a y Fı́sica. Permiten determinar funciones de varias variables a partir de ciertas
condiciones iniciales y/o de contorno. Como ejemplos tı́picos podemos mencionar:
– 19 –
2. Definición general y propiedades fundamentales
Una ecuación diferencial lineal de segundo orden en derivadas parciales para una función
de n variables U (x1 , . . . , xn ) (U : Rn → R) es de la forma
X ∂ 2U X ∂U
αij + βi + γU = f (x1 , . . . , xn ) (5)
i,j
∂xi ∂xj i
∂x i
donde los coeficientes αij , βi y γ pueden ser constantes o también funciones continuas de
las variables x1 , . . . , xn . El caso homogéneo corresponde a f (x1 , . . . , xn ) = 0.
Para n = 1, la ecuación (5) se reduce a la ya conocida ecuación diferencial lineal or-
2
dinaria de segundo orden α ddxU2 + β dU
dx
+ γU = f (x), donde la función incógnita U (x)
depende de una sola variable x = x1 . Por ser lineal, el caso general n ≥ 2 posee ciertas
propiedades similares a las del caso n = 1.
Estas dos propiedades implican que el conjunto de soluciones de (6) es un subespacio S del
espacio vectorial V de funciones F : Rn → R. No obstante, a diferencia del caso n = 1, para n ≥ 2
la dimensión de S es en general infinita, existiendo infinitas soluciones linealmente independientes
si no se imponen condiciones iniciales o de contorno.
Problemas 2.
1. Verificar que para cualquier valor (constante) de A, λ y φ, φ1 , φ2 ,
2
a) U (x, t) = Ae−αλ t sen(λx + φ) es solución de la ecuación de difusión (1).
b) U (x, t) = A cos(λvt + φ1 ) sen(λx + φ2 ) es solución de la ecuación de ondas (2).
c) U (x, y) = Ae−λx sen(λx + φ) es solución de la ecuación de Laplace (3).
2. a) Probar que U (x, t) = f (x − vt) + g(x + vt), con f y g funciones reales arbitrarias
con derivada segunda definida, es solución de (2). Interpretar f (x − vt) y g(x + vt) como
ondas que se propagan hacia la derecha e izquierda sin deformación con velocidad v.
b) Escribir U (x, t) = A cos(λvt + φ1 ) sen(λx + φ2 ) como una suma f (x − vt) + g(x − vt).
3. Mostrar que la solución general del caso no homogéneo (5) es de la forma
U (x1 , . . . , xn ) = Uh (x1 , . . . , xn ) + Up (x1 , . . . , xn ), donde Uh (x1 , . . . , xn ) es la solución
general del caso homogéneo (6) y Up (x1 , . . . , xn ) una solución particular de (5).
– 20 –
3. Método de separación de variables y solución por
serie de Fourier
Emplearemos aquı́ el método de separación de variables y las series de Fourier para
resolver las ecuaciones diferenciales homogéneas (1), (2) y (3) con condiciones de iniciales
y/o de contorno en regiones rectangulares.
y la condición inicial
U (x, 0) = f (x) , 0<x<L (10)
0 0 0 UHx,tL 0
0 L
UHx,0L=f HxL
0
x
L
Soluciones producto
El método de separación de variables consiste en proponer, primero, una solución
producto
U (x, t) = X(x)T (t) (11)
– 21 –
donde X(x) depende solo de x y T (t) solo de t. Reemplazando (11) en (8) se obtiene
X 00 (x) 1 T 0 (t)
=
X(x) α T (t)
Como el primer cociente depende solo de x y el segundo solo de t, siendo x y t variables
independientes, la única posibilidad es que ambos cocientes sean constantes:
X 00 (x) 1 T 0 (t)
= = −k 2 (12)
X(x) α T (t)
B sen(kL) = 0 (21)
k = nπ/L , n = 1, 2, 3, . . . (22)
– 22 –
Hemos excluido valores enteros negativos de n ya que si bien satisfacen (21), no gene-
ran nuevas soluciones linealmente independientes (sen(−kx) = − sen(kx)). Los valores
posibles de k quedan entonces determinados por la condición de contorno.
Reemplazando (22) en (19) y recordando que A = 0, se obtienen las soluciones
2
Xn (x)Tn (t) = Bn sin(nπx/L) e−α(nπ/L) t , n = 1, 2, 3, . . . , (23)
donde τ representa un tiempo caracterı́stico, tal que |Tn (t)| 1 si t τ /n2 . A mayor n,
más rápidamemte disminuirá el módulo de esta solución, como se ve en la figura.
Tn HtLTn H0L
1.0
0.8
0.6
n=1
0.4 2
0.2
3
0.0 tΤ
0 1 2 3 4
Solución general
Es evidente que con una sola solución producto no es posible satisfacer una condición
inicial general U (x, 0) = f (x).
No obstante, por la propiedad de superposición, podemos proponer ahora una solu-
ción más general que sea una combinación lineal de las soluciones producto (23), es decir,
una solución de la forma
∞
2
X
U (x, t) = Bn e−α(nπ/L) t sen(nπx/L) (26)
n=1
que también satisface (8) (asumiendo convergencia uniforme de la serie) junto con la
condición de contorno (9), ya que cada término de la serie los satisface. Los coeficientes
Bn pueden ser ahora determinados por la condición inicial (10):
∞
X
U (x, 0) = Bn sen(nπx/L) = f (x) , 0 < x < L (27)
n=1
– 23 –
que constituye el desarrollo en serie de Fourier de medio rango en senos de f (x) en el
intervalo [0, L] (ecs. (43)-(44) del cap. anterior). Los coeficientes Bn están pues dados por
2 L
Z
Bn = f (x) sen(nπx/L)dx , n = 1, 2, 3, . . . (28)
L 0
La solución final y única del problema (8)–(9)–(10) es pues la serie (26) con los
coeficientes Bn determinados por (28). Si el desarrollo (27) converge, también lo hará la
serie (26) para t > 0 debido al factor exponencial.
Podemos entender la solución general (26)–(28) como la “suma” de las soluciones pro-
ducto (23) para cada término Bn sin(nπx/L) del desarrollo de Fourier de medio rango de
la condición inicial f (x). Para t > τ , el término más importante en la serie (27) será ob-
viamente el primero (n = 1). Esto implica que las oscilaciones locales de temperatura
desaparecen rápidamente (ver figura).
UHx,tL
1.0
0.8 t=0, UHx,0L=fHxL
0.6 tΤ=0.15
0.4 0.3
0.2
0.0 1.5 ¥ xL
0.2 0.4 0.6 0.8 1.0
– 24 –
Ejemplo 3. Consideremos ahora que los bordes de la barra están a temperaturas fijas
generales U0 y UL . Esto corresponde a las condiciones de contorno
U (0, t) = U0 , U (L, t) = UL , t>0 (30)
t
U0 UL
U0 UHx,tL UL
0 L
UHx,0L = f HxL
0
x
L
Podemos utilizar la solución producto (16) para k = 0 (solución estacionaria),
X(x)T (t) = A + Bx
para ajustar la condición de contorno (30). Tenemos X(0)T (t) = A = U0 , X(L)T (t) =
A + BL = UL , por lo que B = (UL − U0 )/L. La solución general será entonces la suma de
esta solución estacionaria y la solución previa (26):
∞
UL − U0 X 2 2
U (x, t) = U0 + x+ Bn e−αn π t/L sen(nπx/L) (31)
L n=1
la cual satisface la ecuación (8) junto con la nueva condición de contorno (30). Ahora
∞
UL − U0 X
U (x, 0) = U0 + x+ Bn sen(nπx/L) = f (x)
L n=1
1.0
tΤ=0.15
0.5
1.5 ¥ U0 =0, UL=1
0.0
0.2 0.4 0.6 0.8 1.0
xL
– 25 –
Problemas 3.1.
que corresponden a una barra térmicamente aislada, y la condición inicial U (x, 0) = f (x).
Motrar que en este caso X(x) = A cos(kx), con k = nπ/L y n = 0, 1, 2, . . ., y por lo tanto
∞
A0 X 2 2 2
U (x, t) = + An cos(nπx/L)e−αn π t/L
2 n=1
Dar una expresión para A0 y An en términos de f (x) y determinar el lı́mite lı́mt→∞ U (x, t).
∂U ∂ 2U
− α 2 = f (x, t)
∂t ∂x
Asumiendo U (0, t) = U (L, t) = 0 ∀ t > 0, puede proponerse una solución particular
∞
X
Up (x, t) = Bn (t) sen(nπx/L)
n=1
Mostrar que los coeficientes de Fourier Bn (t) satisfacen ahora la ecuación no homogénea
– 26 –
3.2. Ecuación de ondas en una dimensión
Veamos ahora la ecuación de ondas (2) en un intervalo finito 0 ≤ x ≤ L. El objetivo
es determinar la función U (x, t) que satisface la ecuación
∂ 2 U (x, t) 2
2 ∂ U (x, t) 0<x<L
− v = 0, (33)
∂t2 ∂x2 t>0
junto con las condiciones de contorno
U (0, t) = 0, U (L, t) = 0 , t>0 (34)
y las condiciones iniciales
U (x, 0) = f (x) , 0 < x < L (35)
∂U (x, t)
Ut (x, 0) = = g(x) , 0<x<L (36)
∂t t=0
Dado que la ecuación es de segundo orden en el tiempo, es necesario ahora especificar
tanto su valor inicial U (x, 0) = f (x) como su derivada temporal inicial (velocidad inicial)
Ut (x, 0) = g(x).
La función U (x, t) puede representar, por ejemplo, la elongación de una cuerda tensa
de longitud L fija en los bordes, siendo U (x, 0) = f (x) la elongación inicial de la cuerda,
Ut (x, 0) = g(x) su velocidad
p inicial y v la velocidad de propagación de ondas transversales
en la cuerda (v = T /µ, con T la tensión y µ la densidad lineal de masa). La ecuación
(33) determina las oscilaciones de la cuerda a partir de estas condiciones iniciales.
t
UHx,tL
0 UHx,tL 0
0
x
L
UHx,0L=f HxL
x
Ut Hx,0L=gHxL
0 L
Soluciones producto
Aplicando nuevamente el método de separación de variables, se propone primero una
solución producto
U (x, t) = X(x)T (t) (37)
Reemplazando (37) en (33) se obtiene X(x)T 00 (t) − v 2 X 00 (x)T (t) = 0, o sea,
X 00 (x) 1 T 00 (t)
= 2
X(x) v T (t)
Y como el primer cociente depende solo de x y el segundo solo de t, debe cumplirse
X 00 (x) 1 T 00 (t)
= 2 = −k 2 (38)
X(x) v T (t)
– 27 –
Esto conduce a las ecuaciones diferenciales ordinarias
mientras que si k 6= 0,
Las condiciones de contorno (34) implican nuevamente X(0) = 0,, X(L) = 0. Al igual
que en la ecuación de diofusión, para k = 0 esto implica A = B = 0, mientras que para
k 6= 0, esto conduce a A = 0 y a la misma ecuación previa (21), B sen(kL) = 0. Como se
buscan soluciones no nulas e independientes, esto implica nuevamente
k = nπ/L , n = 1, 2, 3, . . .
Las soluciones (44) pueden escribirse como la superposición de ondas viajeras iguales
propagándose en sentidos opuestos:
sen( nπ nπ 1 nπ nπ
L
x) cos( L
vt) = 2
sen[ L
(x − vt)] + sen[ L
(x + vt)] (45)
nπ nπ 1 nπ nπ
sen( L x) sen( L vt) = 2 cos[ L (x − vt)] − cos[ L (x + vt)] (46)
es decir, tanto la elongación inicial f (x) como la velocidad inicial g(x) son proporcionales
a sin(nπx/L).
– 28 –
Se muestran en las figuras los primeros modos normales y sus oscilaciones.
XnHxL
U1Hx,tL=X1HxLT1HtL
1
n=1
0.5
1 t=0 n=1
n=2
0
0.25 0.5 0.75 1
xL t=Τ14
0 xL
1
-0.5 n=3
-1 -1 t=Τ1 2
U3Hx,tL=X3HxLT3HtL
U2Hx,tL=X2HxLT2HtL 1 t=0 n=3
1 t=0 n=2
t=Τ3 4
t=Τ2 4
0 xL
0 xL 1
1
-1 t=Τ3 2
-1 t=Τ2 2
Solución general
Para resolver el problema original con condiciones iniciales generales, debemos plantear
nuevamente la superposición de soluciones producto:
∞
X
U (x, t) = sen(nπx/L)[Cn cos(nπvt/L) + Dn sen(nπvt/L)] (49)
n=1
En este caso,
∞
X
U (x, 0) = Cn sen(nπx/L) = f (x) (50)
n=1
∞
X nπv
Ut (x, 0) = Dn sen(nπx/L) = g(x) (51)
n=1
L
Estas expresiones representan el desarrollo en serie de Fourier de medio rango de f (x) y
g(x) respectivamente. Los coeficientes Cn y Dn están entonces determinados por
2 L
Z
Cn = f (x) sen(nπx/L)dx , n = 1, 2, 3, . . . (52)
L 0
Z L
2
Dn = g(x) sen(nπx/L)dx , n = 1, 2, 3, . . . (53)
nπv 0
La solución final y única del problema (33)–(36) es pues la serie (26) con los coeficien-
tes Cn , Dn determinados por (52)–(53). Si las series (50)–(51) convergen absolutamente,
también lo hará la serie (49), como es fácil probar.
– 29 –
Ejemplo 1. Si U (x, 0) = f (x) = 2 sen(πx/L) − sen(3πx/L) y Ut (x, 0) = g(x) = 0,
2
Z L 2 n=1
Cn = f (x) sen(nπx/L)dx = −1 n=3 , Dn = 0 ∀ n (54)
L 0
0 n 6= 1, n 6= 3
Τ12
-2
-3
Ejemplo 2. Si ahora U (x, 0) = 0 y Ut (x, 0) = Ax(L − x)/L2 , se obtiene Cn = 0 ∀ n y
Z L
2 0 n par
Dn = Ax(L − x) sen(nπx/L)dx = 8AL
nπvL 02
n4 π 4 v
n impar
Por lo tanto, escribiendo n = 2k + 1 con k = 0, 1, . . .,
∞
8AL X 1
U (x, t) = 4 sen[(2k + 1)πx/L] sen[(2k + 1)πvt/L]
π v k=0 (2k + 1)4
Basta aquı́ sumar unos pocos términos para obtener una buena estimación de U (x, t).
Problemas 3.2.
3. Determinar
la solución U (x, t) de la ecuación de ondas para la condición de contorno
∂U ∂U
∂x x=0
= ∂x x=L
= 0 ∀ t > 0, que corresponde a una cuerda tensa con extremos libres
en la dirección vertical, con las condiciones iniciales U (x, 0) = f (x), Ut (x, 0) = g(x).
Identificar los modos normales, sus frecuencias y perı́odos, y mostrar que en este caso
∞
1 X
U (x, t) = (A0 + B0 t) + cos(nπx/L)[An cos(nπvt/L) + Bn sen(nπvt/L)]
2 n=1
– 30 –
3.3. Ecuación de Laplace en dos dimensiones
Comenzaremos por resolver la ecuación de Laplace (3) en una región rectangular con
condiciones de contorno sencillas. El objetivo es determinar la función U (x, y) que satisface
la ecuación de Laplace en el interior de un rectángulo R,
∂ 2 U (x, y) ∂ 2 U (x, y)
+ = 0, 0 < x < Lx , 0 < y < Ly (55)
∂x2 ∂y 2
junto con las condiciones de contorno (ver figura)
UHx,L y L = f HxL
Ly
0 UHx,0L = 0
x
Lx
U (x, y) debe ser nula en los bordes laterales y en el borde inferior, mientras que
en el borde superior debe ser igual a una cierta función f (x). La función U (x, y) puede
representar, por ejemplo, la temperatura estacionaria de una placa metálica rectangular,
cuyos bordes laterales e inferior están a temperatura 0, mientras que su borde superior
tiene una temperatura f (x) dependiente de la posición. El objetivo es determinar la
temperatura en el interior de la placa con estos datos.
La razón por la que esta temperatura satisface (55) es que en el caso general no
estacionario, la temperatura queda determinada por la ecuación de difusión bidimensional
2
∂ 2U
∂U ∂ U
−α + =0 (58)
∂t ∂x2 ∂y 2
– 31 –
Soluciones producto
Nuevamente comenzaremos proponiendo una solución elemental producto
mientras que si k 6= 0,
k = nπ/Lx , n = 1, 2, 3, . . . (68)
– 32 –
En el borde superior y = Ly , estas soluciones satisfacen
Xn (x)Yn (Ly ) = Bn sin(nπx/Lx ) senh(nπLy /Lx ) (70)
por lo que resuelven el problema planteado solo cuando f (x) = Fn sen(nπx/Lx ), en cuyo
caso Bn = Fn / senh(nπLy /Lx ).
Se muestra en los gráficos el comportamiento de las soluciones (70) para n = 1, 2 y
Fn = 1. A mayor n, más rápidamente decrece |Yn (y)| al alejarse del borde y = Ly .
Solución general
Para f (x) arbitraria, podemos ahora plantear la serie de soluciones producto,
∞
X
u(x, y) = Bn sen(nπx/Lx ) senh(nπy/Lx ) (71)
n=1
que satisface la ecuación de Laplace (55) (asumiendo convergencia uniforme) junto con
las condiciones de contorno laterales e inferior. Y en el borde superior,
∞
X
u(x, Ly ) = Bn sen(nπx/Lx ) senh(nπLy /Lx ) = f (x) (72)
n=1
P∞
que corresponde al desarrollo en serie de Fourier de medio rango f (x) = Fn sen(nπx/Lx ),
n=1
RL
con Fn = L2x 0 f (x) sen(nπx/Lx )dx. Por lo tanto, Bn senh(nπLy /Lx ) = Fn , o sea,
1
Bn = Fn (73)
senh(nπLy /Lx )
Z Lx
1 2
= f (x) sen(nπx/Lx )dx (74)
senh(nπLy /Lx ) Lx 0
La solución final y única es pues la serie (71) con los coeficientes (74). Se la puede ver como
la suma de las soluciones producto (70) para cada término Fn sen(nπx/Lx ) del desarrollo
de Fourier de f (x). Dado que senh(nπy/Lx ) ≤ senh(nπLy /Lx ) para 0 ≤ y ≤ Ly , la serie
(71) convergerá absolutamente si la serie de Fourier de medio rango (72) que representa
a f (x) converge absolutamente.
– 33 –
Ejemplo 1. Si f (x) = 2 sen(πx/Lx ) − sen(3πx/Lx ),
2
Z L 2 n=1
Fn = f (x) sen(nπx/Lx )dx = −1 n=3 (75)
Lx 0
0 n 6= 1, n 6= 3
∂ 2 U (x, y) ∂ 2 U (x, y)
+ = 0, 0 < x < Lx , 0 < y < Ly (76)
∂x2 ∂y 2
UHx,L y L = f2HxL
Ly
UHx,0L = f1HxL
0 x
Lx
En el caso trivial en que la temperatura es constante en el borde, fi (x) = C para
i = 1, 2, 3, 4, la solución de (76)–(78) es obviamente U (x, y) = C, es decir, la temperatura
es constante e igual al valor en el contorno. Por otro lado, una función de la forma
es también una solución obvia de (76), que varı́a linealmente en los bordes:
Es pues la solución de (76) cuando las funciones fi son todas lineales y cumplen la con-
dición de continuidad f1 (0) = f3 (0), f1 (Lx ) = f4 (0), f2 (0) = f3 (Ly ), f2 (Lx ) = f4 (Ly ).
– 34 –
En el caso general de funciones fi arbitrarias, la solución de (76)–(78) puede obtenerse,
usando la propiedad de superposición, como la suma de cuatro soluciones:
0 f2HxL
Ly +
Ly
0 U1Hx,yL 0 0 U2Hx,yL 0
f1HxL
0 x 0 0
x
Lx Lx
y y
0 0
+
Ly +
Ly
0 0
x 0 0
x
Lx Lx
y dar una expresión para los coeficientes Bni en términos de las funciones fi .
Es conveniente suponer aquı́ que las funciones fi se anulan en los extremos (vértices del
rectángulo). Si esto no ocurre pero las funciones fi cumplen la condición de continuidad en
los vértices, puede usarse la solución elemental (79) para reproducir los valores
P4 de U (x, y)
en los 4 vértices y proponer una solución general U (x, y) = U0 (x, y) + i=1 Ui (x, y),
donde las Ui (x, y) serán de la forma (83)–(86) para i = 1, 2, 3, 4. Ası́, los coeficientes Bin
dependerán de la diferencia fi − U0 en el borde del rectángulo, que se anulará en los
vértices.
– 35 –
Problemas 3.3.
– 36 –