Está en la página 1de 14

CAPÍTULO 4

Lo complejo: la expresión más sencilla de un comportamiento


barroco

La voie la plus courte et la meilleure entre deux vérités du monde réel passe souvent par le
domaine de l’imaginaire.
Jacques Hadamard
Essai sur la psychologie de l’invention
dans le domaine mathématique [Ha]
En esta sección veremos reiteradamente cómo los números complejos tienen el encanto de dar una repre-
sentación simple y profundamente estética a aquello que, a primera vista, se nos presenta como algo intrincado.
Saquemos entonces de nuestra mente el prejucio que nos hace pensar que los números complejos son complicados
y estemos listos a abrirnos a la geometría que su estructura ofrece.
Primeramente daremos una muy breve introducción histórica sobre el origen de los números complejos y
hablaremos un poco sobre sus propiedades básicas. Más adelante, concentraremos nuestra atención en aquellos
campos vectoriales lineales que tienen la propiedad de que las raíces del polinomio característico asociado a la
matriz que define a cada uno de ellos, son complejas. En el plano real, las soluciones de las ecuaciones definidas
por campos vectoriales de este tipo tienen (en coordenadas adecuadas) forma de elipses, círculos concéntricos
o de espirales (ver Introducción, ejemplos 1.16 y 1.17). Este movimiento en espiral, de por sí caprichoso, tiene
una expresión matemática que reúne a la función exponencial, a la variable compleja y al tiempo real en una
asombrosa fórmula que es profundamente estética por su significado y sencillez.

4.1. Los números complejos: su interpretación geométrica.


Empecemos dando breve contexto histórico. Es conveniente ubicar en el siglo IX uno de los momentos
más importantes en el futuro desarrollo del pensamiento filosófico y científico. Al mismo tiempo que Europa se
encontraba hundida en los años más oscuros de la Edad Media, en Bagdad, al abrigo del califato abasí, se vivía un
florecimiento del pensamiento, la cultura y el comercio. Los abasíes eran herederos de las tradiciones árabe-islámica
y persa. En 820, el matemático, astrónomo y geógrafo Mohammed Ibn Musa abu Djafar al-Juarizmi, nacido en 780
en la ciudad persa de Juarizmi (actual Jiva, en Uzbekistán), fue llamado a Bagdad por el califa abasida al-Mamún
(Abū al-�Abbās �Abd Allāh ibn Hārūn ar-Rashı̄d) para incorporarse en la Casa de la Sabiduría, que era una
institución creada para el enriquecimiento del saber. Bajo su cobijo, fueron traducidas al árabe obras científicas y
filosóficas griegas e hindúes, y se realizaban, asimismo, observaciones astronómicas. En este rico ambiente científico
y multicultural se educó y trabajó al-Juarizmi. Todo este florecimiento traería importantes consecuencias en el
desarrollo de la ciencia en Europa, principalmente a través del también deslumbrante califato de Córdoba en
España y de las traducciones al latín de las obras tanto de al-Juarizmi como de otros destacados filósofos y
matemáticos radicados en ciudades controladas por los califatos de Córdoba (al-Andalús) y Bagdad. El tratado
de álgebra, Kitab al-jabr wa’l-muqabala, de al-Juarizmi es una introducción al cálculo de ecuaciones cuadráticas,
usando reglas para completar y reducir ecuaciones. Además de sistematizar la resolución de ecuaciones cuadráticas,
también trata geometría y cálculos relativos al comercio. Los términos al-jabr y al-muqabala se utilizan para
denominar lo que nosotros llamamos transposición de términos y simplificación de términos semejantes. En otra
de sus obras, se describen con detalle los números indoarábigos, el sistema indio de numeración posicional en
base 10 y métodos para hacer cálculos con él. Este sistema pasó a la región de al-Andalús y de ahí se dispersó
gradualmente hacia el resto de Europa. En sus trabajos, al-Juarismi notó el problema presente en la extracción
de raíz cuadrada de números negativos e hizo un intento de dar una solución geométrica al problema. Siguiendo
las ideas de al-Juarismi, el matemático, astrónomo, médico y poeta persa, Omar al-Jayam (Ghiyath al-Din Abu
l-Fath Omar ibn Ibrahim Jayam Nishapurí ), nacido y fallecido en Nishapur, Irán, 1048-1131 respectivamente,
desarrolla un método de solución de las ecuaciones cuadráticas y cúbicas a partir de las secciones cónicas. Este
procedimiento lo desarrolla en el trabajo Tratado sobre demostraciones de álgebra y comparación y le permite
clasificar las ecuaciones cúbicas y encontrar, en éstas, una raíz positiva y demostrar, intersecando cónicas, la
existencia de al menos una segunda raíz. Afirmó que las raíces de una ecuación cúbica no pueden encontrarse en
este caso mediante regla y compás, lo cual sólo pudo ser demostrado muchos siglos después. 1
1Omar al-Jayam es el primero en hacer el desarrollo de un binomio con potencia natural. Introdujo la noción actual de variable
x que llamó shay que podría ser traducido como algo, además de otros conceptos cuya relevancia no fue entendida sino mucho
después. Su compendio de poesía Rubaiyat sigue siendo estudiado y admirado en nuestra época.

51
52 4. LA EXPRESIÓN MÁS SENCILLA DE UN COMPORTAMIENTO BARROCO

Cuatro siglos tuvieron que pasar, para que un nuevo rastro de la presencia de números imaginarios se hiciera
presente (no hay que olvidar que diversos sucesos lamentables en distintas regiones de Europa y Asia provocaron
la quema de tratados muy valiosos en los que se perdió, para siempre, un cúmulo de reflexiones y pensamientos).
Es así, que una de las primeras menciones sobre los números imaginarios como raíces cuadradas de números
negativos se vuelven a encontrar en el Ars Magna (1545) de Gerolamo Cardano (1501-1576), quien escribe:
Olvidad las torturas mentales que esto os producirá e introducid estas cantidades (las raíces
negativas) en la ecuación.
Sin embargo, es el matemático italiano Rafael Bombelli (1526-1572) quien usa las raíces negativas estableciendo
operaciones con ellas para la solución de ecuaciones de tercer grado. Posteriormente, el matemático francés Albert
Girard (1595-1632) en su Invention nouvelle en algèbre razona sobre la necesidad de admitir las raíces negativas
en ecuaciones de grado cuatro y se le considera por algunos autores como un precursor del teorema fundamental
del álgebra. El matemático francés René Descartes (1596-1650) les da a las raíces cuadradas de números negativos
el apelativo de imaginarias y él particularmente no les da un uso especial.
Sin embargo, hasta mediados del siglo XVIII los números imaginarios aparecen sólo de manera accidental en
los trabajos de científicos tales como Nicolaus Bernoulli (1695-1726), Gottfried Leibniz (1646-1716), Issac Newton
(1642-1727) y Alexis Clairaut (1713-1765).
El matemático suizo, Leonard Euler (1707-1783) considera a los números complejos como "números imposi-
bles" pero útiles. En su Vollständige Anleitung zur Algebra 46 (1770), (traducción al francés en [E]) señala:
Ahora, dado que todos los números que es posible imaginar son mayores o menores que 0,
o son incluso 0, está claro que ni siquiera se puede contar la raíz cuadrada de un número
negativo entre los números posibles, por lo que hay que decir que es una cantidad imposible.
Así es como llegamos a la idea de números que por su naturaleza son imposibles. Se les
denomina usualmente a esos números cantidades imaginarias, porque ellas existen solamente
en la imaginación. ([E] nota 143, p.104 )
Finalmente, nos queda despejar la duda que se pueda tener sobre la utilidad de los números que
acabamos de hablar; pues, de hecho, al ser estos números imposibles, no sería sorprendente
que se pensara que son completamente inútiles y que sólo son objeto de una vana especulación.
Sin embargo, uno estaría equivocado, el cálculo de los imaginarios es de la mayor importancia;
a menudo surgen preguntas de las que no es posible decir de una vez si contienen algo real
y posible o no. Pero cuando la solución de tal pregunta nos lleva a números imaginarios,
estamos seguros de que lo que estamos preguntando es imposible. ([E] nota 151, p.109)
Con este criterio de utilidad de uso de los números complejos, Euler es considerado como uno de los principales
impulsores de la teoría de la variable
√ compleja. En Introductio in analysin infinitorum (1748), Euler introduce el
símbolo “i” de imaginario: i = −1 ó i2 = −1 y deduce la fórmula

eiπ = cos(θ) + i sin(θ) , i2 = −1 .


A partir de ahí, los números complejos se definen como z = a + ib, donde a, b son números reales. Al número a se
le conoce como la parte real de z y al número b la parte imaginaria de z. Al conjunto de los números complejos
se le denota por C. Los números complejos, al igual que los números reales, forman lo que en álgebra se conoce
como un campo o cuerpo.
En 1797 el danés Caspar Wessel (1745-1818) da una interpretación geométrica de los números complejos.
Esta interpretación identifica al número complejo z = a + ib (compuesto por dos números reales a y b) con la
pareja del plano real z = (a, b). El punto z = a + ib se representa, por lo tanto, como un vector en el plano (aquí
entra la noción de dirección, magnitud y sentido (ver figura 4.1)).

Figura 4.1.

Con esta representación, las parejas de la forma (a, 0) denotan a los números reales y las parejas de la
forma (0, b) denotan a los números imaginarios (puros). En particular, hacemos notar que al 1 ∈ C lo estamos
4.1. LOS NÚMEROS COMPLEJOS: SU INTERPRETACIÓN GEOMÉTRICA. 53

identificando con el vector canónico (1, 0) de R2 , y a i ∈ C lo identificamos con el segundo vector canónico (0, 1)
de R2 . Por otra parte, si z = a + ib denotamos por Rez, Im z a las partes real e imaginaria de z respectivamente:

Re(z) = a, Im(z) = b .

Así mismo, denotamos por |z| a la magnitud de z:



|z| = a2 + b2

Definición 4.1. El conjunto de números complejos, denotado por C, es el conjunto R 2 junto con las reglas usuales
de adición vectorial y multiplicación escalar por números reales:
(x1 , y1 ) + (x2 , y2 ) = (x1 + x2 , y1 + y2 )
α(x, y) = (αx, αy), α ∈ R,

y la operación de multiplicación compleja definida por

(x1 , y1 )(x2 , y2 ) : = (x1 x2 − y1 y2 , x1 y2 + y1 x2 ) .

La operación de multiplicación de dos números complejos z1 = x1 + iy1 , z2 = x2 + iy2 dada en la definición


se escribe usualmente como

z1 z2 = (x1 + iy1 )(x2 + iy2 ) = x1 x2 − y1 y2 + i(x1 y2 + y1 x2 ).

Ejercicio 4.2. ¿Es o no, la operación de multiplicación compleja, conmutativa, asociativa y distributiva?

Para comprender el sentido de la multiplicación compleja vamos a introducir un poco de trigonometría básica.
El punto z = (a, b) o z = a + ib se representa en el plano como un vector que parte del origen, o, y termina en el
punto (a, b). Los segmentos [oz], [oa] y [az] forman un triángulo rectángulo.√ Denotemos por θ al ángulo opuesto
al segmento [az], y denotemos por ρ a la magnitud del segmento [oz], ρ = a2 + b2 . Así, a = ρ cos θ, b = ρ sen θ
(ver figura 4.2).

Figura 4.2.

De esta forma, el número complejo z puede ser representado haciendo uso de las funciones trigonométricas
seno y coseno como
z = a + ib = ρ(cos θ + i sen θ) .
La interpretación geométrica de la multiplicación de dos números complejos

z1 = ρ1 (cos θ1 + i sen θ1 ), z2 = ρ2 (cos θ2 + i sen θ2 )

es ahora muy sencilla, ya que de la igualdad


z1 z2 = ρ1 ρ2 [(cos θ1 cos θ2 − sen θ1 sen θ2 ) + i(cos θ1 sen θ2 + cos θ2 sen θ1 )]
= ρ1 ρ2 (cos(θ1 + θ2 ) + i sen(θ1 + θ2 )) ,

se sigue que el resultado de la multiplicación z1 z2 es un número complejo cuya magnitud es igual al producto de
las magnitudes de z1 y z2 , y cuyo argumento es igual a la suma de los argumentos de dichos números (ver figura
4.3). En otras palabras, el resultado de multiplicar al complejo z 1 por el complejo z2 puede ser interpretado como
la aplicación de una rotación por un ángulo θ2 al complejo z1 , seguida de aplicar una homotecia (contracción o
expansión por un factor ρ2 ).
54 4. LA EXPRESIÓN MÁS SENCILLA DE UN COMPORTAMIENTO BARROCO

Figura 4.3.

4.1.1. R-linealidad y C-linealidad. Cabe hacer notar que la multiplicación compleja sólo agrega una
propiedad nueva a R2 . Así, los conceptos usuales de límite y continuidad en R2 se mantienen sin ningún cambio al
interpretar a R2 como C. Sin embargo, la estructura que la multiplicación induce en R 2 se refleja en su totalidad
en el proceso de diferenciación. La clave para comprender esta nueva estructura está en hacer una diferencia clara
entre lo que significa el que una transformación de C en C sea R-lineal o C-lineal.
Por esta razón, y por todo lo que haremos en este capítulo, es importante detenernos a analizar los conceptos
de R-linealidad y C-linealidad.

Definición 4.3. Decimos que una función ψ : C → C es R-lineal si para para toda z, w ∈ C se satisface
a) ψ(z + w) = ψ(z) + ψ(w)
b) ψ(λz) = λψ(z), para todo λ ∈ R.
Si además se satisface
c) ψ(λz) = λψ(z), para todo λ ∈ C,
entonces decimos que ψ es C − lineal.

Observamos que el conjunto de las funciones C − lineales es un subconjunto de las funciones R − lineales.
Vamos a dar una expresión, en términos de z y z̄, para las funciones R − lineales. Para ello, consideremos
una función ψ : C → C, tal que ψ es R − lineal. Entonces, si escribimos z = x + iy, se tiene
ψ(z) = ψ(x + iy) = ψ(x) + ψ(iy) ,
y como ψ es R − lineal,
(4.1) ψ(z) = xψ(1) + yψ(i) .
Denotemos α := ψ(1), β := ψ(i), y escribamos a x y a y en términos de z y de z̄,
z + z̄ z − z̄
(4.2) x= , y= .
2 2i
Con esta notación se tiene el siguiente teorema.

Teorema 4.4. Toda función R − lineal ψ : C → C se escribe como


(4.3) ψ(z) = az + bz̄ ,
donde a = 1
2
(α − iβ), y b = 1
2
(α + iβ).

Demostración. Por (4.1) sabemos que ψ(z) = xψ(1) + yψ(i). Sustituyendo ahora las expresiones de x y y
obtenidas en (4.2) se tiene que
z + z̄ z − z̄
ψ(z) = α+ β.
2 2i
Reagrupando se tiene que
� � � �
α β α β
ψ(z) = + z+ − z̄
2 2i 2 2i
� � � �
α − iβ α + iβ
= z+ z̄
2 2
= az + bz̄.

4.1. LOS NÚMEROS COMPLEJOS: SU INTERPRETACIÓN GEOMÉTRICA. 55

Haciendo uso del teorema anterior, y de las expresiones obtenidas para ψ y a en él, es ahora simple observar
que ψ es una transformación C-lineal si y sólo si
ψ(i · 1) = iψ(1) = iα;
en cuyo caso,
(4.4) ψ(z) = xψ(1) + iyψ(1) = ψ(1)(x + iy) = αz.
En otras palabras, si ψ es C-lineal entonces en la expresión (4.3) se tiene necesariamente que b = 0 y a = α.
Retomemos lo que hemos hecho hasta ahora desde el punto de vista de R2 . A saber, si ψ es una transformación
R-lineal, ψ : C → C, entonces podemos escribirla, por el teorema anterior, como
ψ(z) = az + bz̄.
Si recordamos que a 1 ∈ C lo identificamos con el vector canónico (1, 0) de R 2 , y a i ∈ C lo identificamos con
el segundo vector canónico (0, 1) de R2 , entonces la transformación lineal ψ aplicada en el complejo 1 podemos
leerla como la transformación R-lineal ψ aplicada al vector (1, 0) definida por,
� � � �� � � �
1 a11 a12 1 a11
�→ = .
0 a21 a22 0 a21
Asimismo, la transformación R-lineal ψ en el complejo i podemos leerla como la transformación R-lineal ψ sobre
el vector (0, 1) definida como,
� � � �� � � �
0 a11 a12 0 a12
�→ = .
1 a21 a22 1 a22
Si ahora pedimos que ψ sea no sólo R-lineal sino también C-lineal, entonces ψ(z) = az y deberá satisfacerse que

ψ(i · 1) = iψ(1) = iα;


es decir,
ψ((0, 1)) = iψ((1, 0))
Escribiendo esta última expresión en términos de vectores en R2 , se tiene
� � � � � �
a12 a11 −a21
ψ(0, 1) = =i = ;
a22 a21 a11
es decir,
� � � �
a12 −a21
= .
a22 a11
Así, la matriz A que define a la transformación C-lineal ψ es de la forma
� �
a11 −a21
A= .
a21 a11
En resumen, la multiplicación por un número complejo µ ∈ C es una transformación C-lineal de C en sí
mismo que puede verse también como una transformación R-lineal (que tiene una expresión particular) del plano
R2 en sí mismo (una rotación y una homotecia).
Para dar un sentido preciso a la afirmación anterior observemos, como antes, que la multiplicación de z = x+iy
por el número complejo µ = α + iβ puede verse como una transformación del plano R 2 en sí mismo si escribimos
la transformación z �→ µz como � � � �� �
x α −β x
�→ .
y β α y
En efecto, de la igualdad � �� � � �
α −β x αx − βy
= ,
β α y βx + αy
y de la identificación del punto
� (αx −�βy, βx + αy) con � el� punto αx − βy + i(βx + αy) = µz, se tiene que la
α −β x
multiplicación de la matriz por el vector corresponde a la multplicación de µ por z.
β α y
Para finalizar, recordemos que el número complejo µ = α + iβ puede ser escrito como µ = ρ(cos θ + i sen θ)
donde ρ = |µ| y θ = arg z. Por lo tanto, la matriz correspondiente a µ puede ser escrita como
� �
ρ cos θ −ρ sen θ
(4.5) .
ρ sen θ ρ cos θ
Así, dado que se satisface la igualdad
� � � �� �
ρ cos θ −ρ sen θ ρ 0 cos θ − sen θ
= ,
ρ sen θ ρ cos θ 0 ρ sen θ cos θ
56 4. LA EXPRESIÓN MÁS SENCILLA DE UN COMPORTAMIENTO BARROCO

se tiene que la matriz (4.5) puede ser vista como la rotación por el ángulo θ (representada por la matriz de coseno
y seno) seguida del cambio de magnitud (representado por la multiplicación por ρ).

Ejercicio 4.5.
� �
0 −1
(1) Considera la matriz M = .
1 0
(a) ¿A qué número complejo corresponde?
(b) Analiza el comportamiento geométrico de la transformación z �→ M z, donde z = (x, y).

4.2. La función exponencial: una pequeña joya.


“...No dejen de admirar, cuando salgan, la fórmula escrita, encima de una puerta. Es de
Leonard Euler. Es, sin duda, la más hermosa de todas las matemáticas.” Todos levantaron la
cabeza al salir y leyeron:
eiπ = −1
Dennis Guedj
El teorema del loro [G]
La función exponencial real, denotada por ex o por exp(x), suele ser definida como aquella función f que
satisface que, para todo x ∈ R, su derivada es ella misma: f (x) = f � (x). También suele definirse como la serie
convergente2

x2 x3 x4
ex = 1 + x +
+ + + ... .
2! 3! 4!
Cuando x es un número imaginario, x = ib, b ∈ R, definimos e como
ib

eib := cos b + i sen b .


Además, si x = a + ib,
ea+ib := ea eib = ea (cos b + i sen b) .
Esta definición no es casual. Si en la serie que define a la función exponencial sustituimos el valor de x = ib,
entonces se tiene
(ib)2 (ib)3
(4.6) eib = 1 + (ib) + + + ...
2! 3!
Se demuestra (ver por ejemplo [M], o la sección 4.7 de este libro) que esta serie está bien definida y es
convergente en los complejos, de modo que el número eib está bien definido para toda b ∈ R. Si ahora separamos
en la serie (4.6) la parte real de la parte imaginaria, obtenemos
� � � �
b2 b4 b6 b3 b5
(4.7) eib = 1 − + − + ... + i b − + − ...
2! 4! 6! 3! 6!
En la parte real de la serie (4.7) reconocemos a la serie que define a la función cos b, y, en la parte imaginaria,
a la función sen b (ver [Ar], [B], [M]). De tal suerte, que la definición de eib como cos b+i sen b queda perfectamente
justificada. La definición de ea+ib = ea eib nos permite hacer uso de la exponencial compleja con las mismas leyes
que rigen a la exponencial real.

Ejercicio 4.6. Calcula e interpreta geométricamente ea+ib en los siguientes casos


a): a = 0 y b = π/2
b): a = 0 y b = π
c): a = 0 y b = 3π/4
d): a = 0 y b = 2π
e): a < 0 y b = π/4.

Por último, si queremos dar una interpretación geométrica a la transformación


z �→ ea+ib · z, z = x + iy ∈ C ,
basta recordar que la multiplicación por e y por e tienen una representación matricial:
a ib
� � � a �� �� �
x e 0 cos b − sen b x
�→ .
y 0 ea sen b cos b y
Así, ea+ib z significa rotar z un ángulo b y multiplicar su magnitud por e a .
Esta sencilla interpretación geométrica habrá de sernos de gran utilidad en el siguiente punto.

2Una serie convergente representa al límite cuando n tiende a infinito de la sucesión formada por las sumas parciales de sus
n primeros términos.
4.3. UN CONCIERTO DE CÍRCULOS Y ESPIRALES. 57

4.3. Un concierto de círculos y espirales.


En esta sección veremos cómo el darle al plano real una estructura compleja (es decir, identificar a plano real
R2 con C) nos permite resolver cierto tipo de ecuaciones diferenciales lineales.
Consideremos la ecuación diferencial
ẋ = ax − by
ẏ = bx + ay , a, b ∈ R, (x, y) ∈ R2 .
Este sistema tiene notación matricial
� � � �� �
ẋ a −b x
(4.8) = .
ẏ b a y
� �
a −b
Si reemplazamos la matriz por el número complejo µ = a + ib, y reemplazamos el vector (x, y) por el
b a
número complejo z = x + iy, entonces la ecuación (4.8) se expresa como
(4.9) ż = µz , z ∈ C.
La ecuación (4.9) nos trae a la mente la ecuación lineal de primer orden homogénea que analizamos en la sección
2.2. La función exponencial z(t, k) = keµt , t ∈ R y k ∈ C, z(0, k) = k, es, en este caso, una solución de la
ecuación, con condición inicial k = k1 + ik2 . Si observamos la igualdad
eµt = e(a+ib)t = eat eibt ,
podemos ver claramente que el factor eat es el responsable de modificar (al variar t) el radio de la solución; mientras
que el factor eibt = cos bt + i sen bt, es un círculo que, cuando t crece, se recorre positivamente o negativamente
según sea el signo de la constante de b.
Así, si a = 0, la solución general toma la forma z(t, k) = keibt . Escribiendo k = k1 + ik2 y z(t) = x(t) + iy(t)
se tiene
x(t) + iy(t) = (k1 + ik2 )(cos bt + i sen bt);
Separando parte real e imaginaria
x(t) = k1 cos bt − k2 sen bt
y(t) = k1 sen bt + k2 cos bt .
En la forma matricial z(t, k) = ke se escribe como
ibt
� � � �� �
x(t) cos bt − sen bt k1
(4.10) = .
y(t) sen bt cos bt k2
A la matriz de (4.10) se conoce como matriz de rotación. El vector (k 1 , k2 ) representa la condición inicial en
el plano. Las soluciones son círculos concéntricos (ver figura 4.4 donde b > 0).

Figura 4.4.

En el caso en que a �= 0, los círculos eibt se ven afectados por el factor eat . Si a < 0 la distancia al origen se
va reduciendo mientras que el efecto de eibt hace girar las soluciones. El resultado de estos dos comportamientos
son espirales que convergen al origen (ver figura 4.5, donde a < 0, b > 0).
Las soluciones en este caso se escriben como
x(t) + iy(t) = (k1 + ik2 )eat (cos bt + i sen bt)
= eat (k1 cos bt − k2 sen bt) + ieat (k2 cos bt + k1 sen bt)
58 4. LA EXPRESIÓN MÁS SENCILLA DE UN COMPORTAMIENTO BARROCO

Figura 4.5.

En forma matricial escribimos


� � � at �� �� �
x(t) e 0 cos bt − sen bt k1
(4.11) = .
y(t) 0 e at
sen bt cos bt k2

La primera matriz representa la contracción (o expansión si a > 0) y la segunda matriz es la matriz de


rotación (en el sentido positivo si b > 0 y en el sentido negativo si b < 0).
La expresión keµt , k, µ ∈ C, t ∈ R, es, sin duda, una clara muestra de cómo un movimiento tan caprichoso
como lo es el de la espiral, es posible expresarlo (con ayuda de la notación compleja) mediante una expresión
fascinante por su sencillez.

Ejercicio 4.7. Haciendo uso de coordenadas polares demuestra que la ecuación ż = µz tiene, en efecto, la
solución dada por z(t) = keµt , t ∈ R y k ∈ C.

Ejercicio 4.8. Considera la ecuación (4.8). Resuélvela y representa gráficamente el comportamiento de las
soluciones en los casos
a): a > 0, b > 0
b): a > 0, b < 0
c): a < 0, b < 0.

Pasemos ahora al caso en tres dimensiones. Consideremos la ecuación en R3 dada por


ẋ1 = ax1 − bx2
(4.12) ẋ2 = bx1 + ax2
ẋ3 = λx3 ,

donde a, b, λ ∈ R y (x1 , x2 , x3 ) ∈ R3 . Escribiendo en forma matricial se tiene


    
ẋ1 a −b 0 x1
 ẋ2  =  b a 0   x2  .
ẋ3 0 0 λ x3
� �
ẋ1
Como la variable x3 está separada de x1 , x2 , entonces podemos resolver de manera independiente =
ẋ2
� �� �
a −b x1
y ẋ3 = λx3 .
b a x2
La solución la escribimos entonces como
   at  
x1 (t) e cos bt −eat sen bt 0 x01
(4.13)  x2 (t)  =  e sen bt
at at
e cos bt 0  x02  ,
x3 (t) 0 0 eλt x03

donde x0 = (x01 , x02 , x03 ) representa las condiciones iniciales.


Para graficar las soluciones supongamos primero que a > 0, b > 0, λ > 0. En este caso, la expresión representa
un movimiento parecido al de un tornado (ver figura 4.6).
4.4. COMPLEJIFICACIÓN DE Rn . VALORES PROPIOS DE AC 59

Figura 4.6.

En el caso a > 0, b > 0, λ < 0, se tiene un movimiento como en la figura 4.7.

Figura 4.7.

En el caso a < 0, b > 0, λ < 0, la dinámica nos recuerda a lo que sucede con el agua del lavabo al salir por
la coladera (ver figura 4.8).

Ejercicio 4.9. Considera la ecuación (4.12) y encuentra el comportamiento de las soluciones en los casos
a): a < 0, b < 0, λ < 0,
b): a < 0, b < 0, λ > 0,
c): a > 0, b < 0, λ > 0,
d): a > 0, b < 0, λ < 0,
e): a = 0, b < 0, λ < 0.

4.4. Complejificación de Rn . Valores propios de AC


En este capítulo estudiaremos el caso general en el que la matriz A que define la ecuación diferencial ẋ = Ax,
A = [aij ], aij ∈ R tiene polinomio característico p(λ) = det(A − λId) con raíces complejas (no reales).
Lo primero que observamos es que bajo estas condiciones la matriz A no puede tener valores propios. En
efecto, si existiese λ ∈ C � R y f ∈ R2 tal que Af = λf se tendría una expresión falsa pues el lado izquierdo de
la igualdad es un vector en R2 mientras que en el lado derecho es un vector en C2 . Geométricamente también
es posible entender la observación, pues al buscar que Af = λf , buscamos direcciones invariantes bajo A, pero
multiplicar un vector en el plano real por un número complejo (no real) no deja direcciones invariantes en R 2
(recordemos que multiplicar por un número complejo no real siempre lleva intrínseca una rotación).
Lo anterior nos lleva a concluir que en este caso el plano real, R2 , no es ya el espacio apropiado para resolver
el problema de encontrar los valores propios de A; el lugar apropiado para hacerlo es el plano complejo, C 2 . Por
60 4. LA EXPRESIÓN MÁS SENCILLA DE UN COMPORTAMIENTO BARROCO

Figura 4.8.

consiguiente, consideraremos lo que se conoce como complejificación de la ecuación. En C 2 daremos una respuesta
a la ecuación complejificada y después veremos cómo, de lo hecho en los complejos, logramos dar una respuesta
para el problema original.
Así, en lugar de considerar
A : R2 −→ R2 ,
consideramos
AC : C2 −→ C2 ,
� �
a11 a12
donde AC = , aij ∈ R.
a21 a22

Observación 4.10. Como matrices AC y A son iguales, lo que cambia es el dominio de definición de A. Éste lo
extendemos de R2 a C2 y, para recordarlo, lo denotamos por AC .
AC |R2 = A : R2 −→ R2 ,
A este proceso se le llama complejificación de la matriz A.

Así, dada la ecuación


(4.14) ẋ = Ax,
consideramos la ecuación complejificada
(4.15) ẋC = AC xC , xC ∈ C2 .
Para esta ecuación consideramos sus valores propios y definimos una matriz P C formada por vectores propios de
AC . Cabe observar que si AC tiene valor propio λ ∈ C y f ∈ C2 es un vector propio asociado a λ entonces
AC f = λf.
Conjugando esta igualdad se tiene
AC f = λf ;
es decir,
AC f = λf ,
pues AC = AC por ser una matriz de coeficientes reales. Esto nos dice que f es vector propio de AC correspondiente
al valor propio λ.
Observamos que, como λ �= λ, entonces f y f son linealmente independientes sobre C. Esto se debe a que si
suponemos que f = cf , c ∈ C, entonces AC f = λf y AC f = AC (c · f ) = c · λf = λf . Así, λf = λf y, por lo
tanto, λ = λ. Lo que nos lleva a una contradicción pues supusimos que λ es un complejo no real, y por lo tanto
λ �= λ̄. � �
Formemos entonces la matriz PC : = f f con f = u + iv, u = (u1 , u2 ) y v = (v1 , v2 ), con u y v
vectores en R2 . Sabemos que, al igual que sucedía en el caso de raíces reales distintas, la conjugación de la matriz
AC por la matriz PC nos da como resultado una matriz diagonal ΛC que actúa de C2 en sí mismo, y que tiene en
la diagonal a los valores = λ y λ,
4.4. COMPLEJIFICACIÓN DE Rn . VALORES PROPIOS DE AC 61

� �
λ 0
P−1
C A C PC = Λ C = .
0 λ
Así, si consideramos el cambio de coordenadas yC := P−1
C xC se tiene, como vimos antes, que
� �
λ 0
(4.16) ẏC = ΛC yC , donde ΛC = .
0 λ

Observación 4.11. Esta ecuación no es el resultado de la complejificación de una ecuación en R 2 pues sus
coeficientes no son reales.

Las soluciones de la ecuación (4.16) son:


� � � λt �
y 1C e c1
= con c1 , c2 ∈ C.
y 2C eλt c2
Por consiguiente, las soluciones de la ec. (4.15) están dadas por x C = PC yC , es decir,
� � � �
x1C � � eλt c1
(4.17) = f f = c1 eλt f + c2 eλt f .
x2C eλt c2

Observación 4.12. La expresión (4.17) representa a todas las soluciones de la ecuación ẋ C = AC xC y éstas
son únicas una vez dada la condición inicial. Para probar la unicidad, tenemos que demostrar primero que las
soluciones de la ecuación (4.16) son únicas una vez fija la condición inicial. Este hecho se puede demostrar
fácilmente coordenada a coordenada pues las variables en esta ecuación están desacopladas. Así, para probar
que la ecuación ẏjC = λj yjC tiene como única solución a yjC (t) = cj eλj t (que satisface yjC (0) = cj ) suponemos
que existe otra y la denotamos por ϕj (t), ϕj (0) = cj . Como eλj t �= 0 para todo t ∈ R, podemos escribir
ϕj (t) = gj (t)eλj t para alguna función diferenciable gj . Por ser ϕj solución ẏjC = λj yjC se tiene que
ϕ̇jC = λj ϕjC ;
es decir,
ġj eλj t + gj λj eλj t = λj gj eλj t .
Así, ġj = 0 y, por consiguiente gj (t) = kj , kj constante. Por lo tanto, ϕj (t) = kj eλj t . Como ϕj (0) = cj , entonces
kj = cj . Esto nos da, coordenada a coordenada, la unicidad de y C (t). Para obtener la unicidad de las soluciones
xC (t) = PC yC (t) de la ecuación ẋC = AC xC , basta ahora con observar que la invertibilidad de la matriz P C implica
inmediatamente el resultado.

Si ahora nos preguntamos por aquellas soluciones de la ecuación (4.15) que están contenidas en R 2 para todo
tiempo t ∈ R, bastará con buscar aquellas soluciones xC que satisfacen la condición
xC (t) = xC (t) para todo t ∈ R.
Así,
xC (t) = c1 eλt f + c2 eλt f = c1 eλt f + c2 eλt f = xC (t) ;
es decir,
c1 eλt f + c2 eλt f = c1 eλt f + c2 eλt f .
Igualando a cero:
(c1 − c2 )eλt f + (c2 − c1 )eλt f = 0.
Observamos que haciendo t = 0 obtenemos
(c1 − c2 )f + (c2 − c1 )f = 0.
Como los vectores f y f son linealmente independientes se sigue que
(c1 − c2 ) = 0 = (c2 − c1 );
Es decir c2 = c1 . Sustituyendo este valor de c2 en (4.17) se tiene que
xC (t) = c1 eλt f + c1 eλt f .
Por lo tanto,
(4.18) xC (t) = 2Re(c1 eλt f ).
Como xC (t) = 2Re(c1 e f ) ∈ R para todo t, y xC satisface la ecuación ẋC = AC xC , entonces todas las soluciones
λt 2

x(t) = xC (t) definidas como en (4.18) son soluciones para el problema inicial ẋ = Ax. Cabe ahora preguntarse
si éstas son todas. Para responder a esta pregunta observemos que hemos resuelto la ecuación x˙C = AC xC y
expresado de manera explícita en (4.17) sus soluciones; asimismo, hemos caracterizado a aquellas que pertenecen
62 4. LA EXPRESIÓN MÁS SENCILLA DE UN COMPORTAMIENTO BARROCO

a R2 para todo tiempo t (ver (4.18)). Cabe preguntarse ahora, si es posible o no que una solución que tiene
condición inicial en C2 \ R2 interseque al plano R2 en algún momento para algún valor t0 ∈ R .

Figura 4.9.

Para responder a esta pregunta, supongamos que ϕ(t, p) es solución, ϕ(0, p) = p ∈ C2 \ R2 , tal que para algún
valor t = t0 se tiene que ϕ(t0 , p) = x0 ∈ R2 (ver figura 11.2). Entonces

= AC ϕ,
dt
y, conjugando esta ecuación, se tiene

= AC ϕ .
dt
Es decir, ϕ también es solución, ϕ(0, p) = p y ϕ(t0 , p) = x0 = x0 ∈ R2 . Por consiguiente, si ϕ no es solución en
R2 para toda t, entonces ϕ �= ϕ y ϕ(t0 , p) = x0 = ϕ(t0 , p), lo que contradice la unicidad de las soluciones. Por
consiguiente, si ϕ(t, p) es solución de xC = AC xC , y ϕ(τ, p) ∈ R2 para algún τ ∈ R, entonces ϕ(t, p) ∈ R2 para
todo t ∈ R; por lo tanto, ϕ(t, p) es solución de ẋ = Ax. En otras palabras, la expresión (4.18) representa a todas
las soluciones de la ecuación original (4.14).
Regresemos ahora a la expresión obtenida en (4.18) para encontrar una interpretación geométrica de lo que
hemos realizado. Lo primero que se observa, es que x(t) depende únicamente de f y no de f¯. Escribimos a f
como u + iv, donde u = (u1 , u2 ), v = (v1 , v2 ) ∈ R2 ; además, siendo c1 = α + iβ y λ = a + ib, se tiene

x(t) = 2Re(c1 eλt f )


= 2Re[(α + iβ)eat (cos bt + i sen bt)(u + iv)]
= 2Re[(α + iβ)eat (cos bt · u − sen bt · v + i(u sen bt + v cos bt))]
= 2eat [αu cos bt − αv sen bt − βu sen bt − βv cos bt]
= 2eat [v(−α sen bt − β cos bt) + u(α cos bt − β sen bt)]
� �
� � −α sen bt − β cos bt
= 2eat v u
α cos bt − β sen bt
� �� �
� � cos bt − sen bt −β
= 2eat v u α, β ∈ R.
sen bt cos bt α
Por lo tanto,
� �� �
� � cos bt − sen bt −2β
(4.19) x(t) = eat v u .
sen bt cos bt 2α
Desde el punto de vista meramente analítico, esta expresión nos da, nuevamente, la descripción completa de las
soluciones de la ecuación ẋ = Ax. Sin embargo, un análisis más cuidadoso nos permite ver a esta expresión de las
soluciones como una transformación R-lineal que multiplica a las soluciones de una ecuación sencilla (ver figura
4.10). A saber, la expresión (4.19) indica que la solución x(t) se expresa como una combinación lineal de las
soluciones de la ecuación � � � �� �
ξ˙1 a −b ξ1
= ❀ ξ˙ = λξ.
ξ˙2 b a ξ2
Para demostrar esta afirmación, retomemos la ecuación
ẋ = Ax ,
y observemos que si λ y f son el valor y el vector propio, respectivamente, de AC , entonces
AC f = λf.
4.4. COMPLEJIFICACIÓN DE Rn . VALORES PROPIOS DE AC 63

Escribiendo f = u + iv y λ = a + ib se tiene que

AC (u + iv) = (a + ib)(u + iv)

AC u + iAC v = au − bv + i(bu + av)


Así,
Au = au − bv
Av = bu + av.

Observación 4.13. Como u y v están en R2 hemos escrito A y no AC .

Observación 4.14. Los vectores v y u son linealmente independientes en R2 . En efecto, si v = ku, k ∈ R,


entonces
f = u + iv = u + iku = (1 + ik)u ,

f = u − iv = (1 − ik)u.
Lo que implica que f = 1−ik
1+ik
f y ello contradice que f y f sean C-linealmente independientes en C2 .

Consideremos la base {v, u} de R2 y sea ξ = ξ1 v + ξ2 u.


Aξ = ξ1 Av + ξ2 Au
= ξ1 (bu + av) + ξ2 (au − bv)
= (ξ1 a − ξ2 b)v + (ξ1 b + ξ2 a)u.

Es decir, en esta base se tiene


Aξ = (ξ1 a − ξ2 b, ξ1 b + ξ2 a)
� �� �
a −b ξ1
= .
b a ξ2
� �
a −b
Por consiguiente, la matriz A tiene en la base {v, u} la forma . Lo anterior puede verse también
b a
� �
observando que si P = v u
P−1 APe1 = P−1 Av
= P−1 (bu + av)
= bP−1 u + aP−1 v
= be2 + ae1
� �
a
= ,
b

P−1 APe2 = P−1 Au


= P−1 (au − bv)
= aP−1 u − bP−1 v
= ae2 − be1
� �
−b
= .
a
� �
a −b
Así, P−1 AP = .
b a
Por consiguiente, si ξ = P−1 x, entonces la ecuación ẋ = Ax se escribe en coordenadas ξ como

ξ˙ = P−1 ẋ
= P−1 Ax
= P−1 APξ
� �
a −b
= ξ.
b a
En resumen, hemos probado el siguiente teorema.
64 4. LA EXPRESIÓN MÁS SENCILLA DE UN COMPORTAMIENTO BARROCO

Teorema 4.15. Sea ẋ = Ax, A = [aij ], aij ∈ R, x ∈ R2 , una ecuación diferencial lineal tal que el polinomio
característico asociado a la matriz A tiene raíces complejas λ = a + ib, λ̄ = a − ib, b �= 0. Entonces existe un
cambio lineal de coordenadas x = Pξ que transforma a las soluciones de la ecuación ξ˙ = Λξ,
� �
a −b
Λ= ,
b a

en las soluciones de la ecuación ẋ = Ax. La matriz P que define el cambio de coordenadas está definida como
P = [v, u], donde u y v son la parte real e imaginaria (respectivamente) del vector propio f = u + iv de la
complejificación AC de la matriz A (AC f = λf ) (ver figura 4.10).

Figura 4.10.

� � � �� �
ξ˙1 a −b ξ1
Observación 4.16. La ecuación = también puede complejificarse y diagonalizarse
ξ˙2 b a ξ2
(una vez complejificada). Se deja al lector hacerlo y calcular las correspondientes matrices P C y P.

A continuación veremos varios ejemplos que ayudan a poner en claro las construcciones que hemos realizado
hasta el momento.

Ejemplo 4.17.
� � � �� �
x˙1 −3 10 x1
= .
x˙2 −1 3 x2
Para resolver la ecuación seguiremos varias etapas:
(1) Obtención del polinomio característico y los valores propios. Sea p(λ) el polinomio característico asociado
a la ecuación,
� �
λ + 3 −10
p(λ) = det(A − λId) = det = 0,
1 λ−3

p(λ) = (λ + 3)(λ − 3) + 10 = λ2 + 1 = 0.
Entonces,
λ = ±i
son las raíces de λ.

También podría gustarte