Documentos de Académico
Documentos de Profesional
Documentos de Cultura
1 Introducción
Estas notas pretenden servir como guı́a de repaso de las herramientas matemáticas
más importantes que serán usadas a lo largo del curso. De ningún modo se re-
alizó un tratamiento exhaustivo de los temas. Sin embargo es de esperarse que
sirvan de guı́a de repaso para poder disfrutar más de la materia. Los temas
principales a desarrollar son:
• Algebra lineal
– Operaciones con matrices y vectores
– Matrices simétricas y unitarias
– Descomposición en autovalores y autovectores
• Análisis de Fourier
– Transformada de Fourier
– Teorema de la convolución
2 Algebra lineal
2.1 Matrices y vectores
Una matriz es una tabla rectangular de números. Las dimensiones de las ma-
trices se especifican por el número de filas y columnas de la tabla. Por ejemplo,
una matriz de 3 filas y 2 columnas, es decir una matriz de 3 × 2, se escribe del
modo siguiente
2 4
A= 1 −5 (1)
−9.3 4
Una matriz de una sola columna es llamada vector columna, o simplemente
vector. En forma general, si A es una matriz real de n filas y m columnas
decimos que A ∈ Rn×m . El elemento de la fila i y columna j es Aij .
Una matriz puede ser interpretada como una simple tabla o como una
transformación lineal entre dos espacios vectoriales. En ese sentido, la ma-
triz A ∈ Rn×m transforma Rm en Rn . Las propiedades de la transformación
1
dependen de la estructura particular de la matriz A. En particular, una matriz
cuadrada A ∈ Rn×n es una transformación dentro del mismo espacio Rn . Por
lo general es conveniente visualizar la acción de matriz A sobre los elementos
de Rn como una transformación del eje de coordenadas. Esta transformación
puede ser provocada por una rotación de los ejes, una dilatación de los ejes, una
simetrı́a con respecto a un punto, etc, dependiendo de la estructura particular
de la matriz A.
Pregunta para pensar: A qué se debe que podamos asociar una matriz
cuadrada con un cambio de coordenadas en Rn ?
• Matriz transpuesta
Si A ∈ Rn×m , la matriz transpuesta es At ∈ Rm×n tal que (At )ij = Aji .
Es decir, la matriz transpuesta intercambia filas por columnas.
• Adición de matrices
Sean las matrices A ∈ Rn×m y B ∈ Rn×m . Luego la matriz suma A + B ∈
Rn×m es tal que (A + B)ij = Aij + Bij . Es decir, los componentes de
la matriz suma se obtienen sumando los componentes individuales de las
matrices.
• Multiplicación de matrices
Sean A ∈ Rn×m y B ∈ Rm×p . Luego, la matriz multiplicación AB ∈ Rn×p
m
es tal que (AB)ij = k=1 Aik Bkj . Un caso particular y muy importante
de la multiplicación de dos matrices es cuando B tiene una sola columna,
es decir, es un vector.
• Multiplicación de una matriz por un escalar
Sea A ∈ Rn×m y α ∈ R un escalar. Luego, la matriz αA ∈ Rn×m es
tal que (αA)ij = αAij . Es decir, los componentes de la nueva matriz se
obtienen multiplicando los elementos individuales de la matriz original por
el escalar.
• Determinante de una matriz
Al decir de Gilbert Strang, ”es difı́cil saber qué decir acerca de los deter-
minantes. Hace setenta años parecı́an más importantes que las matrices
de las que provenı́an y la Historia de los determinantes de Muir abarca
cuatro tomos”!!!! Pero la cosas hoy han cambiado. Sin embargo det(A)
sigue siendo una cantidad para tener en cuenta. En particular por sus
propiedades relacionadas con la invertibilidad de matrices como veremos
en el punto siguiente. Las principales propiedades del determinante son:
– El determinante de la matriz identidad es 1, es decir det(I) = 1
– Si dos o más filas (columnas) de la matriz con linealmente dependi-
entes, entonces det(A) = 0
2
– Si por lo menos una fila (columna) de la matriz es nula, entonces
det(A) = 0
– Si la matriz es triangular, el determinante es el producto de los el-
ementos de la diagonal principal. En particular esto es cierto si la
matriz es diagonal.
– det(A) = det(At )
– det(AB) = det(A) det(B)
• Inversión de una matriz
Sea A ∈ Rn×n una matriz cuadrada e I la matriz identidad de n × n.
Luego, si existe una matriz cuadrada F ∈ Rn×n tal que AF = F A = I
se dice que A es invertible. La matriz F es la inversa de A, es decir,
F = A−1 . Si la matriz es invertible se dice que la matriz es no singular.
Las siguientes condiciones son equivalentes
1. A tiene una inversa
2. A es no singular
3. det(A) = 0
4. las columnas de A forman un conjunto de vectores linealmente inde-
pendientes
5. las filas de A forman un conjunto de vectores linealmente independi-
entes
• Norma de un vector
La norma de un vector x ∈ Rn es definida como la ”longitud” del vector
en Rn . Es decir,
n
√
x = x x =
t x2i (2)
i=1
Como ejercicio, demuestre las siguientes propiedades que satisfacen todas las
matrices reales.
1. doble transpuesta (At )t = A
2. commutatividad de la suma A + B = B + A
3. distributividad de la suma (A + B) + C = A + (B + C)
4. Sean α ∈ R y β ∈ R dos escalares. Luego
• (α + β)A = αA + βA
• (αβ)A = α(βA)
3
• α(A + B) = αA + αB
5. Sean A, B, y C tres matrices de dimensiones compatibles. Luego
• (AB)C = A(BC)
• (A + B)C = AC + BC
• A(B + C) = AB + AC
• α(AB) = (αA)B
6. transpuesta de un producto (AB)t = B t At
7. transpuesta de la suma (A + B)t = At + B t
8. inversa de un producto (AB)−1 = B −1 A−1
4
Pregunta para pensar: Por qué basta con analizar las imágenes de los
vectores correspondientes a los ejes para concluir que la transformación es una
rotación?
x2 y2
1 + 1 =1 (5)
4 9
5
que A define una elipsoide en el espacio. Es posible demostrar que los ejes de
dicha elipsoide están en la dirección de
√ los autovectores
√ de la matriz y que la
mitad de la√longitud de los ejes es 1/ λi . Ası́, 1/ λmin es la longitud del eje
mayor y 1/ λmax la del eje menor de la elipsoide.
Pregunta para pensar: Utilizando las propiedades de las matrices uni-
tarias y la ecuación (7) es posible despejar la matriz Λ como Λ = V t AV . Cómo
interpreta ahora la acción de la matriz V sobre la elipsoide definida por la matriz
A?
Para resumir lo visto en este punto, considere como ejemplo la siguiente
matriz simétrica
√
1 21 5 3
A= √ (9)
4 5 3 31
Verifique que A es una matriz definida positiva, que sus autovalores son
λ1 = 9 y λ2 = 4, y que los autovectores correspondientes son
√
1 − 3
v1 = √ v2 = (10)
3 1
3 Análisis de Fourier
Una de las herramientas más utilizadas en el análisis de sistemas dinámicos es
la transformada de Fourier. La caracterı́stica fundamental de dicha herramienta
es que permite descomponer cada señal real en una suma de señales senoidales.
6
Dicha descomposición es usualmente conocida como descomposición en frecuen-
cia. Más aún, dado que las senoides son ”independientes” entre sı́ (en un cierto
sentido), la descripción de la señal en el tiempo y la descripción de la señal en
la frecuencia son totalmente equivalentes. En esta sección resumimos los pasos
principales para obtener la descomposición en frecuencia de una señal y lista-
mos algunas de sus propiedades sin demostraciones. El lector interesado puede
referirse a la extensa literatura en el tema para ahondar la exposición.
• Desplazamiento en el tiempo
F (x(t − τ )) = e−ωτ X(ω) (17)
7
3.3 Teorema de convolución
Sean x1 (t) y x2 (t) dos señales reales, es decir, dos funciones del tiempo. Luego,
la convolución x1 ∗ x2 es otra señal real que se obtiene a través de la siguiente
integral de convolución:
+∞
x1 (t) ∗ x2 (t) = x1 (τ )x2 (t − τ )dτ (18)
−∞
Al estudiar señales y sistemas esta integral cobra suma importancia. Por el mo-
mento, sólo nos interesa recordar la transformada de Fourier de dicha integral.
Si X1 (ω) = F (x1 (t)) y X2 (ω) = F (x2 (t)), luego
Es decir que al convolucionar dos señales en el dominio del tiempo, sus respuestas
en frecuencia se multiplican en el dominio de la frecuencia.
Pregunta para pensar: Si X(ω) = 0 para ω ∈ (ω1 , ω2 ), luego, la con-
volución de x(t) con cualquier señal real va a conservar la misma propiedad, es
decir, su transformada de Fourier se anula entre ω1 y ω2 . Puede usted justificar
esta frase?