Está en la página 1de 8

Temas de repaso previo a Procesos Estocásticos

1 Introducción
Estas notas pretenden servir como guı́a de repaso de las herramientas matemáticas
más importantes que serán usadas a lo largo del curso. De ningún modo se re-
alizó un tratamiento exhaustivo de los temas. Sin embargo es de esperarse que
sirvan de guı́a de repaso para poder disfrutar más de la materia. Los temas
principales a desarrollar son:

• Algebra lineal
– Operaciones con matrices y vectores
– Matrices simétricas y unitarias
– Descomposición en autovalores y autovectores
• Análisis de Fourier
– Transformada de Fourier
– Teorema de la convolución

2 Algebra lineal
2.1 Matrices y vectores
Una matriz es una tabla rectangular de números. Las dimensiones de las ma-
trices se especifican por el número de filas y columnas de la tabla. Por ejemplo,
una matriz de 3 filas y 2 columnas, es decir una matriz de 3 × 2, se escribe del
modo siguiente  
2 4
A= 1 −5 (1)
−9.3 4
Una matriz de una sola columna es llamada vector columna, o simplemente
vector. En forma general, si A es una matriz real de n filas y m columnas
decimos que A ∈ Rn×m . El elemento de la fila i y columna j es Aij .
Una matriz puede ser interpretada como una simple tabla o como una
transformación lineal entre dos espacios vectoriales. En ese sentido, la ma-
triz A ∈ Rn×m transforma Rm en Rn . Las propiedades de la transformación

1
dependen de la estructura particular de la matriz A. En particular, una matriz
cuadrada A ∈ Rn×n es una transformación dentro del mismo espacio Rn . Por
lo general es conveniente visualizar la acción de matriz A sobre los elementos
de Rn como una transformación del eje de coordenadas. Esta transformación
puede ser provocada por una rotación de los ejes, una dilatación de los ejes, una
simetrı́a con respecto a un punto, etc, dependiendo de la estructura particular
de la matriz A.
Pregunta para pensar: A qué se debe que podamos asociar una matriz
cuadrada con un cambio de coordenadas en Rn ?

2.1.1 Operaciones con matrices


Las operaciones más comunes con matrices son las siguientes:

• Matriz transpuesta
Si A ∈ Rn×m , la matriz transpuesta es At ∈ Rm×n tal que (At )ij = Aji .
Es decir, la matriz transpuesta intercambia filas por columnas.
• Adición de matrices
Sean las matrices A ∈ Rn×m y B ∈ Rn×m . Luego la matriz suma A + B ∈
Rn×m es tal que (A + B)ij = Aij + Bij . Es decir, los componentes de
la matriz suma se obtienen sumando los componentes individuales de las
matrices.
• Multiplicación de matrices
Sean A ∈ Rn×m y B  ∈ Rm×p . Luego, la matriz multiplicación AB ∈ Rn×p
m
es tal que (AB)ij = k=1 Aik Bkj . Un caso particular y muy importante
de la multiplicación de dos matrices es cuando B tiene una sola columna,
es decir, es un vector.
• Multiplicación de una matriz por un escalar
Sea A ∈ Rn×m y α ∈ R un escalar. Luego, la matriz αA ∈ Rn×m es
tal que (αA)ij = αAij . Es decir, los componentes de la nueva matriz se
obtienen multiplicando los elementos individuales de la matriz original por
el escalar.
• Determinante de una matriz
Al decir de Gilbert Strang, ”es difı́cil saber qué decir acerca de los deter-
minantes. Hace setenta años parecı́an más importantes que las matrices
de las que provenı́an y la Historia de los determinantes de Muir abarca
cuatro tomos”!!!! Pero la cosas hoy han cambiado. Sin embargo det(A)
sigue siendo una cantidad para tener en cuenta. En particular por sus
propiedades relacionadas con la invertibilidad de matrices como veremos
en el punto siguiente. Las principales propiedades del determinante son:
– El determinante de la matriz identidad es 1, es decir det(I) = 1
– Si dos o más filas (columnas) de la matriz con linealmente dependi-
entes, entonces det(A) = 0

2
– Si por lo menos una fila (columna) de la matriz es nula, entonces
det(A) = 0
– Si la matriz es triangular, el determinante es el producto de los el-
ementos de la diagonal principal. En particular esto es cierto si la
matriz es diagonal.
– det(A) = det(At )
– det(AB) = det(A) det(B)
• Inversión de una matriz
Sea A ∈ Rn×n una matriz cuadrada e I la matriz identidad de n × n.
Luego, si existe una matriz cuadrada F ∈ Rn×n tal que AF = F A = I
se dice que A es invertible. La matriz F es la inversa de A, es decir,
F = A−1 . Si la matriz es invertible se dice que la matriz es no singular.
Las siguientes condiciones son equivalentes
1. A tiene una inversa
2. A es no singular
3. det(A) = 0
4. las columnas de A forman un conjunto de vectores linealmente inde-
pendientes
5. las filas de A forman un conjunto de vectores linealmente independi-
entes
• Norma de un vector
La norma de un vector x ∈ Rn es definida como la ”longitud” del vector
en Rn . Es decir, 
 n
√ 
x = x x = 
t x2i (2)
i=1

En esta ecuación xt x representa el producto escalar y xi , i = 1 · · · n son


las n componentes del vector.

Como ejercicio, demuestre las siguientes propiedades que satisfacen todas las
matrices reales.
1. doble transpuesta (At )t = A
2. commutatividad de la suma A + B = B + A
3. distributividad de la suma (A + B) + C = A + (B + C)
4. Sean α ∈ R y β ∈ R dos escalares. Luego
• (α + β)A = αA + βA
• (αβ)A = α(βA)

3
• α(A + B) = αA + αB
5. Sean A, B, y C tres matrices de dimensiones compatibles. Luego
• (AB)C = A(BC)
• (A + B)C = AC + BC
• A(B + C) = AB + AC
• α(AB) = (αA)B
6. transpuesta de un producto (AB)t = B t At
7. transpuesta de la suma (A + B)t = At + B t
8. inversa de un producto (AB)−1 = B −1 A−1

2.2 Matrices ”con nombre”


2.2.1 Matrices simétricas
Una matriz cuadrada A ∈ Rn×n es simétrica si y sólo si A = At . Es decir,
una matriz simétrica no varı́a al intercambiar sus filas por sus columnas. Las
matrices simétricas son muy frecuentes en el álgebra lineal y tienen propiedades
particulares que veremos más adelante.

2.2.2 Matrices unitarias


Una matriz cuadrada A ∈ Rn×n es unitaria si y sólo si existe A−1 y At = A−1 .
Desde un punto de vista práctico, esta propiedad es muy útil ya que la operación
de transposición es mucho más sencilla que la de inversión de una matriz. Es
posible demostrar que las columnas (filas) de una matriz unitaria son de norma
unitaria y unitarias entre sı́. Igualmente, el determinante de una matriz unitaria
es 1. Una propiedad importante de estas matrices es que no varı́an la norma,
es decir, Ax = x
Una matriz unitaria corresponde a una rotación del eje de coordenadas.
Por ejemplo, la siguiente matriz A es una matriz unitaria que rota el eje de
coordenadas de R2 en un ángulo de π4


2 1 1
A= (3)
2 −1 1

El lector puede verificar que A es efectivamente unitaria, es decir, AAt =


t
t
A A = I. Ahora bien, el vector 1 0 que corresponde al eje horizontal es
√ t
transformado en el vector 22 1 −1 . Este segundo vector es de norma uni-
taria y corresponde a una dirección rotada 45 grados en el sentido horario con
respecto a la horizontal. Igualmente, el eje vertical que corresponde al vector
t √ t
0 1 se transforma en el vector 22 1 1 . Nuevamente, este es un vector
rotado 45 grados en sentido horario con respecto al eje vertical original.

4
Pregunta para pensar: Por qué basta con analizar las imágenes de los
vectores correspondientes a los ejes para concluir que la transformación es una
rotación?

2.2.3 Matrices definidas positivas


Una matriz cuadrada simétrica A ∈ Rn×n es definida positiva si y sólo si para
todo vector x ∈ Rn tal que x = 0, xt Ax > 0. Cuando éste es el caso decimos
que A > 0. Si la matriz A es definida positiva, luego el conjunto de vectores
que satisfacen xt Ax = 1 definen una elipsoide.
Verifique que la matriz cuadrada


4 0
A= (4)
0 9

es definida positiva y define la siguiente elipse en R2

x2 y2
1 + 1 =1 (5)
4 9

2.3 Autovalores y autovectores de una matriz simétrica


Primero introducimos un poco de notación para facilitar el desarrollo. Uti-
lizamos la notación A = diag(α1 , · · · , αn ) para representar una matriz cuadrada
diagonal en Rn×n cuyos elementos diagonales son los escalares α1 , · · · , αn . Es
decir,  
λ1 0 · · · 0
 0 λ2 0 · · ·
 
A= . ..  (6)
 .. · · · . 
0 0 ··· λn
Ahora, sea A ∈ Rn×n una matriz cuadrada real y simétrica. Luego, existen
una matriz diagonal Λ = diag(λ1 , · · · , λn ) y una matriz unitaria V , V V t = I
tal que
A = V ΛV t (7)
Las columnas de la matriz V son los autovectores de la matriz A; los
números λi , i = 1 · · · n son los autovalores de la matriz A. Por conveniencia,
los autovalores son listados en orden decreciente

λmax = λ1 ≥ λ2 ≥ · · · ≥ λn = λmin (8)

Es interesante analizar la descomposición de la ecuación (7). La multipli-


cación de las tres matrices puede ser visualizada como la composición de tres
transformaciones lineales en Rn . La primera está dada por V t que representa
una cierta rotación. Luego, la matriz diagonal representa una dilatación gener-
alizada del eje de coordenadas. Finalmente, volvemos a rotar los ejes en sentido
inverso con V . Ahora bien, supongamos que A > 0. En este caso hemos dicho

5
que A define una elipsoide en el espacio. Es posible demostrar que los ejes de
dicha elipsoide están en la dirección de
√ los autovectores
√ de la matriz y que la
mitad de la√longitud de los ejes es 1/ λi . Ası́, 1/ λmin es la longitud del eje
mayor y 1/ λmax la del eje menor de la elipsoide.
Pregunta para pensar: Utilizando las propiedades de las matrices uni-
tarias y la ecuación (7) es posible despejar la matriz Λ como Λ = V t AV . Cómo
interpreta ahora la acción de la matriz V sobre la elipsoide definida por la matriz
A?
Para resumir lo visto en este punto, considere como ejemplo la siguiente
matriz simétrica

1 21 5 3
A= √ (9)
4 5 3 31
Verifique que A es una matriz definida positiva, que sus autovalores son
λ1 = 9 y λ2 = 4, y que los autovectores correspondientes son



1 − 3
v1 = √ v2 = (10)
3 1

Ahora bien, el conjunto de vectores v ∈ R2 que verifican v  Av = 1 es una


elipse rotada 60 grados con respecto a la horizontal. Es sencillo constatar que el
eje mayor de la elipse está alineado con v2 y que el eje menor está alineado con
v1 . Igualmente, vemos que la longitud de la mitad de los ejes coincide con 1/2
y 1/3 que son exactamente la inversa de las raices cuadradas de los autovalores
de la matriz.

2.3.1 Propiedades de la descomposición en autovalores


n
• det(A) = i=1 λi
Es posible demostrar esta igualdad a partir de las propiedades de los de-
terminantes de las matrices unitarias y las matrices diagonales.
• A es invertible si y sólo si λi = 0 i = 1 · · · n.
Esta propiedad no es más que un corolario de la propiedad anterior.
• Los siguientes cocientes proponen una interpretación alternativa para el
máximo y el mı́nimo autovalor que resulta muy importantes al momento
de trabajar con problemas de optimización como se verá a lo largo del
curso.
xt Ax xt Ax
λmax = max t λmin = min t (11)
x=0 x x x=0 x x

3 Análisis de Fourier
Una de las herramientas más utilizadas en el análisis de sistemas dinámicos es
la transformada de Fourier. La caracterı́stica fundamental de dicha herramienta
es que permite descomponer cada señal real en una suma de señales senoidales.

6
Dicha descomposición es usualmente conocida como descomposición en frecuen-
cia. Más aún, dado que las senoides son ”independientes” entre sı́ (en un cierto
sentido), la descripción de la señal en el tiempo y la descripción de la señal en
la frecuencia son totalmente equivalentes. En esta sección resumimos los pasos
principales para obtener la descomposición en frecuencia de una señal y lista-
mos algunas de sus propiedades sin demostraciones. El lector interesado puede
referirse a la extensa literatura en el tema para ahondar la exposición.

3.1 Transformada de Fourier


Sea x(t) una señal real de tiempo continuo. Es decir, en términos matemáticos,
x(t) es una función de R en R cuyo dominio es denominado tiempo. Definimos
a la transformada de Fourier de la señal x(t) del siguiente modo
 +∞
F (x(t)) = X(ω) = x(t)e−jωt dt = |X(ω)|eΦ(ω) (12)
−∞
−jωt
donde e es la exponencial compleja

e−jωt = cos(ωt) +  sin(ωt) , = −1 y ω∈R (13)
Es claro que X(ω) es una magnitud compleja descripta por un par de
números: su amplitud (|X(ω)|) y su fase (Φ(ω)). Desde un punto de vista
formal, la transformada de Fourier es una función de rango complejo cuyo do-
minio real es denominado frecuencia. Comunmente, X(ω), −∞ < ω < +∞,
es conocida como la descomposición en frecuencia de x(t).
Dado que la transformada de Fourier es única, es posible obtener la señal
x(t) a partir de X(ω).
 +∞
F −1 (X(ω)) = x(t) = X(ω)ejωt dw (14)
−∞

En este contexto, x(t) es conocida como la transformada inversa de Fourier.

3.2 Algunas propiedades del par transformado (x(t), X(ω))


En esta sección enumeraremos una serie de propiedades sin demostración. De-
jamos como ejercicio para el lector demostrar estas propiedades utilizando las
definiciones (12) y (14).
• La transformada de Fourier es una operación lineal. Sean (x1 (t), X1 (ω))
y (x2 (t), X2 (ω)) dos pares transformados, α1 ∈ R y α2 ∈ R dos escalares.
Luego,
F (α1 x1 (t) + α2 x2 (t)) = α1 X1 (ω) + α2 X2 (ω) (15)
• Dado que x(t) ∈ R, luego X(ω) = X ∗ (−ω) es decir,
|X(ω)| = |X(−ω)| y Φ(ω) = −Φ(−ω) (16)

• Desplazamiento en el tiempo
F (x(t − τ )) = e−ωτ X(ω) (17)

7
3.3 Teorema de convolución
Sean x1 (t) y x2 (t) dos señales reales, es decir, dos funciones del tiempo. Luego,
la convolución x1 ∗ x2 es otra señal real que se obtiene a través de la siguiente
integral de convolución:
 +∞
x1 (t) ∗ x2 (t) = x1 (τ )x2 (t − τ )dτ (18)
−∞

Al estudiar señales y sistemas esta integral cobra suma importancia. Por el mo-
mento, sólo nos interesa recordar la transformada de Fourier de dicha integral.
Si X1 (ω) = F (x1 (t)) y X2 (ω) = F (x2 (t)), luego

F (x1 ∗ x2 ) = X1 (ω)X2 (ω) (19)

Es decir que al convolucionar dos señales en el dominio del tiempo, sus respuestas
en frecuencia se multiplican en el dominio de la frecuencia.
Pregunta para pensar: Si X(ω) = 0 para ω ∈ (ω1 , ω2 ), luego, la con-
volución de x(t) con cualquier señal real va a conservar la misma propiedad, es
decir, su transformada de Fourier se anula entre ω1 y ω2 . Puede usted justificar
esta frase?

También podría gustarte