Está en la página 1de 26

Capítulo 1

ALGEBRA LINEAL Y MATRICIAL

1.1 Algebra lineal


Las matrices son ampliamente usadas en muchas ramas de la ingeniería, empezando
desde el análisis de esfuerzos, a circuitos eléctricos, a ingeniería económica. Un
curriculum de ingeniería sin una introducción a la teoría matricial es difícil de concebir.
Sólo haremos un breve resumen acerca de la teoría matricial necesaria para entender los
conceptos que en el curso se irán introduciendo.

1.1.1 Ecuaciones lineales y notación matricial

Considerar un sistema de ecuaciones lineales:

y1 = a 11 x 1 +  + a 1m x m
y 2 = a 21 x 1 +  + a 2 m x m (1.1)
y n = a n1 x 1 +  + a nm x m

Para reducir su escritura, podemos expresarlo como:

 y1   a 11  a 1m   x 1 
   =        (1.2)
    
 y n  a n1  a nm   x m 

Los arreglos de números encerrados en [ ] son denominados matrices. En general, un


arreglo rectangular que tiene m columnas y n filas de la forma:

 a 11  a 1m 
A =      (1.3)
a n1  a nm 

Se denomina matriz nxm. Una simple letra A es usada para designar una matriz
completa nxm. Las matrices en (1.2) que tienen sólo una columna, denominadas:

 y1   x1 
 y    (1.4)
   
 y n   x m 
son llamados vectores. Los vectores tridimensionales de la física clásica son casos
especiales de los vectores matemáticos generales. Cuando nos referimos a vectores
 
físicos tales como fuerza o velocidad se usa una flecha sobre la letra, p.e.: f , v .
Cualquier resultado que se aplique a una matriz nxm también se aplica a vectores. En
algunos casos los vectores son denotados por letras minúsculas y las matrices con
letras mayúsculas.
Luego el sistema de ecuaciones (1.1) puede escribirse como:

y = A.x (1.5)

Una matriz 1x1 se denomina escalar.


Para ahorrar escritura, la matriz A algunas veces es presentada como:

A = [aij]

donde aij es un elemento típico de A.

1.1.2 Operaciones con matrices

a) Adición y sustracción: Las matrices pueden ser combinadas usando operaciones


de adición, sustracción y multiplicación, en muchos casos de la misma manera que
si fueran escalares.

Dados: y = Ax, z = Bx (1.6)


Entonces: y + z = (A + B) x = Cx (1.7)
Donde:

 a 11 + b11  a 1n + b1n 
C = A + B =     
 (1.8)
a m1 + b m1  a mn + b mn 

Siendo: A= [aij], B= [bij] matrices de las mismas dimensiones: mxn. Se cumple


también que:

A+B=B+A (1.9)

La sustracción de dos matrices se define como:

 a 11 − b11  a 1n − b1n 
C = A − B =     
 (1.10)
a m1 − b m1  a mn − b mn 

b) Multiplicación:

Sea: y = Ax, x= Bw
Entonces: y = A.B.w
 (a11b11 +  + a1n bn1 )  (a11b1n +  + a1n bnn ) 
Donde: A.B = C =
     (1.11)
 
(a m1b11 +  + a mn bn1 )  (am1b1n +  + amnbnn )
Cada elemento
n
C ij = a i1 , a i 2 ,, a in . b ij =  a ik b kj
k =1

fila i 
b nj

El producto C = AB de dos matrices A y B es significativo cuando el número de


filas de B es igual al número de columnas de A. Las matrices que tienen esta
propiedad se denominan conformables, es posible que el producto AB sea definido
y que el producto BA no lo sea debido a que el número de columnas de B puede
que no sea igual al número de filas de A.
No necesariamente AB = BA (si ambos existen)

Ejemplo 1.1: A = [a1, ..., an] vector fila


 b1 
B =    vector columna
b n 

AB = a 1, , a n   b1  =a 1b1 +  +a n b n escalar
(1.12) 
 
b n 

 b1   b1a1  b1a n 
y BA =  . a 1, , a n  = 
      es una matriz nxm
  
b n  b n a1  b n a n 

Claramente AB  BA, cuando AB = BA se dice que ambas matrices son


conmutables.
Un escalar es conformable y conmutable con cualquier matriz.
Para definir la operación de división con matrices hace falta definir el concepto de
matriz inversa.

1.1.3 Determinantes y matriz inversa

Un sistema de n ecuaciones lineales en n variables desconocidas x1, ..., xn:


y1 = a 11 x 1 +  + a 1n x n
 (1.13)
y n = a n1 x 1 +  + a nn x n

puede o no puede tener una solución única. Es bien conocido que existe una única
solución si y sólo si el determinante de A es no nulo:

a 11  a 1n
A =    0
a n1  a nn

La definición básica del determinante de un arreglo cuadrado o matriz es la suma de


todos los posibles productos de n elementos, cada uno tomado de diferentes
columnas y con el signo del producto tomado como (+) si las columnas de cuyos
elementos son tomados están en el orden “lexográfico” y como (-) si no lo son. (En
orden “lexográfico” significa que las columnas son tomadas de derecha a izquierda sin
saltarse para atrás).

Una definición recursiva del determinante de una matriz A es:

A = a11 D11 − a12 D12 + a13 D13 −  + (− 1)n+1 a1n D1n (1.14)

donde Dij es el determinante del sub_arreglo (n-1)x(n-1) formado de A borrando la i-


ésima fila y la j-ésima columna de la matriz original.

Si A 0 y, por tanto, (1.13) tiene una solución única; esa solución puede escribirse
como:

x1 = b11 y1 +  + b1n y n
 (1.15)
xn = bn1 y1 +  + bnn y n

En notación matricial (1.13) y (1.15) son:

y = A.x (1.16)
x = B.y (1.17)

Sustituyendo (1.17) en (1.16) se tiene:

y = ABy = Iy (1.18)

Lo cual puede ser escrito en detalle como:


 y1  1 0  0  y1 
 y  0 1  0  y 2 
 2 =  (1.19)
         
    
 y n  0 0  1  y n 

y por tanto AB = I (1.20)


Luego: B = A-1 y A = B-1

Si el determinante de una matriz es nulo, la matriz no tiene inversa y se llama singular:


si el determinante de la matriz es no nula y existe su inversa la matriz es denominada
no singular.
Para desarrollos teóricos, la inversa de una matriz puede ser expresada por la fórmula
usualmente llamada regla de Cramer.

adj(A)
A −1 = (1.21)
A

Donde la matriz adj (A) es llamada la matriz adjunta. El elemento (i,j) de la matriz es
el cofactor de aji. El cofactor; o “menor signado” es el determinante de la submatriz
obtenida borrando la fila y columna que contienen aji y que tiene signo (+) si i + j es par
y un signo (-) si i + j es impar. Por ejemplo, los determinantes y matrices adjuntas
para matrices 2x2 y 3x3 son:

n=2

a a 12  a − a 12 
A =  11 adj A =  22
a 22  a 11 
(1.22)
a 21 − a 21

A = a 11a 22 + a 21a 22

n=3
 a 22 a 23 a12 a13 a12 a13 
 − 
 a32 a33 a32 a33 a 22 a 23 
 
 
 a11 a12 a13  − a 21 a 23 a11 a13 a11 a13 

A = a 21 a 22 a 23  adj A =  a31 a33 a31 a33 a 21 a 23 
 
 a31 a32 a33   
 a 21 a 22 a11 a12 a11 a12 
 − 
 a31 a32 a31 a32 a 21 a 22 
 
 
a 22 a 23 a a 23 a a 22
A = a 11 − a 12 21 + a 13 21 (1.23)
a 32 a 33 a 31 a 33 a 31 a 32

Puede mostrarse que el determinante del producto de dos matrices nxn es el producto
de los determinantes:

AB= A.B

1.1.4 Matrices particionadas

A menudo se trabaja con sistemas lineales con ecuaciones de tipo:

y1 = A 11 x 1 + A 12 x 2 +  + A1m x m
y 2 = A 21 x 1 + A 22 x 2 +  + A 2 m x m
(1.24)

y n = A n1 x 1 + A n 2 x 2 +  + A nm x m

En la cual los xis son vectores y las Aijs son matrices. Se puede escribir:

 y1   A11 A12  A1m   x 1 


 y  A A 22  A 2 m   x 2 
 2  =  21 (1.25)
        
    
 y n   A n1 A n2  A nm   x m 

Los vectores y1, ..., yn, x1, ..., xn son sub-vectores de vectores de mayor dimensión:

 y1   x1 
y  x 
y =  2 x= 2 (1.26)
    
   
y n  x m 

y las matrices Aij son submatrices de una matriz mayor:

 A 11  A 1m 
A =      (1.27)
A n1  A nm 

Los vectores x e y en (1.26) y la matriz A en (1.24) son conocidos como matrices


particionadas. Las líneas cortadas son usadas para mostrar la partición y son
particularmente útiles cuando los elementos de las submatrices son explícitamente
mostradas por ejemplo:
 y1   a11 a12 a13   x1 
 y  a a 22 a 23   x 2 
 2  =  21  
 y3   a31 a32 a33   x3 
    
 y 4  a 41 a 42 a 43   

Los vectores y las matrices pueden ser particionadas en tantas subdivisiones como
son convenientes para una aplicación dada. La única regla que debe ser observada
es que las submatrices deben ser de la dimensión apropiada. La submatriz Aij en
(1.27) debe tener tantas sub-columnas como el sub-vector correspondientes xj y
tantas filas como el sub-vector yj.
Las matrices que son apropiadamente particionadas pueden ser añadidas, sustraídas
y multiplicadas. Por ejemplo:

 A11 A12   B11 B12   A11B11 + A12 B 21 A11B12 + A12 B 22 


A =
A 22  B 21 B 22  A 21B11 + A 22 B 21 A 21B12 + A 22 B 22 
(1.28)
 21

es válida si la partición de A y B es tal que todas las sumas y productos de matrices


del lado derecho son matrices de dimensiones conformables.

La partición puede ser algunas veces útil para obtener inversas, considerando el
sistema:

y1 = Ax1 + Bx2 (1.29)


y2 = Cx1 + Dx2 (1.30)

 y1  A B   x 1 
Esto es;  y  =  C D  x 
 2   2 

A B 
La inversa de   puede ser expresada en términos de las inversas de las
 C D
submatrices. Suponer que la submatriz A tiene una inversa. Entonces se puede
resolver (1.29) para x1:

x1 = A −1 y1 − A −1Bx 2 (1.31)

Sustituyendo en (1.30) obtenemos:

(
y 2 = CA −1 y1 − CA −1B − D x 2 ) (1.32)

de donde:

(
x 2 = CA −1 B − D ) (CA
−1 −1
y1 − y 2 ) (1.33)
el cual es sustituido en (1.31) llevando a:


x 1 = A −1 − A −1 B CA −1 B − D ( ) −1

CA −1 y1 + A −1 B CA −1 − B − D( )
−1
y2 (1.34)

La solución de (1.29) y (1.30) han podido ser obtenidas, y por tanto tenemos la inversa
de M:

−1
−1 A B 
M = 
 C D
(1.35)
=
(
A −1 − A −1 B CA −1 B − D −1 CA −1 ) −1
A B CA B − D ( −1
)
−1


 ( −1
CA −1 − B − D CA −1 ) (
− CA −1 B − D
−1
) 

Si D tiene inversa, entonces el mismo procedimiento puede ser usado para obtener
otra expresión para M-1:

−1
−1 A B 
M = 
 C D
(1.36)
(
− BD −1C − A −1 CA −1
=  −1
) (BD −1 −1
C − A BD −1 

)
(
−1
 D C BD C − A
−1
) ( −1
− D −1 − D −1C BD −1C − A BD −1  )
Cada sub-matriz del lado derecho de (1.36) debe ser igual a las sub-matrices
correspondientes de (1.35):

(
− BD −1C − A )−1
(
= A −1 − A −1 B CA −1 B − D ) −1
CA −1

Esta es una versión del lema de inversión de matrices a menudo atribuido a Schur. La
forma más familiar es reemplazar D por –D.

(A + BD C) −1 −1
(
= A −1 − A −1 B CA −1 B − D )−1
CA −1 (1.37)

1. 1.5 Álgebra de matrices:

(A + B) + C = A + (B + C)
(AB)C = A(BC)
C (A + B) = CA+CB
k(A + B) = kA + kB
A(k1 + k2) = Ak1 + Ak2
kA = Ak

1.1.6 Transposición de operaciones relacionadas: tipos de matrices especiales.

Si las filas de una matriz son las columnas de otras, las matrices son llamadas las
transpuestas de las otras:

 a11 a12  a1m   a11 a 21  a n1 


a a 22  a 2m  a a 22  a n 2 
A =  21 A' =  12 (1.38)
           
   
 a n1 an2  a nm  a1m a 2m  a nm 

En (1.38) A y A' son transpuestas una de la otra. El símbolo ' es usado para denotar
transpuesta, aunque también se suele usar el superíndice T, es decir, AT.

Se cumplen las siguientes propiedades:

(A')' = A
(AB)' = B'A' (1.39)
A=A' (si A es matriz cuadrada)

Una matriz cuadrada cuyas filas y columnas son las mismas.

 a 11 a 12  a 1n 
a a 22  a 2 n 
A =  21 = A' (1.40)
     
 
a 1n a 2n  a nn 

Se llama simétrica. Una matriz cuyas columnas son los negativos de sus filas se llama
sesgo-simétrica (slaw-symetric). Una matriz sesgo-simétrica tiene la forma general.

 0 a 12  a 1n 
− a 0  a 2 n 
S =  12 = −S' (1.41)
     
 
− a 1n − a 2n  0 
Estas matrices se encuentran en el estudio de la dinámica de cierto tipo de sistemas
conservativos pero no se encuentran tan a menudo como las matrices simétricas.
Una matriz cuya transpuesta es igual a su inversa se llama ortogonal.

A' = A-1 (1.42)

De (1.42)

A' A = AA' = I (1.43)

Esto significa que la suma de los productos de los elementos:

 1 para j = k
 a ij a ik = jk =  (1.44)
i =1 0 para j  k

Cuando los elementos de una matriz son números complejos, es más útil trabajar con la
transpuesta del complejo conjugado de la matriz la cual es escrita como AH (algunos
textos la indican con A*)

 * *

 a*11  a n1 
 a 11 a 12  a 1m 
  a n2 
*

A =       , A H =  a12  (1.45)
a n1 a n2  a nm      
 * *

a1m  a nm 

AH también suele denominarse adjunta de A, aunque no tiene relación con la que usamos
para hallar la inversa de A. Una matriz que iguala a su adjunta (AH = A) se llama
hermitiana y cuando AH = -A se llama sesgo-hermitiana.
Si AH = A-1 o AAH = AHA = I entonces es unitaria.

Otro tipo de matrices:

Una matriz

 a 11 0  0 
a a 22  0 
A =  12 (1.46)
     
 
a 1n a 2n  a nn 

Es matriz triangular inferior y su transpuesta.

a 11 a 12  a 1n 
A' =  0 a 22  a 2 n  (1.47)
 0 0  a nn 
Es llamada triangular superior. El determinante de una matriz triangular (superior o
inferior) es el producto de los elementos diagonales.
Una matriz cuyos únicos elementos no nulos están en la diagonal principal.

 1 0  0
0 2  0 
= = diag 1 ,  2 , ,  n  (1.48)
    
 
0 0  n 

Se llama matriz diagonal.


La transpuesta de operaciones mezcladas con el producto y suma de matrices también da
resultado importantes:

(A + B)' = A' + B'


(ABC)' = C'B'A' (1.49)

Propiedades de Matrices Cuadradas

Cuando A es una matriz cuadrada nxn hay un numero de definiciones importantes. La


traza de A está definida por la suma de sus elementos diagonales.

n
Trace (A) =  a ii (1.50)
i =1

Se cumple que:

trace (A + B) = traceA + traceB


trace (kA) = ktrace (A)
trace (AB) = trace (BA) para Amxn y Bnxm
trace (A') = traceA

También se cumple que el determinante de A está definido para la siguiente expresión:

 a 11 a 12  a 1n 
a a 22  a 2 n 
det  21 =  (− 1) a 1 j1a 2 j2  a n jn
k
(1.51)
     
 
 a n1 a n2  a nn 

Donde la sumatoria es sobre todas las permutaciones de valores j1, j2, ..., jn tales que j1j2
... jn y k iguala el número de inversiones que se requiere para poner j1, j2, ..., jn en el
orden 1, 2, 3, ..., n.
Por ejemplo:

a a 12 
= (− 1) a 11a 22 + (− 1) a 12 a 21
0 1
det  11  (1.52)
a 21 a 22 
Y:
a 11 a 12 a 13 
= (− 1) a 11a 22 a 33 + (− 1) a 11a 23 a 32 + (− 1) a 12 a 21a 33
0 1 1
det a 21 a 22 a 23  (1.53)
+ (− 1) a 12 a 23 a 31 + (− 1) a 13 a 21a 32 + (− 1) a 13 a 22 a 31
2 2 1
a 31 a 32 a 33 

El cálculo del determinante de A se puede ver que toma n! multiplicaciones e igual


número de adiciones. Por tanto, es un cálculo costoso para grandes A. Existen otras
propiedades del determinante que facilitan su cálculo.

1. Si dos filas (o columnas) en una matriz, son intercambiadas, el determinante cambia


su signo.
2. El valor del determinante es inalterado si cualquier múltiplo escalar de cualquier fila (o
columna) es añadido a otra fila (o columna).
3. Si cualquier fila (o columna) de una matriz es idénticamente cero, el valor del
determinante es cero.
4. Si cualquier fila (o columna) de una matriz es linealmente dependiente de otras filas (o
columnas) el determinante es cero.
5. El determinante de una matriz triangular superior (o inferior) es el producto de todos
los elementos sobre la diagonal.
6. La multiplicación de cualquier fila (o columna) de una matriz por un escalar no nulo
multiplica el determinante por k.
7. det (A) = det (A1)
8. det (AB) = det (A) det (B) = det (BA) para a y b cuadradas.

1.2 Espacio vectorial


Definición 1.1: Un espacio vectorial V en el campo de los números reales o complejos es
un conjunto de elementos llamados vectores, para el cual la suma de vectores y la
multiplicación escalar son operaciones definidas. Al respecto existen tres propiedades
fundamentales (necesarias):

1. Conclusión sobre la adición: si v1  V y v2  V, entonces v1+ v2 debe también ser un


elemento de V1.
2. Conclusión sobre la multiplicación escalar: si v  V y si  es un escalar del campo
definido (un escalar real para nuestros propósitos), entonces el producto escalar  v
es también un elemento del V.
3. Existencia del vector nulo: debe existir un o  V tal que o + v = v para todo v  V.

Otras propiedades:

- Asociativa: (v1 + v2) + v3 = v1 + (v2 + v3)


(v) = ()v

- Conmutativa: v1 + v2 = v2 + v1

- Distributiva: (v1 + v2) = v1 + v2


( + )v = v +  v

Finalmente para cada v  V debe existir una inversa aditiva tal que v + (-v) = 0
Ejemplo 1.2:

El espacio de funciones continuas en el intervalo [0,1], y cuyos valores en cada extremo


son cero, es un vector de espacio lineal. Dados dos vectores f1 (.) y f2 (.) (funciones
continuas en este caso) de ese espacio, se puede ver que su suma aun es una función
continua con condiciones extremas nulas y cualquier múltiplo escalar de una función de
este espacio es todavía una función continua con condiciones extremas nulas. Por tanto
los requisitos de espacio vectorial son conseguidos en este caso.
Con tales espacios vectoriales de funciones, en el cual el espacio vectorial es realmente
de dimensión infinita, los conceptos de teoría de espacio vectorial lineal pueden estar
involucrados.
Normalmente un vector es un arreglo n de la forma:

 v1 
v 
v =  2

 
v n 

El espacio de todos los arreglos n satisfacen los requerimientos de espacio vectorial.


Esto es, la adición y multiplicación escalar de arreglos n-dimensionales son también
arreglos n-dimensionales y el arreglo n-dimensional de todos los ceros es el vector cero.
Si los arreglos son restringidos a tener todos los elementos reales, entonces el espacio
vectorial será llamado espacio vectorial n-dimensional y se denota como Rn. Si los
vectores pueden tener elementos complejos, entonces es condicionado al espacio
vectorial complejo n-dimensional y se denota como Cn.

Para vectores con arreglo n-dimensionales, la dimensión n es igual al número de


elementos en el arreglo. Por ejemplo:
a 
a =  1
a 2 

es un elemento de R2 (o C2 si a1 y a2 son complejos), mientras:


 b1 
b =  b 2 
 b 3 

es un elemento de R2 (o C2). Esto es a  R2 y b  R3. En general, todas las propiedades


y conclusiones sobre un espacio vectorial real también se aplican a un espacio Cn.

1.2.1. Normas de vector y producto interno

Longitud, tamaño o más adecuadamente, la norma de un vector para propósitos


generales de arreglo de vectores n-dimensionales, se define en términos de la norma
euclidiana estándar para un vector v  Rn:
12
v =   v 2 (i) 
n

 i =1 

Requisitos de la función norma de espacios vectoriales dimensionalmente finitos son:

1.  v   0 y  v  = 0 si y sólo si v  0
2.  v1 + v2    v1  +  v2  (la desigualdad triangular)
3.  v  =    .  v  para todo escalar 

Ejemplo 1.3:

Dado x  R2. Entonces la norma euclidiana satisface las tres propiedades. Esto es:

1.  x  = (x12 + x22)1/2  0 para todos los elementos posibles x1 y x2 y es cero sí y sólo si


x1 = x2 = 0
2. La suma de x1 y x2 (vectores) es la distancia triangular del extremo inicial de x1 a la
punta de x2.
x2  x1 + x 2  x1 + x 2
x1

x1 + x2

3.  x  = (2x12 + 2 x22)1/2 =  (x12 + x22)1/2 =   x 

Ejemplo 1.4:

Dado:

v = [2 1 –2 -4]'

Entonces:  v  = (4 + 1 + 4 + 16)1/2 = 5
n
Producto interno: v1.v2  v1'v2 =  v1 (i) v 2 (i)
i =1

Se puede ver que la norma al cuadrado de un vector es justamente el producto interno de


v por sí mismo:
n
 v 2 = v.v = v'v =  v(i) v(i)
i =1
Ejemplo 1.5:

Considerar el producto interno del vector: v = [2 1 –2 -4]' con cada uno de los 3 vectores.

0   2/5   2
0   1/ 5   
v1 =   v 2 =   v 3 = 0 
1  − 2 / 5 0 
     
0   − 4 / 5 1 
Los productos internos llevan a: v'v1 = -2; v'v2 = 5; v'v3 = 0. El producto interno de v con
v1, v2 y v3 ilustra varios puntos interesantes. Los vectores v1 y v2 tienen normas unitarias.
Por tanto, el producto interno de v con cada uno de estos dos vectores indican cuanto se
contiene v en las direcciones de v1 y v2, respectivamente. Los vectores v y v2 están en la
misma dirección:

v = 5 v2 =  v  v2
Entonces: v'v2 =  v  v2 =  v  = 5

v
v = 5v2

v2
v3
El producto interno de v y v3 es cero. Los vectores v y v3 son llamados por tanto
ortogonales, o perpendiculares.

1.2.2. Combinación lineal de vectores y subespacios vectoriales

Dados a1 y a2 dos vectores en espacio vectorial real n-dimensional Rn. Entonces todas
las posibles combinaciones lineales de a1 y a2,

v = 1a 1 +  2 a 2

Para todo escalar real 1 y 2; forman lo que es denominado un subespacio de Rn. En
este caso (ya que es una combinación real de sólo dos vectores a1 y a2) el subespacio es
un plano, o quizás una recta si a1 y a2 son colineales. Este subespacio es denominado
como:

span {a1, a2}  toda combinación lineal de a1 y a2

El subespacio v = span {a1, a2} es visto que satisface los requisitos de un espacio
vectorial. Esto es, si v1  span {a1, a2}y v2  span {a1, a2}, entonces por definición, hay
constantes (1 y 2) y (1 y 2) tales que:

v1 =  1a 1 +  2 a 2
v 2 = 1a 1 +  2 a 2

De donde: (kv1 ) = (k1 )a 1 + (k 2 )a 2 ; y


(v1 + v 2 ) = (1 + 1 )a1 + ( 2 + 2 )a 2
Son también elementos del span {a1, a2}.

1  0 
 
Dados: a 1 = 1 y a 2 =  1 
 
0 1 / 2
Entonces el span {a1, a2} forma el sub-espacio dimensional como se muestra en la fig.1.2

x3

1/2 a2

1
1 x2
a1

x1

Fig.1.2
Dos vectores no colineales en el plano pueden ser usados para formar el subespacio. Por
ejemplo:

1  0  1
b1 = (1)1 + (2) 1  = 3
 
0 1 / 2 1
1  0  − 1
b 2 = (− 1)1 + (2) 1  =  1 
 
0 1 / 2  1 

Están también en el plano (ya que ellos son combinación real de a1 y a2) y no son
colineales. Entonces el span {b1, b2} es exactamente este mismo plano de modo que:

span {a1, a2} = span {b1, b2}

Suponiendo que b3:

1  0   − 1
 
b 3 = (− 1)1 + (− 2) 1  = − 3
0 1 / 2  − 1

b3 está en el subespacio ya que es una combinación lineal de a1 y a2. Sin embargo,


ahora:

span {a1, a2}  span {b1, b3}

ya que b1 = -b3 son colineales, por tanto:


span {b1, b3}= span {b1}

Es un sub-espacio lineal unidimensional formado por dos sub-espacios planares


bidimensionales.

1.2.3. Dependencia e independencia lineal y bases

Un conjunto de vectores {v1, v2, ..., vm} son llamados linealmente independientes si sólo el
conjunto de escalares {1, 2, ..., m} tales que:

1v1 + 2v2 + mvm = 0 (1.54)

es el conjunto de escalares que son todos idénticamente ceros. El conjunto es


linealmente dependiente si hay un conjunto de escalares {1, 2, ..., m}, no todos nulos,
tales que (1.54) se cumple.
Esto es equivalente a decir que cualquier conjunto, vi puede ser escrito como una
combinación lineal de los otros en el conjunto; esto es que tomando cualquier vi del
conjunto, es posible encontrar un conjunto de escalares i,j; j = 1, 2, ..., m, j  i; tal que:

m
v i =   ij vj (1.55)
j=1
j1

Este conjunto de escalares puede no ser único, pero es siempre posible encontrar un
conjunto de i tales que se cumpla (1.55) cuando el conjunto de vectores {v1, v2, ..., vm}
son linealmente dependientes.

La dimensión del sub-espacio puede ser relacionada al máximo número de vectores


linealmente independientes que pueden encontrarse en ese sub-espacio.

Una base para un sub-espacio m-dimensional, V está formada por un conjunto de


cualquier vector m linealmente independiente de ese sub-espacio, v1  V, v2  V, ..., vm 
V.

Además, para cualquier v  V hay una representación única.

v = 1v1 + 2v2 + mvm

En términos de los vectores base {v1, v2, ..., vm}

Ejemplo 1.6:

Considerando

1  0  1 − 1
a 1 = 1 a 2 =  1  b1 = 3 b 2 =  1 
     
0 1 / 2 1  1 
El span {a1, a2, b1, b2}  V es un sub-espacio planar que tiene dimensión 2. Por tanto, dos
vectores cualquiera linealmente independientes del plano v puede ser usado para definir
una base para V. Por otro lado, el conjunto a = {a1, a2} puede ser usado para definir la
base a para V. Entonces cualquier vector en el plano tiene una única representación en
términos de la base a. Además,

1 
b1 a =    1a 1 + 2a 2
 2 a
1
En la base a podemos escribir: b1 a =    1a 1 + 2a 2
 2 a
Podemos definir, por ejemplo, la base B para el conjunto {b1, b2}. En términos de la base
B,

1 / 2
a 1  =    1 / 2b 1 + 1 / 2b 2
1 / 2 

En la definición de la base no hay un requisito de otorgamiento de ortogonalidad entre los


vectores base; los vectores m-base para el espacio m-dimensional sólo tienen que ser
linealmente independientes. Si cada uno de los vectores de la base también son
ortogonales uno respecto a los otros, se denomina base ortogonal. Si la base es
ortogonal y cada uno de los vectores base tienen también norma unitaria, es denominado
base ortonormal.

Ejemplo 1.7:

La base euclidiana estándar

1  0  0 
0  1  0 
     
0 0 1

Representa una base ortonormal para R3. Los vectores:

 3  0   − 1
     
 0  1  0 
 1  0  3 
 

Son todos ortogonales y por tanto, linealmente independientes y también podrían formar
una base ortogonal para R3. Si normalizamos estos vectores dividiendo cada uno por su
norma respectiva obtenemos estos vectores dividiendo cada uno por su norma respectiva
obtenemos una base ortonormal para R3.
 3 / 2 0   − 1/ 2 
  1  0 
 0     
 1/ 2  0  3 / 2
 

Para los ejemplos previos se puede ver que hay un número infinito de posibles bases para
un espacio o subespacio dado. El problema restante es cómo transformar de una
representación en una base (o sistema de coordenadas) a otra.

1.2.4. Transformación de Bases

Consideremos un vector dado en R3:

 x1  1 0  0 
     
x =  x 2  x 1 + 0 + x 2 1 + x 3 0
 x 3  0 0 1

Esta es la representación 3-tuple de x con respecto a los tres vectores ortonormales:

1  0  0 
0  1  0 
     
0 0 1

Supongamos que se quiere encontrar la representación de x en una nueva base a = {a1,


a2, a3} donde a1, a2 y a3 tienen la representación de la vieja base euclidiana.

1  0  1
   
a 1 = 1 a 2 =  1  a 3 = 0
0 1 / 2 1

Se desea encontrar 1, 2, y 3 tales que:

 x1  1  0  1
     
x =  x 2  = 1 + 1 +  2  1  +  3 0
 x 3  0 1 / 2 1

Esta ecuación puede plantearse como un problema de ecuación lineal:

1 0 1  1   x 1 
1 1 0   =  x 
  2   2 
0 1 / 2 1  3   x 3 

o
−1
  1  1 0 1  x 1 
  = 1 1 0  x 
 2    2
 3  0 1 / 2 1  x 3 

Pero:

 1 
 
 2
  3 

En la representación de x con respecto a la nueva base a:

−1
 1  1 0 1
x a =  2  = 1 1 0 x vieja base
 3  0 1 / 2 1

O de otro modo:

1 0 1
x vieja base : 1 1 0 x a
0 1 / 2 1

Para ser específico, dado x en la base original será:

1 
x = 2
3

Entonces x en la nueva base está dada por:

−1
1 0 1 1  2 / 3 1 / 3 − 2 / 3 1 − 2 / 3
x a − 1 1 0 2 − − 2 / 3 2 / 3 2 / 3  2 −  8 / 3 
0 1 / 2 1 3  1 / 3 1 / 3 2 / 3  3  5 / 3 

Luego, dada la matriz P cuyos vectores columna son las representaciones de los nuevos
vectores base con respecto a la vieja base, entonces un vector n-dimensional escrito con
respecto a la vieja base está representado en la nueva base por:
x nueva base = P −1 x vieja base (1.56)

x vieja base = P x nueva base ` (1.57)

Ejemplo 1.8:

Considerando:

1  0  1 − 1
     
a 1 = 1 a 2 =  1  b1 = 3 b 2 =  1 
0 1 / 2 1  1 

Definimos la base a como {a1, a2} y la base B como {b1, b2}. Suponer que dado un x  V
= span {a1, a2} = span{b1, b2} tiene la representación con respecto a la base a como:

3
x a =    3a 1 − 5a 2
− 5 a

Suponer que se desea encontrar x con respecto a la base B. De (1.56) se cumple que:

x B = P −1 x
a

Donde: P  b1 a , b 2 a 
Por tanto se necesita encontrar b1, b2, representado en la base a, ahora se cumple que:

1 1  0 
b1 = 3 = 11 + 2 1 
   
1 0 1 / 2
− 1 1  0 
b 2 =  1  = −11 + 2 1 
   
 1  0 1 / 2
Por tanto:
1 
b1 a =   = 1a 1 + 2a 2
 2
− 1
b 2 a =   = −1a 1 + 2a 2
2

1 − 1  1 1 / 4
Luego: P=  P −1 =  
2 2   − 1 / 2 1 / 4

Por tanto:

 1 1 / 4  1 / 4 
xB = =  = 1 / 4b1 − 11 / 4b2
   
− 1 / 2 1 / 4 − 11 / 4 B

es la representación de x con respecto a la base B.

Ejemplo 1.9
Dadas las bases:
B={u,w};B´={u´,w´}
bases en R2
y que en la base B se cumple que:

[u´] = 
a
B  
b 
[w´] =  c 
B  
d 

u´= au + bw
Esto es:
w´= cu + dw

a c
La matriz de cambio de coordenadas de B´a B: P =  
 
b d
Dado v Є V se puede relacionar :
a c
[v]B = P.[v]B´ =   [v]B´
 
b d

Dado B={[1 0]T, [0 1]T} y B´ ={[3 1]T, [-2 1]T}


3 − 2 3 − 2 2 4
Con P =    [v]B=    =  
1 1  1 1  1 3

  2  1  
Ejemplo 1.10: Dado B´´=  ,    encontrar el cambio de coordenadas de la base B´del
 1   4  
ejemplo 1 a B´´

Rotación de ejes coordenados

B´= {u´, v´}

cos 
u´B =  
 sin  
− sin  
v´B =  
 cos 

Ejemplo 1.11: Rotar el vector vB = 3 2


T
en sentido horario 45°.
1.3 Números complejos, variables complejas y funciones
complejas

Parte del análisis de sistemas muchas veces lleva a trabajar con sistemas complejos.
Haremos un breve repaso de la teoría básica.

1.3.1 Números complejos

Un número complejo puede ser expresado como:


z = x + jy
donde j es el número imaginario ( j = − 1 ) y x , y son la parte real e imaginaria
respectivamente. La representación en el plano complejo de z se muestra en la Fig. 1.3.
Un número complejo z puede ser considerado un punto en el plano complejo o un
segmento de recta dirigido al punto; ambas interpretaciones son comunes.

Im z
y

x Re

La magnitud, o valor absoluto, de z está definida como la longitud del segmento de recta
dirigido mostrado en la Fig. 1.3 . El ángulo se mide con respecto a la dirección positiva del
eje real. Una dirección de rotación contraria a las agujas del reloj se define como la
dirección positiva para la medida de ángulos.
y
Magnitud de z = z = x 2 + y 2 , ángulo de z =  = tan −1
x
En términos de la magnitud y ángulo, z puede ser expresado como z = z  la cual es
llamada forma polar de z, la forma original es llamada forma rectangular. Por tanto, puede
se escrita como :
z = x + jy = z 
donde x = z cos  y y = z sin  .

1.3.2 Complejo conjugado

El complejo conjugado de z está definido como :


z = x − jy
En la fig. 1.4 vemos la representación de z y z . Notar que :

z = x + jy = z  = z (cos  + jsin)
z = x − jy = z  −  = z (cos  − jsin)
Además por el teorema de Euler:
cos  + jsin  = e j
la forma polar se puede expresar como: z = z  = z e j

Im z
y

x Re
z

Fig. 1.4

1.3.3 Algebra compleja

a) Adición: Dos números complejos en forma rectangular se suman sumando la parte


real y la parte imaginaria separadamente.
Si z = x + jy , w = u + jv , entonces z + w = ( x + u) + j ( y + v)
b) Sustracción: z − w = ( x − u) + j ( y − v)
Como se puede ver la adición y sustracción se pueden hacer fácilmente en la forma
rectangular. Si se tiene el número en la forma polar es recomendable transformarlo a la
forma rectangular considerando que, si z = x + jy = z  , entonces:
x = z cos  , y = z sin 
c) Multiplicación:
• Por un escalar: az = a( x + jy) = ax + jay
• De dos números complejos: z = x + jy , w = u + jv , entonces:
zw = ( x + jy )(u + jv ) = xu + jyu + jxv + j 2 yv = ( xu − yv ) + j ( xv + yu )
La multiplicación de dos números complejos resulta más sencillo si dichos números están
en la forma polar, esto es, si:
z = z  , w = w 
entonces: zw = z w  + 
Es interesante notar que la multiplicación por j es equivalente a una rotación en sentido
antihorario de 90°. Por ejemplo, si z = x + jy , entonces :
jz = j ( x + jy ) = jx + j 2 y = − y + jx ,
se puede decir que, j = 190 , por tanto, si z = z  , entonces:
jz = 190   z  = z  + 90 
En la Fig. 1.5 se ilustra la multiplicación de un número por j.
Im

z
j jz 90°

Re

Fig. 1.5

d) División: si z = z  es dividido por w = w  , entonces:


z z  z
= =  − 
w w  w
La división en forma rectangular también se puede realizar pero resulta más complejo. En
este caso se multiplica el numerador y denominador por el complejo conjugado del
denominador, de manera que el denominador se transforma en escalar. De este modo:

z x + jy ( x + jy)(u − jv) ( xu + yv) + j ( yu − xv) xu + yv yu − xv


= = = = + j
w u + jv (u + jv)(u − jv) u2 + v2 u2 + v2 u2 + v2

Si dividimos un vector por j es equivalente a una rotación en el sentido horario de 90°. Por
ejemplo, si z = x + jy entonces:
z x + jy ( x + jy) j jx − y
= = = = y − jx
j j jj −1
z z 
ó = = z  − 90
j 190

También podría gustarte