Documentos de Académico
Documentos de Profesional
Documentos de Cultura
y1 = a 11 x 1 + + a 1m x m
y 2 = a 21 x 1 + + a 2 m x m (1.1)
y n = a n1 x 1 + + a nm x m
y1 a 11 a 1m x 1
= (1.2)
y n a n1 a nm x m
a 11 a 1m
A = (1.3)
a n1 a nm
Se denomina matriz nxm. Una simple letra A es usada para designar una matriz
completa nxm. Las matrices en (1.2) que tienen sólo una columna, denominadas:
y1 x1
y (1.4)
y n x m
son llamados vectores. Los vectores tridimensionales de la física clásica son casos
especiales de los vectores matemáticos generales. Cuando nos referimos a vectores
físicos tales como fuerza o velocidad se usa una flecha sobre la letra, p.e.: f , v .
Cualquier resultado que se aplique a una matriz nxm también se aplica a vectores. En
algunos casos los vectores son denotados por letras minúsculas y las matrices con
letras mayúsculas.
Luego el sistema de ecuaciones (1.1) puede escribirse como:
y = A.x (1.5)
A = [aij]
a 11 + b11 a 1n + b1n
C = A + B =
(1.8)
a m1 + b m1 a mn + b mn
A+B=B+A (1.9)
a 11 − b11 a 1n − b1n
C = A − B =
(1.10)
a m1 − b m1 a mn − b mn
b) Multiplicación:
Sea: y = Ax, x= Bw
Entonces: y = A.B.w
(a11b11 + + a1n bn1 ) (a11b1n + + a1n bnn )
Donde: A.B = C =
(1.11)
(a m1b11 + + a mn bn1 ) (am1b1n + + amnbnn )
Cada elemento
n
C ij = a i1 , a i 2 ,, a in . b ij = a ik b kj
k =1
fila i
b nj
AB = a 1, , a n b1 =a 1b1 + +a n b n escalar
(1.12)
b n
b1 b1a1 b1a n
y BA = . a 1, , a n =
es una matriz nxm
b n b n a1 b n a n
puede o no puede tener una solución única. Es bien conocido que existe una única
solución si y sólo si el determinante de A es no nulo:
a 11 a 1n
A = 0
a n1 a nn
A = a11 D11 − a12 D12 + a13 D13 − + (− 1)n+1 a1n D1n (1.14)
Si A 0 y, por tanto, (1.13) tiene una solución única; esa solución puede escribirse
como:
x1 = b11 y1 + + b1n y n
(1.15)
xn = bn1 y1 + + bnn y n
y = A.x (1.16)
x = B.y (1.17)
y = ABy = Iy (1.18)
adj(A)
A −1 = (1.21)
A
Donde la matriz adj (A) es llamada la matriz adjunta. El elemento (i,j) de la matriz es
el cofactor de aji. El cofactor; o “menor signado” es el determinante de la submatriz
obtenida borrando la fila y columna que contienen aji y que tiene signo (+) si i + j es par
y un signo (-) si i + j es impar. Por ejemplo, los determinantes y matrices adjuntas
para matrices 2x2 y 3x3 son:
n=2
a a 12 a − a 12
A = 11 adj A = 22
a 22 a 11
(1.22)
a 21 − a 21
A = a 11a 22 + a 21a 22
n=3
a 22 a 23 a12 a13 a12 a13
−
a32 a33 a32 a33 a 22 a 23
a11 a12 a13 − a 21 a 23 a11 a13 a11 a13
−
A = a 21 a 22 a 23 adj A = a31 a33 a31 a33 a 21 a 23
a31 a32 a33
a 21 a 22 a11 a12 a11 a12
−
a31 a32 a31 a32 a 21 a 22
a 22 a 23 a a 23 a a 22
A = a 11 − a 12 21 + a 13 21 (1.23)
a 32 a 33 a 31 a 33 a 31 a 32
Puede mostrarse que el determinante del producto de dos matrices nxn es el producto
de los determinantes:
AB= A.B
y1 = A 11 x 1 + A 12 x 2 + + A1m x m
y 2 = A 21 x 1 + A 22 x 2 + + A 2 m x m
(1.24)
y n = A n1 x 1 + A n 2 x 2 + + A nm x m
En la cual los xis son vectores y las Aijs son matrices. Se puede escribir:
Los vectores y1, ..., yn, x1, ..., xn son sub-vectores de vectores de mayor dimensión:
y1 x1
y x
y = 2 x= 2 (1.26)
y n x m
A 11 A 1m
A = (1.27)
A n1 A nm
Los vectores y las matrices pueden ser particionadas en tantas subdivisiones como
son convenientes para una aplicación dada. La única regla que debe ser observada
es que las submatrices deben ser de la dimensión apropiada. La submatriz Aij en
(1.27) debe tener tantas sub-columnas como el sub-vector correspondientes xj y
tantas filas como el sub-vector yj.
Las matrices que son apropiadamente particionadas pueden ser añadidas, sustraídas
y multiplicadas. Por ejemplo:
La partición puede ser algunas veces útil para obtener inversas, considerando el
sistema:
y1 A B x 1
Esto es; y = C D x
2 2
A B
La inversa de puede ser expresada en términos de las inversas de las
C D
submatrices. Suponer que la submatriz A tiene una inversa. Entonces se puede
resolver (1.29) para x1:
x1 = A −1 y1 − A −1Bx 2 (1.31)
(
y 2 = CA −1 y1 − CA −1B − D x 2 ) (1.32)
de donde:
(
x 2 = CA −1 B − D ) (CA
−1 −1
y1 − y 2 ) (1.33)
el cual es sustituido en (1.31) llevando a:
x 1 = A −1 − A −1 B CA −1 B − D ( ) −1
CA −1 y1 + A −1 B CA −1 − B − D( )
−1
y2 (1.34)
La solución de (1.29) y (1.30) han podido ser obtenidas, y por tanto tenemos la inversa
de M:
−1
−1 A B
M =
C D
(1.35)
=
(
A −1 − A −1 B CA −1 B − D −1 CA −1 ) −1
A B CA B − D ( −1
)
−1
( −1
CA −1 − B − D CA −1 ) (
− CA −1 B − D
−1
)
Si D tiene inversa, entonces el mismo procedimiento puede ser usado para obtener
otra expresión para M-1:
−1
−1 A B
M =
C D
(1.36)
(
− BD −1C − A −1 CA −1
= −1
) (BD −1 −1
C − A BD −1
)
(
−1
D C BD C − A
−1
) ( −1
− D −1 − D −1C BD −1C − A BD −1 )
Cada sub-matriz del lado derecho de (1.36) debe ser igual a las sub-matrices
correspondientes de (1.35):
(
− BD −1C − A )−1
(
= A −1 − A −1 B CA −1 B − D ) −1
CA −1
Esta es una versión del lema de inversión de matrices a menudo atribuido a Schur. La
forma más familiar es reemplazar D por –D.
(A + BD C) −1 −1
(
= A −1 − A −1 B CA −1 B − D )−1
CA −1 (1.37)
(A + B) + C = A + (B + C)
(AB)C = A(BC)
C (A + B) = CA+CB
k(A + B) = kA + kB
A(k1 + k2) = Ak1 + Ak2
kA = Ak
Si las filas de una matriz son las columnas de otras, las matrices son llamadas las
transpuestas de las otras:
En (1.38) A y A' son transpuestas una de la otra. El símbolo ' es usado para denotar
transpuesta, aunque también se suele usar el superíndice T, es decir, AT.
(A')' = A
(AB)' = B'A' (1.39)
A=A' (si A es matriz cuadrada)
a 11 a 12 a 1n
a a 22 a 2 n
A = 21 = A' (1.40)
a 1n a 2n a nn
Se llama simétrica. Una matriz cuyas columnas son los negativos de sus filas se llama
sesgo-simétrica (slaw-symetric). Una matriz sesgo-simétrica tiene la forma general.
0 a 12 a 1n
− a 0 a 2 n
S = 12 = −S' (1.41)
− a 1n − a 2n 0
Estas matrices se encuentran en el estudio de la dinámica de cierto tipo de sistemas
conservativos pero no se encuentran tan a menudo como las matrices simétricas.
Una matriz cuya transpuesta es igual a su inversa se llama ortogonal.
De (1.42)
1 para j = k
a ij a ik = jk = (1.44)
i =1 0 para j k
Cuando los elementos de una matriz son números complejos, es más útil trabajar con la
transpuesta del complejo conjugado de la matriz la cual es escrita como AH (algunos
textos la indican con A*)
* *
a*11 a n1
a 11 a 12 a 1m
a n2
*
A = , A H = a12 (1.45)
a n1 a n2 a nm
* *
a1m a nm
AH también suele denominarse adjunta de A, aunque no tiene relación con la que usamos
para hallar la inversa de A. Una matriz que iguala a su adjunta (AH = A) se llama
hermitiana y cuando AH = -A se llama sesgo-hermitiana.
Si AH = A-1 o AAH = AHA = I entonces es unitaria.
Una matriz
a 11 0 0
a a 22 0
A = 12 (1.46)
a 1n a 2n a nn
a 11 a 12 a 1n
A' = 0 a 22 a 2 n (1.47)
0 0 a nn
Es llamada triangular superior. El determinante de una matriz triangular (superior o
inferior) es el producto de los elementos diagonales.
Una matriz cuyos únicos elementos no nulos están en la diagonal principal.
1 0 0
0 2 0
= = diag 1 , 2 , , n (1.48)
0 0 n
n
Trace (A) = a ii (1.50)
i =1
Se cumple que:
a 11 a 12 a 1n
a a 22 a 2 n
det 21 = (− 1) a 1 j1a 2 j2 a n jn
k
(1.51)
a n1 a n2 a nn
Donde la sumatoria es sobre todas las permutaciones de valores j1, j2, ..., jn tales que j1j2
... jn y k iguala el número de inversiones que se requiere para poner j1, j2, ..., jn en el
orden 1, 2, 3, ..., n.
Por ejemplo:
a a 12
= (− 1) a 11a 22 + (− 1) a 12 a 21
0 1
det 11 (1.52)
a 21 a 22
Y:
a 11 a 12 a 13
= (− 1) a 11a 22 a 33 + (− 1) a 11a 23 a 32 + (− 1) a 12 a 21a 33
0 1 1
det a 21 a 22 a 23 (1.53)
+ (− 1) a 12 a 23 a 31 + (− 1) a 13 a 21a 32 + (− 1) a 13 a 22 a 31
2 2 1
a 31 a 32 a 33
Otras propiedades:
- Conmutativa: v1 + v2 = v2 + v1
Finalmente para cada v V debe existir una inversa aditiva tal que v + (-v) = 0
Ejemplo 1.2:
v1
v
v = 2
v n
i =1
1. v 0 y v = 0 si y sólo si v 0
2. v1 + v2 v1 + v2 (la desigualdad triangular)
3. v = . v para todo escalar
Ejemplo 1.3:
Dado x R2. Entonces la norma euclidiana satisface las tres propiedades. Esto es:
x1 + x2
Ejemplo 1.4:
Dado:
v = [2 1 –2 -4]'
Entonces: v = (4 + 1 + 4 + 16)1/2 = 5
n
Producto interno: v1.v2 v1'v2 = v1 (i) v 2 (i)
i =1
Considerar el producto interno del vector: v = [2 1 –2 -4]' con cada uno de los 3 vectores.
0 2/5 2
0 1/ 5
v1 = v 2 = v 3 = 0
1 − 2 / 5 0
0 − 4 / 5 1
Los productos internos llevan a: v'v1 = -2; v'v2 = 5; v'v3 = 0. El producto interno de v con
v1, v2 y v3 ilustra varios puntos interesantes. Los vectores v1 y v2 tienen normas unitarias.
Por tanto, el producto interno de v con cada uno de estos dos vectores indican cuanto se
contiene v en las direcciones de v1 y v2, respectivamente. Los vectores v y v2 están en la
misma dirección:
v = 5 v2 = v v2
Entonces: v'v2 = v v2 = v = 5
v
v = 5v2
v2
v3
El producto interno de v y v3 es cero. Los vectores v y v3 son llamados por tanto
ortogonales, o perpendiculares.
Dados a1 y a2 dos vectores en espacio vectorial real n-dimensional Rn. Entonces todas
las posibles combinaciones lineales de a1 y a2,
v = 1a 1 + 2 a 2
Para todo escalar real 1 y 2; forman lo que es denominado un subespacio de Rn. En
este caso (ya que es una combinación real de sólo dos vectores a1 y a2) el subespacio es
un plano, o quizás una recta si a1 y a2 son colineales. Este subespacio es denominado
como:
El subespacio v = span {a1, a2} es visto que satisface los requisitos de un espacio
vectorial. Esto es, si v1 span {a1, a2}y v2 span {a1, a2}, entonces por definición, hay
constantes (1 y 2) y (1 y 2) tales que:
v1 = 1a 1 + 2 a 2
v 2 = 1a 1 + 2 a 2
1 0
Dados: a 1 = 1 y a 2 = 1
0 1 / 2
Entonces el span {a1, a2} forma el sub-espacio dimensional como se muestra en la fig.1.2
x3
1/2 a2
1
1 x2
a1
x1
Fig.1.2
Dos vectores no colineales en el plano pueden ser usados para formar el subespacio. Por
ejemplo:
1 0 1
b1 = (1)1 + (2) 1 = 3
0 1 / 2 1
1 0 − 1
b 2 = (− 1)1 + (2) 1 = 1
0 1 / 2 1
Están también en el plano (ya que ellos son combinación real de a1 y a2) y no son
colineales. Entonces el span {b1, b2} es exactamente este mismo plano de modo que:
1 0 − 1
b 3 = (− 1)1 + (− 2) 1 = − 3
0 1 / 2 − 1
Un conjunto de vectores {v1, v2, ..., vm} son llamados linealmente independientes si sólo el
conjunto de escalares {1, 2, ..., m} tales que:
m
v i = ij vj (1.55)
j=1
j1
Este conjunto de escalares puede no ser único, pero es siempre posible encontrar un
conjunto de i tales que se cumpla (1.55) cuando el conjunto de vectores {v1, v2, ..., vm}
son linealmente dependientes.
Ejemplo 1.6:
Considerando
1 0 1 − 1
a 1 = 1 a 2 = 1 b1 = 3 b 2 = 1
0 1 / 2 1 1
El span {a1, a2, b1, b2} V es un sub-espacio planar que tiene dimensión 2. Por tanto, dos
vectores cualquiera linealmente independientes del plano v puede ser usado para definir
una base para V. Por otro lado, el conjunto a = {a1, a2} puede ser usado para definir la
base a para V. Entonces cualquier vector en el plano tiene una única representación en
términos de la base a. Además,
1
b1 a = 1a 1 + 2a 2
2 a
1
En la base a podemos escribir: b1 a = 1a 1 + 2a 2
2 a
Podemos definir, por ejemplo, la base B para el conjunto {b1, b2}. En términos de la base
B,
1 / 2
a 1 = 1 / 2b 1 + 1 / 2b 2
1 / 2
Ejemplo 1.7:
1 0 0
0 1 0
0 0 1
3 0 − 1
0 1 0
1 0 3
Son todos ortogonales y por tanto, linealmente independientes y también podrían formar
una base ortogonal para R3. Si normalizamos estos vectores dividiendo cada uno por su
norma respectiva obtenemos estos vectores dividiendo cada uno por su norma respectiva
obtenemos una base ortonormal para R3.
3 / 2 0 − 1/ 2
1 0
0
1/ 2 0 3 / 2
Para los ejemplos previos se puede ver que hay un número infinito de posibles bases para
un espacio o subespacio dado. El problema restante es cómo transformar de una
representación en una base (o sistema de coordenadas) a otra.
x1 1 0 0
x = x 2 x 1 + 0 + x 2 1 + x 3 0
x 3 0 0 1
1 0 0
0 1 0
0 0 1
1 0 1
a 1 = 1 a 2 = 1 a 3 = 0
0 1 / 2 1
x1 1 0 1
x = x 2 = 1 + 1 + 2 1 + 3 0
x 3 0 1 / 2 1
1 0 1 1 x 1
1 1 0 = x
2 2
0 1 / 2 1 3 x 3
o
−1
1 1 0 1 x 1
= 1 1 0 x
2 2
3 0 1 / 2 1 x 3
Pero:
1
2
3
−1
1 1 0 1
x a = 2 = 1 1 0 x vieja base
3 0 1 / 2 1
O de otro modo:
1 0 1
x vieja base : 1 1 0 x a
0 1 / 2 1
1
x = 2
3
−1
1 0 1 1 2 / 3 1 / 3 − 2 / 3 1 − 2 / 3
x a − 1 1 0 2 − − 2 / 3 2 / 3 2 / 3 2 − 8 / 3
0 1 / 2 1 3 1 / 3 1 / 3 2 / 3 3 5 / 3
Luego, dada la matriz P cuyos vectores columna son las representaciones de los nuevos
vectores base con respecto a la vieja base, entonces un vector n-dimensional escrito con
respecto a la vieja base está representado en la nueva base por:
x nueva base = P −1 x vieja base (1.56)
Ejemplo 1.8:
Considerando:
1 0 1 − 1
a 1 = 1 a 2 = 1 b1 = 3 b 2 = 1
0 1 / 2 1 1
Definimos la base a como {a1, a2} y la base B como {b1, b2}. Suponer que dado un x V
= span {a1, a2} = span{b1, b2} tiene la representación con respecto a la base a como:
3
x a = 3a 1 − 5a 2
− 5 a
Suponer que se desea encontrar x con respecto a la base B. De (1.56) se cumple que:
x B = P −1 x
a
Donde: P b1 a , b 2 a
Por tanto se necesita encontrar b1, b2, representado en la base a, ahora se cumple que:
1 1 0
b1 = 3 = 11 + 2 1
1 0 1 / 2
− 1 1 0
b 2 = 1 = −11 + 2 1
1 0 1 / 2
Por tanto:
1
b1 a = = 1a 1 + 2a 2
2
− 1
b 2 a = = −1a 1 + 2a 2
2
1 − 1 1 1 / 4
Luego: P= P −1 =
2 2 − 1 / 2 1 / 4
Por tanto:
1 1 / 4 1 / 4
xB = = = 1 / 4b1 − 11 / 4b2
− 1 / 2 1 / 4 − 11 / 4 B
Ejemplo 1.9
Dadas las bases:
B={u,w};B´={u´,w´}
bases en R2
y que en la base B se cumple que:
[u´] =
a
B
b
[w´] = c
B
d
u´= au + bw
Esto es:
w´= cu + dw
a c
La matriz de cambio de coordenadas de B´a B: P =
b d
Dado v Є V se puede relacionar :
a c
[v]B = P.[v]B´ = [v]B´
b d
2 1
Ejemplo 1.10: Dado B´´= , encontrar el cambio de coordenadas de la base B´del
1 4
ejemplo 1 a B´´
cos
u´B =
sin
− sin
v´B =
cos
Parte del análisis de sistemas muchas veces lleva a trabajar con sistemas complejos.
Haremos un breve repaso de la teoría básica.
Im z
y
x Re
La magnitud, o valor absoluto, de z está definida como la longitud del segmento de recta
dirigido mostrado en la Fig. 1.3 . El ángulo se mide con respecto a la dirección positiva del
eje real. Una dirección de rotación contraria a las agujas del reloj se define como la
dirección positiva para la medida de ángulos.
y
Magnitud de z = z = x 2 + y 2 , ángulo de z = = tan −1
x
En términos de la magnitud y ángulo, z puede ser expresado como z = z la cual es
llamada forma polar de z, la forma original es llamada forma rectangular. Por tanto, puede
se escrita como :
z = x + jy = z
donde x = z cos y y = z sin .
z = x + jy = z = z (cos + jsin)
z = x − jy = z − = z (cos − jsin)
Además por el teorema de Euler:
cos + jsin = e j
la forma polar se puede expresar como: z = z = z e j
Im z
y
x Re
z
Fig. 1.4
z
j jz 90°
Re
Fig. 1.5
Si dividimos un vector por j es equivalente a una rotación en el sentido horario de 90°. Por
ejemplo, si z = x + jy entonces:
z x + jy ( x + jy) j jx − y
= = = = y − jx
j j jj −1
z z
ó = = z − 90
j 190