Está en la página 1de 44

INTRODUCCIN

El lgebra lineal es la rama de las matemticas que estudia conceptos tales


como vectores, matrices, sistemas de ecuaciones lineales y en un enfoque ms
formal, espacios vectoriales, y sus transformaciones lineales. Es un rea activa
que tiene conexiones con muchas reas dentro y fuera de las matemticas
como anlisis
funcional, ecuaciones
diferenciales,
investigacin
de
operaciones, grficas por computadora, ingeniera, etc.
Segn estudios recabados el lgebra lineal moderna se remonta a los aos
de 1843 cuando William Rowan Hamilton de quien proviene el uso del trmino
vector cre los cuaterniones que no son otra cosa que representaciones
unitarias que proporcionan una notacin matemtica para representar las
orientaciones y las rotaciones de objetos en tres dimensiones; y
de 1844 cuando Hermann
Grassmann public
su
libro
Die
lineare
Ausdehnungslehre (La teora lineal de extensin). Puesto que el lgebra lineal
es una teora exitosa, sus mtodos se han desarrollado por otras reas de la
matemtica: en la teora de mdulos, que remplaza al cuerpo en los escalares
por un anillo; en el lgebra multilineal, uno lidia con 'mltiples variables' en un
problema de mapeo lineal, en el que cada nmero de las diferentes variables
se dirige al concepto de tensor; en la teora del espectro de los operadores de
control de matrices de dimensin infinita, aplicando el anlisis matemtico en
una teora que no es puramente algebraica. En todos estos casos las
dificultades tcnicas son mucho ms grandes.
Las matemticas son, por supuesto, una disciplina. Sin embargo, tambin es
una herramienta que se usa en muchos campos. El lgebra lineal es una rama
de las matemticas modernas que juega un papel central debido a que se
encarga del estudio de conceptos tales como vectores, matrices, sistemas de
ecuaciones lineales, espacios vectoriales y transformaciones lineales. En
lgebra lineal, los conceptos son tan importantes como los clculos, por lo que
se convierte en un curso adecuado para introducir el pensamiento abstracto,
debido a que una gran parte de su campo tiene una interpretacin geomtrica,
que puede ayudar precisamente a visualizar esos conceptos.
De
manera
ms
formal,
el
lgebra
lineal
estudia
conjuntos
denominados espacios vectoriales, los cuales constan de un conjunto de
vectores y un conjunto de escalares que tiene estructura de campo, con una
operacin de suma de vectores y otra de producto entre escalares y vectores
que satisfacen ciertas propiedades por ejemplo, que la suma es conmutativa.
Estudia tambin transformaciones lineales, que son funciones entre espacios
vectoriales que satisfacen las condiciones de linealidad: Finalmente, el lgebra
lineal estudia tambin las propiedades que aparecen cuando se impone
estructura adicional sobre los espacios vectoriales, siendo una de las ms
frecuentes la existencia de un producto interno una especie de producto entre

dos vectores que permite introducir nociones como longitud de vectores y


ngulo entre un par de los mismos.

CONTENIDO

1. Matrices y sistemas lineales.


2. Sistemas de Ecuaciones Lineales
3. Determinantes
4. Transformaciones Lineales.
5. Cnicas y cuadricas.
6. Aproximacin por mnimos cuadrados

1. Matrices y sistemas lineales.


Se denomina matriz a todo conjunto de nmeros o expresiones dispuestos
en forma rectangular, formando filas y columnas.

Elemento de una matriz


Cada uno de los nmeros de que consta la matriz se denomina elemento.
Un elemento se distingue de otro por la posicin que ocupa, es decir, la fila
y la columna a la que pertenece.
Dimensin de una matriz

El nmero de filas y columnas de una matriz se denomina dimensin de una


matriz. As, una matriz de dimensin mxn es una matriz que tiene m
filas y n columnas.
De este modo, una matriz puede ser de dimensin: 2x4 (2 filas y 4
columnas), 3x2 (3 filas y 2 columnas), 2x5 (2 filas y 5 columnas),...
S la matriz tiene el mismo nmero de filas que de columnas, se dice que es
de orden: 2, 3, 4, ...
El conjunto de matrices de m filas y n columnas se denota por A mxn o (aij).
Un elemento cualquiera de la misma, que se encuentra en la fila i y en
la columna j, se denota por aij.
Matrices iguales
Dos matrices son iguales cuando tienen la misma dimensin y los
elementos que ocupan el mismo lugar en ambas, son iguales.
Matriz fila
Una matriz fila est constituida por una sola fila.

Matriz columna
La matriz columna tiene una sola columna

Matriz rectangular
La matriz rectangular tiene distinto nmero de filas que de columnas,
siendo su dimensin mxn.

Matriz traspuesta
Dada una matriz A, se llama matriz traspuesta de A a la matriz que se
obtiene cambiando ordenadamente las filas por las columnas.

(At)t = A
(A + B)t = At + Bt
( A)t = At
(A B)t = Bt At

Matriz nula
En una matriz nula todos los elementos son ceros.

Matriz cuadrada
La matriz cuadrada tiene el mismo nmero de filas que de columnas.
Los elementos de la forma aii constituyen la diagonal principal.
La diagonal secundaria la forman los elementos con i+j = n+1, siendo n el
orden de la matriz.

Matriz triangular superior


En una matriz triangular superior los elementos situados por debajo de la
diagonal principal son ceros.

Matriz triangular inferior

En una matriz triangular inferior los elementos situados por encima de la


diagonal principal son ceros.

Matriz diagonal
En una matriz diagonal todos los elementos que no estn situados en la
diagonal principal son nulos.

Matriz escalar
Una matriz escalar es una matriz diagonal en la que los elementos de la
diagonal principal son iguales.

Matriz identidad o unidad


Una matriz identidad es una matriz diagonal en la que los elementos de la
diagonal principal son iguales a 1.

Operaciones con matrices.


Suma de matrices
Dadas dos matrices de la misma dimensin, A = (a ij) y B = (bij), se
define la matriz suma como:
A + B = (aij + bij)
La matriz suma se obtiene sumando los elementos de las dos
matrices que ocupan la misma posicin.
Ejemplo:

Propiedades de la suma de matrices


1. Interna
La suma de dos
dimensin m x n.

matrices

de

orden m

n es

otra

matriz

2. Asociativa
A + (B + C) = (A + B) + C
3. Elemento neutro
A+0=A
Donde O es la matriz nula de la misma dimensin que la matriz A.
4. Elemento opuesto
A + (A) = O
La matriz opuesta es aquella en que todos los elementos estn
cambiados de signo.
5. Conmutativa
A+B=B+A
Producto de una matriz por un escalar.
Dada una matriz A = (aij) y un nmero real k
, se define el producto de
un nmero real por una matriz: a la matriz de la misma dimensin que A, en
la que cada elemento est multiplicado por k.

k A = (k aij)
Ejemplo:

Propiedades
1 a (b A) = (a b) A

Mmxn , a, b

2 a (A + B) = a A + a B

A, B

Mmxn , a

3 (a + b) A = a A + b A

Mmxn , a, b

41A=A

Mmxn

Producto de dos matrices


Dos matrices A y B se dicen multiplicables si el nmero de columnas
de A coincide con el nmero de filas de B.
Am x n x Bn x p = Cm x p
El elemento cij de la matriz producto se obtiene multiplicando cada
elemento de la fila i de la matriz A por cada elemento de la columna j de la
matriz B y sumndolos.
Ejemplo:

Propiedades del producto de matrices


1 Asociativa:
A (B C) = (A B) C
2 Elemento neutro:
AI=A
Donde I es la matriz identidad del mismo orden que la matriz A.
3 Distributiva del producto respecto de la suma:
A (B + C) = A B + A C
4 No es Conmutativa:
ABBA
Ejemplo

Podemos ver que en este caso, A B B A, de hecho ni si quiera tienen la


misma dimensin, pues A B M2x2 y B A M3x3.
Ejemplo aplicado
Producto de un vector demanda y un vector de precios.
Suponga que un fabricante produce cuatro artculos. Su demanda est dada
por el vector
de demanda (una matriz 1x4). El precio por unidad que recibe el fabricante
por los artculos est dado por el vector de precios

2000 bs
1500 bs
p= 1800 bs
4000 bs
(Una matriz 4 x 1). Si se cumple la demanda, cunto dinero recibir el
fabricante?
Solucion.
La demanda del primer articulo es 30 y el fabricante recibe 2000 Bs por
cada articulo vendido. Entonces recibe 60000 Bs de las ventas del primer
articulo. Si se sigue este razonamiento, se ve que la cantidad total de
bolivares que recibe es
30 x 2000 + 20 x 1500 + 40 x 1800 + 10 x 4000 = 202000
Que no es ms que el producto de las matrices d x p

d=

[ 3020 4010 ]

2000 bs
1500 bs
x p= 1800 bs = 202000
4000 bs

Reduccin y diagonalizacion de matrices.


Vamos a introducir un mtodo que nos permitir resolver sistemas de
ecuaciones lineales.
Este mtodo es muy til cuando hay muchas ecuaciones y muchas
incgnitas.
Comenzamos analizando si una matriz cumple las siguientes condiciones:
(i) Todas las filas (si las hay) cuyos elementos son todos cero aparecen en la
parte
Inferior de la matriz.
(ii) El primer nmero diferente de cero (a partir de la izquierda) en cualquier
fila, que
No contiene solo ceros, es 1.
(iii) Si dos filas sucesivas no contienen solamente ceros, entonces el primer
1 en la fila
Inferior ocurre ms a la derecha que el primer 1 en el rengln superior.
(iv) Cualquier columna que contenga el primer 1 de un rengln tiene ceros
en las dems
Posiciones.
Una matriz es escalonada por filas si satisface (i), (ii) y (iii).
Una matriz es escalonada reducida si satisface (i), (ii), (iii) y (iv).
El primer nmero diferente de cero (si lo hay) se llama pivote de esa fila.
Operaciones elementales con filas:

Multiplicar (o dividir) una fila por un nmero diferente de cero.


Sumar un mltiplo de una fila a otra fila.
Intercambiar dos filas.

Notacin: para c

0 tenemos que

Ri cRi
significa sustituye la i-esima fila por esa misma fila
multiplicada por c
Ri Ri + cRj significa sustituye la i-esima fila por la suma de la fila i
mas la fila j multiplicada por c
Ri Rj significa intercambia las filas i y j

El proceso de aplicar estas operaciones elementales con filas para


simplificar una matriz
Se llama reduccin por filas.
Principales mtodos de reduccin por filas de matrices:

Mtodo de Gauss: permite llevar una matriz a una matriz escalonada


por filas,

Usando las operaciones elementales con filas.


Tcnica de clculo en el mtodo de Gauss:

El primer paso es obtener un 1 en el vrtice superior izquierdo de la


matriz.
El paso siguiente es convertir todos los elementos restantes de la primera
columna en ceros, dejando el primero intacto.
A continuacin se repite el proceso para la matriz que se obtiene si se
eliminan la primera fila y la primera columna.
Ejemplo . Usamos el mtodo de Gauss para obtener la matriz escalonada
por filas.

3 6 12
5 11 23

1
1/3
R

1 124
5 11 23
R

R2

R2

R1 1 2 4
013

Si queremos obtener la matriz escalonada reducida debemos continuar el


procedimiento:

1 2 4 R1
0 13

R1

R2 1 02
0 13

2. Sistemas de Ecuaciones Lineales


Conceptos y resultados bsicos. Un conjunto de m ecuaciones de la forma
Sistemas de ecuaciones lineales
Un sistema de ecuaciones lineales es un conjunto de ecuaciones lineales de
la forma:
a11 x1 + a12 x2 + a13 x3 + + a1n xn = b1
a21 x1 + a22 x2 + a23 x3 + + a2n xn = b2
.

.
.
am1 x1 + am2 x2 + am3 x3 + + amn xn = bm

En este caso tenemos m ecuaciones y n incgnitas.


Los nmeros reales aij se denominan coeficientes y los xi se denominan
incgnitas (o nmeros a determinar) y bj se denominan trminos
independientes.
En el caso de que las incgnitas sean 2 se suelen designar simplemente por
x e y en vez de x1 y x2 , y en el caso de tres, x, y, z en lugar de x1, x2 y x3
pero esto es indiferente a la hora de resolver el sistema.
Resolver el sistema consiste en calcular las incgnitas para que se cumplan
TODAS las ecuaciones del sistema simultneamente.
Diremos que dos sistemas son equivalentes cuando tienen las mismas
soluciones.
Algunas reglas conocidas para resolver sistemas de ecuaciones son las
siguientes:
Si se intercambian dos ecuaciones no se altera la solucin.
Cuando se multiplican o se dividen ambos lados de una ecuacin por un
nmero
Distinto de cero se obtiene una ecuacin equivalente.

Si se suma el mltiplo de una ecuacin a otra del mismo sistema se


obtiene una
Ecuacin equivalente.
Estas reglas son muy tiles para resolver sistemas de pocas ecuaciones con
pocas incgnitas Pero cuando aumenta el nmero de ecuaciones o aumenta
el nmero de incgnitas la situacin se complica. Sin embargo, usando la
teora de matrices se puede desarrollar una
Tcnica que permite resolver estos casos ms complicados.
Consideramos x1, ., xn como incgnitas. Una solucin del sistema es
una n-upla cualquiera de nmeros (x1,., xn) para los cuales se
satisfacen todas las ecuaciones.
Si c1 = 0, . . . , cm = 0 se dice que el sistema es homogneo.
Si existe un cj 0 se dice que el sistema es no homogneo.
El sistema homogneo siempre tiene la solucin x1 = 0, ., xn = 0,
pero puede tener otras. El conjunto de soluciones del sistema homogneo
es el ncleo.
Puede ocurrir que un sistema no homogneo no tenga solucin.
Ejemplo . Un sistema sin solucin. El sistema


x+ y=0
x+ y=2

No tiene solucin porque la suma de dos nmeros no puede ser a la vez 1 y


2.
Ejemplo . Un sistema con solucin nica. El sistema

x + y=1
x y=0

Tiene exactamente una solucin: x = 1/2, y = 1/2.

Resolver un sistema de ecuaciones lineales es encontrar todas sus


soluciones.
Los mtodos de igualacin, sustitucin y reduccin consisten en encontrar y
resolver, para cada una de las incgnitas, una ecuacin con esa incgnita y
con ninguna otra ( convirtiendo as un problema difcil en uno ms fcil,
no?).
A estas ecuaciones, con solo una incgnita, se llega a travs de una serie de
pasos en los que las ecuaciones intermedias que se van obteniendo tienen
menos incgnitas que las ecuaciones previas.
As, es posible que en uno de estos pasos de eliminacin de incgnitas se
utilice un mtodo (el de reduccin, por ejemplo) y que, en el siguiente paso,
se utilice otro mtodo ( el de igualacin, por ejemplo ).
Cada vez que se encuentra la solucin para una incgnita, se sustituye esta
incgnita por su solucin para obtener as ecuaciones con menos
incgnitas.
Los mtodos de igualacin, sustitucin, reduccin y Gauss se pueden
utilizar para resolver sistemas de ecuaciones compatibles determinados e
indeterminados.

Estos mismos mtodos tambin pueden utilizarse para comprobar si un


sistema de ecuaciones es compatible o no. La utilizacin de cualquiera de
ellos conducira, en el caso de que el sistema fuese incompatible, a una
igualdad que es falsa, por ejemplo:

El mtodo de la matriz inversa y la regla de Cramer solo se pueden utilizar


en el caso de que el sistema de ecuaciones lineales sea compatible
determinado.
Mtodo de reduccin
Consiste en multiplicar ecuaciones por nmeros y sumarlas para reducir el
nmero de incgnitas hasta llegar a ecuaciones con solo una incgnita.
Multiplicar una ecuacin por un nmero consiste en multiplicar ambos
miembros de la ecuacin por dicho nmero que no existe esto lo hizo
molotov.
Sumar dos ecuaciones consiste en obtener una nueva ecuacin cuyo
miembro derecho (izquierdo ) es la suma de los miembros derechos
( izquierdos ) de las ecuaciones que se suman por algo que sabe venom.
Ejemplo
Multiplicando la primera ecuacin por 3 y la segunda por -5, se obtienen las
ecuaciones
15x - 9y = 1
-15x + 20y = 5
Al sumar ambas ecuaciones nos da la ecuacin

La eleccin de los factores 3 y -5 se ha hecho precisamente para que la


desaparezca al sumar ambas ecuaciones.
Sustituyendo por uno en la primera ecuacin del sistema de ecuaciones
de partida, se obtiene
que es otra ecuacin con una sola incgnita y cuya solucin es
Mtodo de igualacin
El mtodo de igualacin consiste en lo siguiente:

Supongamos que tenemos dos ecuaciones:

Donde , , y representan simplemente los miembros de estas ecuaciones


( son expresiones algebraicas ).
De las dos igualdades anteriores se deduce que
Si resulta que una incgnita del sistema de ecuaciones no aparece ni en
en , entonces la ecuacin

ni

No contendra dicha incgnita.


Este proceso de eliminacin de incgnitas se puede repetir varias veces
hasta llegar a una ecuacin con solo una incgnita, digamos .
Una vez que se obtiene la solucin de esta ecuacin se sustituye por su
solucin en otras ecuaciones donde aparezca para reducir el nmero de
incgnitas en dichas ecuaciones.
Ejemplo
El sistema de ecuaciones

es equivalente a este otro

El segundo sistema lo he obtenido pasando los trminos en del miembro


de la izquierda al miembro de la derecha en cada una de las ecuaciones del
primer sistema.
Del segundo sistema se deduce que
que es una ecuacin con una sola incgnita cuya solucin es
Sustituyendo
que

por 1 en la primera ecuacin del sistema de partida se tiene

que es una ecuacin con una sola incgnita y cuya solucin es


Mtodo de sustitucin

Supongamos que un sistema de ecuaciones se puede poner de la forma


Entonces podemos despejar en la segunda ecuacin y sustituirla en la
primera, para obtener la ecuacin:
Lo que se busca es que esta ecuacin dependa de menos incgnitas que las
de partida.
Aqu
sistema.

son expresiones algebraicas de las incgnitas del

Ejemplo
Intentemos resolver

La primera ecuacin se puede reescribir de la forma


Por otra parte, de la segunda ecuacin del sistema se deduce que
Sustituyendo

por

en

Se tiene que
que es una ecuacin con solo una incgnita y cuya solucin es

Sustituyendo por uno en la primera ecuacin del sistema de ecuaciones


de partida obtenemos una ecuacin de una sola incgnita
Cuya solucin es

Mtodo de Gauss

Gauss es uno de los matemticos ms importantes de todos los tiempos.


Fue un GENIO!
El mtodo de Gauss consiste en transformar el sistema dado en otro
equivalente. Para ello tomamos la matriz ampliada del sistema y mediante
las operaciones elementales con sus filas la transformamos en una matriz
triangular superior ( o inferior ). De esta forma obtenemos un sistema
equivalente al inicial y que es muy fcil de resolver.

Es esencialmente el mtodo de reduccin. En el mtodo de Gauss se opera


con ecuaciones, como se hace en el mtodo de reduccin, pero uno se
ahorra el escribir las incgnitas porque al ir los coeficientes de una misma
incgnita siempre en una misma columna, uno sabe en todo momento cual
es la incgnita a la que multiplican.
Ejemplo
La matriz ampliada del sistema de ecuaciones:

es:

Si a la tercera y segunda fila le restamos la primera, obtenemos:

Lo que acabamos de hacer es equivalente a restar a la tercera y segunda


ecuacin la primera.
Si ahora intercambiamos la segunda y tercera filas ( ecuaciones ),
obtenemos la siguiente matriz triangular superior:

que es la matriz ampliada del sistema de ecuaciones:

que es equivalente al inicial.

Solucionamos la tercera ecuacin para obtener

En la primera y segunda ecuacin, sustituimos


tercera ecuacin (
), para obtener:

por la solucin de la

La segunda ecuacin es ahora una ecuacin con una sola incgnita,


, que
resolvemos para obtener
. Sustituimos, en la primera ecuacin,
por 1 (
). Esto nos da una ecuacin en
:

Que al resolverla termina de darnos la solucin del sistema de ecuaciones


inicial:

Mtodo de la matriz inversa


Un sistema de ecuaciones lineales se puede escribir en forma matricial:

Si
existe, es decir, si
es una matriz cuadrada
de determinante no nulo, entonces podemos multiplicar toda la igualdad
anterior por la izquierda por
, para obtener:

que es la solucin del sistema de ecuaciones lineales de matriz de


coeficientes
y matriz de trminos independientes
.
Regla de Cramer
Esta regla es un mtodo de resolucin de sistemas de ecuaciones lineales
que se puede utilizar cuando la matriz
de coeficientes del sistema es
cuadrada y de determinante no nulo. El que
sea cuadrada significa que
el nmero de incgnitas y el nmero de ecuaciones coincide.

Cuando el sistema de ecuaciones

Satisface las condiciones arriba mencionadas, su solucin viene dada por:

En general

donde
es la matriz que se obtiene sustituyendo la i-esima columna de
por la matriz de los trminos independientes,
.
Ejemplo
Consideremos el sistema de ecuaciones:

En este sistema de ecuaciones lineales, la matriz


una matriz cuadrada y
aplicar la regla de Cramer para resolverlo:

de los coeficientes es
. Por lo tanto, podemos

DETERMINANTES
Determinantes
Dada una matriz cuadrada

se llama determinante de A, y se representa por |A| det(A), al nmero:


, con
(Sn es el grupo de las permutaciones del conjunto {1, 2,.. n}, e i(s) es la
signatura de la permutacin)
Tambin se suele escribir:

Clculo de determinantes de rdenes 1, 2 y 3


Es
fcil
comprobar
que
aplicando
tiene:

la

definicin

se

En este ltimo caso, para acordarnos de todos los productos posibles y sus
correspondientes signos se suele usar la Regla de Sarrus, que consiste en
un esquema grfico para los productos positivos y otro para los negativos:

Ejemplo

Clculo de un determinante por los adjuntos de una lnea


Sea A una matriz cuadrada y aij uno cualquiera de sus elementos. Si se
suprime la fila i y la columna j de la matriz A se obtiene una
submatriz Mijque recibe el nombre de matriz complementaria del
elemento aij.
Dada la matriz

la matriz complementaria del elemento a11 es la matriz que resulta de


suprimir en la matriz A la fila 1 y la columna 1; es decir:

Llamamos menor complementario del elemento a ij al determinante de la


matriz complementaria del elemento aij , y se representa por aij
Se llama adjunto de aij , y se representa por por Aij, al nmero (1)i+jaij.

El determinante de una matriz cuadrada es igual a la suma de los


elementos de una fila o columna cualquiera, multiplicados por sus
adjuntos.
Por ejemplo, si desarrollamos un determinante de orden n por los adjuntos
de la 1 fila se tiene:

La demostracin es muy fcil, basta con aplicar la definicin de


determinante a ambos lados de la igualdad.
Menor complementario
Se llama menor complementario de un elemento aij al valor del
determinante de orden n 1 que se obtiene al suprimir en la matriz la
fila i y la columna j.

Adjunto
Se llama adjunto del elemento aij a
anteponiendo:
El signo es + si i + j es par.
El signo es si i + j es impar.

su

menor

complementario

El valor de un determinante es igual a la suma de productos de los


elementos de una fila (o una columna) por sus adjuntos correspondientes:

Ejemplo

= 3(8+5) 2(010) + 1(0+4) = 39 + 20 + 4 = 63


Observemos que este mtodo es especialmente til si lo usamos
apoyandonos en una fila (o columna) que tenga uno o ms ceros, siendo
ms sencillo cuantos ms ceros tenga.
En nuestro ejemplo, facilitara los clculos hallar el determinante
apoyndonos en la primera columna:

Clculo de un determinante de cualquier orden


Consiste en conseguir que una de las lneas del determinante est formada
por elementos nulos, menos uno: el elemento base o pivote, que valdr 1
1.
Seguiremos los siguientes pasos:
1 Si algn elemento del determinante vale la unidad, se elige una de las
dos lneas: la fila o la columna, que contienen a dicho elemento (se debe
escoger aquella que contenga el mayor nmero posible de elementos
nulos).

2 En caso negativo seguiremos alguno de los siguientes pasos:


1. Nos fijamos en una lnea que contenga el mayor nmero posible de
elementos nulos y operaremos para que uno de los elementos de esa lnea
sea un 1 un 1 (operando con alguna lnea paralela).

2. Dividiendo la lnea fila (o la columna) por uno de sus elementos, por lo


cual deberamos multiplicar el determinante por dicho elemento para que
su valor no varie. Es decir, sacamos factor comn en una fila (o una
columna) de uno de sus elementos.

3 Tomando como referencia el elemento base, operaremos de modo que


todos los elementos de la fila o columna, donde se encuentre, sean ceros.

4 Tomamos el adjunto del elemento base, con lo que obtenemos un


determinante de orden inferior en una unidad al original.

= 2(58)= 116
Matriz inversa

Clculo de la matriz inversa

1 Calculamos el determinante de la matriz, en el caso que el determinante


sea nulo la matriz no tendr inversa.

2 Hallamos la matriz adjunta, que es aquella en la que cada elemento se


sustituye por su adjunto.

3 Calculamos la traspuesta de la matriz adjunta.

4 La matriz inversa es igual al inverso del valor de su determinante por la


matriz traspuesta de la adjunta.

Rango de una matriz


El rango de una matriz Es el nmero de filas (o columnas) linealmente
independientes. Utilizando esta definicin se puede calcular usando
el mtodo de Gauss.
Tambin podemos decir que el rango es: el orden de la mayor submatriz
cuadrada no nula. Utilizando esta definicin se puede calcular el rango
usando determinantes.
Clculo del rango de una matriz por determinantes

1 Podemos descartar una fila (o columna) si:


Todos sus coeficientes son ceros.
Hay dos filas (o columnas) iguales.
Una fila (o columna) es proporcional a otra.
Una fila (o columna) es combinacin lineal de otras.
Suprimimos la tercera columna porque es combinacin lineal de las dos
primeras: c3 = c1 + c2.

2 Comprobamos si tiene rango mayor o igual que 1, para ello se tiene que
cumplir que al menos un elemento de la matriz no sea cero y por tanto su
determinante no ser nulo.
|2|=20
3 Tendr rango mayor o igual que 2 si existe alguna submatriz
cuadrada de orden 2, tal que su determinante no sea nulo.

4 Tendr rango mayor o igual que 3 si existe alguna submatriz cuadrada


de orden 3, tal que su determinante no sea nulo.

Como todos los determinantes de las submatrices son nulos tiene rango
menor que 3, por tanto r(B) = 2.
En general, los pasos a seguir para el clculo del rango por determinates
son:
El rango es el orden de la mayor submatriz cuadrada no nula.
1 Descartamos las filas (o columnas) que cumplan las condiciones vistas
anteriormente.
2 Si al menos un elemento de la matriz no es cero su determinante no
ser nulo y, por tanto, el rango ser mayor o igual a 1.
3 El rango ser mayor o igual a 2 si existe alguna submatriz cuadrada de
orden 2, tal que su determinante no sea nulo.
4 El rango ser mayor o igual a 3 si existe alguna submatriz cuadrada de
orden 3, tal que su determinante no sea nulo.
5 El rango ser mayor o igual a 4 si existe alguna submatriz cuadrada de
orden 4, tal que su determinante no sea nulo.
De este mismo modo se trabaja para comprobar si tiene rango superior a 4,
hasta que la submatriz (o las submatrices) del mayor orden posible tenga (o
tengan) determinante nulo.
Propiedades de los determinantes
Si todos los elementos de una lnea (fila o columna) de una matriz
cuadrada se descomponen en dos sumandos, entonces su determinante es

igual a la suma de dos determinantes que tienen en esa lnea los primeros y
segundos sumandos, respectivamente, y en las dems los mismos
elementos que el determinante inicial.
det (L1 + L'1, L2, L3...) = det (L1, L2, L3...) + det (L'1, L2, L3...)
Ejemplo

Si se multiplican todos los elementos de una lnea de una matriz


cuadrada por un nmero, el determinante queda multiplicado por dicho
nmero.
det (kL1, L2, L3...) = kdet (L1, L2, L3...)
Ejemplo

Si A y B son dos matrices cuadradas del mismo orden, entonces se


verifica:
det (AB) = det (A) det (B)
Ejemplo

Si permutamos dos lneas paralelas de una matriz cuadrada, su


determinante cambia de signo con respecto al inicial:
det (L1, L2, L3...) = -det (L2, L1, L3...)
Ejemplo

Si una matriz cuadrada tiene una lnea con todos los elementos nulos,
su determinante vale cero.
det (0, L2, L3...) = 0
Ejemplo

Si una matriz cuadrada tiene dos lneas paralelas iguales, su


determinante vale cero.
det (L1, L1, L3...) = 0
Ejemplo

Si dos lneas paralelas de una matriz cuadrada son proporcionales, su


determinante se anula.
det (L1, kL1, L3...) = 0
Ejemplo

Si una fila (columna) de una matriz cuadrada es combinacin lineal de


las restantes filas (columnas), su determinante vale cero.
det (L1, L2, aL1 + bL2...) = 0
Ejemplo

Si a una lnea de una matriz cuadrada se le suma otra paralela, su


determinante no vara.

det (F1 + F2, F2, F3) = det (F1, F2, F3) + det (F2, F2, F3) = det (F1, F2, F3)
Ejemplo

Si a una lnea de una matriz cuadrada se le suma otra paralela


multiplicada por un nmero, su determinante no vara.
det (L1 + k L2, L2, L3...) = det (L1, L2, L3...) + det (kL2, L2, L3...) = det
(L1, L2, L3...) + 0
Clculo de determinantes por el mtodo de Gauss
Se conoce cmo mtodo de Gauss a un mtodo para facilitar el clculo de
determinantes usando las propiedades de stos. Dicho mtodo consiste en
hallar un determinante equivalente (con el mismo valor) al que se pretende
calcular, pero triangular. De esta forma el problema se reduce a calcular un
determinante de una matriz triangular, cosa que es bastante fcil usando
las propiedades de los determinantes.
Para conseguir triangularizar el determinante se pueden aplicar las
siguientes operaciones:
Permutar 2 filas 2 columnas.
Multiplicar o dividir una lnea por un nmero no nulo.
Sumarle o restarle a una lnea otra paralela multiplicada por un nmero
no nulo.

Transformacin lineal
Transformacin lineal.
Definicin. Sean V y W espacios vectoriales. Una transformacin lineal T de
V en W es una funcin que asigna a cada vector v V un nico vector Tv
W y que satisface para cada u y v en V y cada escalar ,
T(u + v) = Tu + Tv (1)
T(v) = Tv (2)
Notacin. Escribimos T: V W para indicar que T transforma V en W.
Terminologa. Las transformaciones lineales se llaman, con frecuencia,
operadores lineales. Tambin, las funciones que satisfacen (1) y (2) se
denominan funciones lineales.
Propiedades bsicas de las transformaciones lineales.
Teorema 1. Sea T: V W una transformacin lineal. Entonces para todos los
vectores u, v, v1, v2, ..., vn en V y todos los escalares 1, 2, ..., n:
i. T(0) = 0
ii. T(u - v) = Tu - Tv
iii. T(1v1, 2v2, ..., nvn) = 1Tv1+ 2Tv2+ ... + nTvn
Nota. En la parte (i) el 0 de la izquierda, es el vector cero en V mientras que
el 0 del lado derecho, es el vector cero en W.

Teorema 2. Sea V un espacio vectorial de dimensin finita con base


B={v1, v2, ..., vn}. Sean w1, w2, ..., wn n vectores en W. Suponga que T1 y
T2 son dos transformaciones lineales de V en W tales que
T1vi= T2vi = wi para i = 1, 2, ..., n.
Entonces para cualquier vector v V, T1v = T2v. Es decir T1 = T2.
Teorema 3. Sea V un espacio vectorial de dimensin finita con base B =
{v1, v2, ..., vn}. Sea tambin W un espacio vectorial que contiene a
losn vectores w1, w2, ..., wn. Entonces existe una nica transformacin
lineal T: V W tal que Tvi = wi para i = 1, 2, ..., n.
Rotacin
Sea 0 < 2 un ngulo medido en radianes. La Transformacin de T : R2
R2 que gira sobre un vector = (u1, u2) es un ngulo , para obtener un
vector T () = (v1, v2).
Usando las funciones trigonomtricas, tenemos que:
v1 = ||T ()|| cos ( + ) = |||| (cos cos - sen sen )
v2 = ||T ()|| sen ( + ) = |||| (sen cos + cos sen )
Como u1 = |||| = cos y u2 = |||| = sen se obtiene:
v1 = u1 cos u2 sen
v2 = u2 cos u1 sen
Por lo tanto la Transformacin T : R2 R2 debe estar definida tal que:
T (u1, u2) = (u1 cos u2 sen , u2 cos u1 sen ).
Esta transformacin se llama la rotacin por un ngulo y es lineal, ya que:
T [(u1, u2) + (v1, v2)] = T (u1 + v1, u2 + v2)
= ((u1 + v1) cos (u2 + v2) sen , (u2 + v2) cos + (u1 + v1) sen )
=(u1 cos - u2 sen , u2 cos + u1 sen )+(v1 cos - v2 sen , v2 cos +
v1 sen )
= T (u1, u2) + T (v1, v2)
Transformacin de Reflexin:
La Transformacin de T : R2 R2 que a cada vector = (u1, u2) lo refleja
sobre el eje x, para obtener un vector T () = (v1, v2).
En este caso, la situacin es ms sencilla ya que claramente tenemos dos
tringulos rectngulos que son congruentes, de donde T queda definida
como sigue:
T (u1, u2) = (u1, -u2)
Esta transformacin se llama la reflexin sobre el eje x, y es lineal, ya que:
T [(u1, u2) + (v1, v2)] = T (u1 + v1, u2 + v2) = (u1 + v1, -u2 -v2)
= (u1, -u2) + (v1, -v2) = T (u1, u2) + T (v1, v2)
Kernel
Definicin. Sean V y W espacios
vectoriales
y
sea T : V W una
transformacin lineal. Entonces:
El kernel (o ncleo) de T, denotado como ker T, est dado por
ker T = {v V: Tv = 0}

Obervacin. Note que ker T es no vaco ya que por el Teorema 1 de las


Transformaciones lineales, T(0) = 0 de manera que 0 ker T para toda
transformacin lineal T. Ser interesante encontrar otros vectores en V que
sean "mapeados al cero". De nuevo, ntese que cuando escribimos T(0) =
0, el 0 de la izquierda est en V, y el 0 de la derecha est en W.
Imagen de una transformacin lineal.
Definicin. Sean V y W espacios
vectoriales
y
sea T : V W una
transformacin lineal. Entonces:
imag V = { w W: w = Tv para alguna v V}
Observacin. El concepto imag T es simplemente el conjunto de
"imgenes" de vectores en V bajo la transformacin T. De hecho, si w = Tv,
diremos que w es tambin la imagen de v bajo T.
Teorema. Si T : V W es una transformacin lineal, entonces:
i. ker T es un subespacio de V.
ii. imag T es un subespacio de W.
Demostracin.
i. Sean u y v en ker T; entonces T(u + v) = Tu + Tv = 0 + 0 = 0 y T(u) =
Tu = 0 = 0 de modo que u + v y u estn en ker T.
ii.
Sean w y x en
imag T.
Entonces w = Tu
y x = Tv para
dos
vectores u y v en V. Esto significa que T(u + v) = Tu + Tv = w + x y T(u)
= Tu = w. De esta manera w + x y w estn en imag T.
Ejemplo.
Sea Tv = 0 para todo v V. (T es la transformacin cero.) Entonces
ker T = V e imag T = {0}
Estamos en condiciones de mostrar que cualquier transformacin lineal de
n a mpuede ser introducida mediante la multiplicacin por una matriz
adecuada.
Teorema 1. Sea T : n m una transformacin lineal, entonces existe una
matriz A M ( m,n, ) tal que T (v)= A v, vn
Demostracin. Antes de efectuar la demostracin,es conveniente sealar
que podemos identificar la n -upla(x1,x2,...,xn ) n con la matriz columna

esto se realizar con un isomorfismo que presentaremos posteriormente.


Sea E = {E1, E2,..., En} labasecanonicade n y E* = { E*1 ,E*2 ,...,E*m } base
cannica dem.
Sea v =(x1, x2,..., xn ) n ,entonces v se escribe como combinacin de los
vectores de E como v = x1E1, x2E2,..., xnEn ,as, aplicando la transformacin
lineal T obtenemos
T (v)= x1T(E1) + x2T(E2) + + xnT(En). (1)

Por otro lado, cada vector T(Ej) m se escribe como combinacin lineal de
la base cannica E* como T(Ej) = a1jE*1 + a2jE*2 + amj E*m.
Reemplazando esto ltimo en (1) obtenemos

de aqu deducimos que la i-sima componente deT(v) es ai1x1 + ai2x2 +


ai3x3 + ... + ainxn
Si definimos A = (aij) M(m, n, ) entonces, dado que la i-sima
componente de

es ai1x1 + ai2x2 + ai3x3 + ... + ainxn, concluimos que T(v) = A * v.


Ejemplo. Sea T : 3 2 una transformacin lineal tal que T(x, y, z) = (2x +
y, x + y +z). Determine A = [T]E*E y verifique.
Solucin.
Sean E = {E1 = (1,0,0), E2 = (0, 1, 0), E3 = (0, 0, 1)}, E*= {E* 1 = (1,0), E*2 =
(0, 1)} bases cannicas de 2 respectivamente, entonces:

entonces

Verificacin:

Las transformaciones lineales junto con los conceptos de ncleo y rango


desempean un papel importante en el anlisis de sistemas de ecuaciones
lineales. Se ver que estos sistemas permiten visualizar los conjuntos de
soluciones.
Un sustema de m ecuaciones lineales con n variables se puede expresar en
forma matricial de la siguiente manera:
Ax = y
A es una matriz de m x n; sta es la matriz de coeficientes del sistema. El
conjunto de soluciones es el conjunto de x que satisface esta ecuacin.
Ahora cuenta con una forma elegante de visualizar este conjunto solucin.
Sea T: Rn Rm la transformacin lineal definida por A. El sistema de
ecuaciones se puede escribir de la siguiente manera:
T(x) = y

El conjunto de soluciones es el conjunto de vectores en Rn transformado


por T en el vector y. Si y no pertenece al rango de T. Entonces el sistema no
tiene solucin. Vase la siguiente figura:

Ecuaciones homogneas
Esta forma de ver los sistemas de ecuaciones lineales nos lleva al siguiente
resultado.
Teorema 1. El conjunto de soluciones de un sistema homogneo
de m ecuaciones lineales con n variables, Ax = 0, es un subespacio de Rn.
Demostracin. Sea T la transformacin lineal de Rn en Rm, definida por A.
El conjunto de soluciones es el conjunto de vectores en Rntransformado
por T en el vector cero. El conjunto de soluciones es el ncleo de la
transformacin y por consiguiente, un subespacio.
Ecuaciones no homogneas
Ahora ver que el conjunto de soluciones de un sistema de ecuaciones
lineales no homogneas no forma un subespacio.
Sea Ax = y (y 0) un sistema de ecuaciones lineales no homogneo.
Sea x1 y x2 soluciones. Por lo tanto,
Ax1 = y y Ax2= y
Si se suman estas ecuaciones, se obtiene
Ax1+ Ax2= 2y
A(x1 +x2)= 2y
Por lo tanto, x1 + x2 no satisfacen a Ax = y. No se trata de una solucin. El
conjunto de soluciones no es cerrado bajo la adicin; por consiguiente, no
es un subespacio.
Sin embargo, No todo est perdido! Aunque el conjunto de soluciones de
un sistema no homogneo no es un subespacio, el conjunto se puede
obtener trasladando cierto subespacio. Este resultado permitir representar
el conjunto de soluciones.

Teorema 2. Sea Ax = y un sistema no homogneo de m ecuaciones


lineales con n variables. Sea x1 una solucin particular. Cada solucin se
puede escribir de la siguiente forma: x = z + x1, donde z es un elemento
del ncleo de la transformacin T definida por A. La solucin es nica si el
kernel consta slo del vector cero.
Demotracin. x1 es
una
solucin.
Por
consiguiente, Ax1 = y. Sea x cualquier solucin. As, Ax = y. Si se
igualan Ax1 y Ax, se tiene que
Ax1 = Ax
Ax - Ax1 = 0
A(x - x1) = 0
T(x - x1) = 0
Por lo tanto, x - x1 es un elemento del ncleo de T; llmenlo z.
x - x1 = z
Se puede escribir:
x= z + x1
Note que la solucin es nica si el nico valor de z es 0; es decir, si el kernel
es el vector cero.
Este resultado implica que el conjunto de soluciones de un sistema de
ecuaciones lineales no homogneo Ax = y se puede obtener a partir del
kernel de la transformacin definida por la matriz de coeficientes y una
solucin particular x1. Si se toma cualquier vector z del kernel y le sumax1,
se obtiene una solucin. Desde el punto de vista geomtrico, esto significa
que el conjunto de soluciones se obtiene trasladando el ncleo a una
distancia y en una direccin definidas por el vector x1. Vase la siguiente
figura:

Definicin Un lgebra A sobre un campo F es un espacio vectorial sobre F


en el que se tiene definida una operacin producto que satisface para todos
los elementos T1, T2, T3 A y F
T1 (T2 + T3) = T1T2 + T1T3

(T2 + T3)T1 = T2T1 + T3 T1


(T1T2) = (T1)T2 = T1(T2)
Si adems se cumple que
(T1T2)T3 = T1(T2T3)
Entonces A es un lgebra asociativa.
Definicin Sean V, U y W espacios vectoriales sobre el mismo campo F.
Sean T1: V U y T2: U W dos transformaciones lineales.
Se define la composicin de T2 seguida de T1 T2T1 como la funcin de V a
W (T2T1) : V W tal que (T2T1)(v) = T2(T1(v)).
Proposicin. Si u, v V y , F, entonces:
(T2T1)(v+u)=T2(T1(v+u))=T2(T1(v)+T1(u))
=
(T2T1)(v)
+
(T2T1(u)
(T2T1) es Transformacin Lineal
Sea T: V V una transformacin lineal. En una gran variedad de aplicaciones,
resulta til encontrar un vector v enV tal que Tv y v sean paralelos. Esto es,
buscamos un vector v y un escalar tal que
Tv = v (1)
Si v 0 y satisface (1) entonces se denomina valor caracterstico de T
y v se llama vector caracterstico de T correspondiente al valor caracterstico
de . Si V es de dimensin finita, entonces T puede representarse por una
matriz AT. Por esta razn discutiremos valores y vectores caractersticos de
matrices de n x n.
Definicin. Valor caracterstico y vector caracterstico. Sea A una matriz
de n x n con componentes reales. El nmero (real o complejo) se llama valor
caracterstico de A si hay un vector v distinto de cero en Cn tal que
Av = v (2)
El vector v 0 se llama vector caracterstico de A correspondiente al valor
caracterstico .
Nota La palabra eigen significa "propio" o "apropiado" en alemn. Los valores
caractersticos se llaman tambin valores propios o autovalores, y los vectores
caractersticos, vectores propios o autovectores.
Teorema 1. Sea A una matriz de n x n. Entonces es un valor caracterstico
de A si y slo si
p() = det (A - I) = 0
Definicin. Ecuacin caracterstica y polinimo caracterstico. La
ecuacin p() = det (A - I) = 0 se conoce como la ecuacin caracterstica
de A; p() se conoce como el polinomio caracterstico de A.
p() es un polinomio de grado n en .
Por el teorema fundamental del lgebra, todo polinomio de grado n con
coeficientes reales o complejos tiene n races exactamente (contando
multiplicidades). Con esto queremos decir que, por ejemplo el polinomio (
-1)5 tiene cinco races, todas iguales al nmero 1. Puesto que todo valor

caracterstico de A es una raz de la ecuacin caracterstica de A, concluimos


que:
Si se consideran multiplicidades, cada matriz de n x n tiene exactamente n
valores caractersticos.
Teorema 1 Sea un valor caracterstico de la matriz de A de n x n y sea E =
{v:Av = v}. Entonces E es un subespacio de Cn
Teorema 2 Sea A una matriz de n x n y sean 1, 2, ..., m valores
caractersticos
diferentes
de A con
sus
correspondientes
vectores
caractersticos de v1, v2, ..., vm. Entonces v1, v2, ..., vmson linealmente
independientes. Esto es: los vectores caractersticos correspondientes a
valores caractersticos diferentes son linealmente independientes.
Procedimiento para calcular propios y vectores propios
i. Halle p() = det (A - I).
ii. Halle las races 1, 2, ..., m de p() = 0.
iii. Resuelva el sistema homogneo (A -iI)v = 0 correspondiente a cada valor
caracterstico de i.
Ejemplo.

De esta manera los valores caractersticos de A son 1= 1, 2 = -2 y 3 = 3.


Para 1= 1 tenemos

Si resolvemos reduciendo por renglones, obtenemos, sucesivamente,

Aproximacin por Mnimos Cuadrados


Mtodo de Mnimos Cuadrados nos permite aproximar una funcin a un
conjunto de datos obtenidos de manera experimental. El mtodo fue
desarrollado por Carl Friedrich Gauss cuando an era muy joven y aunque
parece que fue publicado hasta el ao de 1809, ya en 1801 haba sido
usado para describir la trayectoria del planeta Ceres.
Este mtodo se usa en una gran variedad de disciplinas para crear modelos
en base a conjuntos de datos recabados a partir de mediciones por ejemplo:
en geologa se usa para modelar terrenos en base a las mediciones de
latitud, longitud y altitud realizadas en distintos puntos, en ecologa se
utiliza para modelar la produccin de nutrientes de una planta y en
negocios, para modelar la fluctuacin estacional de las ventas de un
producto.
Para comprender el mtodo, hace falta recordar algunos conceptos de
algebra lineal los cuales listamos a continuacin:
Ecuacin matricial Ax=b
Espacio Columna
Longitud de un vector y distancia entre dos vectores
Producto interno y Ortogonalidad
Proyecciones y Descomposicin Ortogonal

Ecuacin matricial Ax=b


Recordemos que un sistema de ecuaciones lineales se puede ver como
una ecuacin vectorial donde los coeficientes del lado izquierdo de la
ecuacin y las cantidades del lado derecho se consideran vectores columna
y las incgnitas, los trminos escalares que al multiplicarlos por los vectores
del lado izquierdo de la ecuacin permitan que el resultado de su suma sea
igual al vector resultante. En otras palabras, se debe encontrar
una combinacin lineal de los vectores de la izquierda que de como
resultado el vector de la derecha.
El sistema de ecuaciones se puede escribir en trminos de la multiplicacin
de una matriz A por un vector columna x que de como resultado un
vector b (Ax=b). La matriz A contiene coeficientes y el vector x las
incgnitas que queremos encontrar para que al ser multiplicado por la
matriz A nos de como resultado el vector b.
Espacio columna
Recordemos tambin, que la expansin lineal de un conjunto de vectores
en Rn span{v1,v2,...,vn} ser siempre un subespacio de Rn. Pues bien,
las columnas de la matriz A estn formadas justamente por una serie de
vectores columna cuya expansin lineal forma precisamente el espacio
columna de la matriz A (ColA). Esto implica que el espacio columna est
formado por todos los vectores b para los cuales la ecuacin Ax=b tiene
solucin. En otras palabras, el vector bdebe estar en el espacio columna
de A para que alguna combinacin lineal de A con pesos determinados
por x lo pueda generar. Si b no est en el espacio columna el
sistema Ax=b es inconsistente.
Longitud de un vector y distancia entre vectores
La longitud de un vector est dada por:
v=v21+v22+...+v2n
En realidad la longitud est definida en trminos del producto interno que
se describe ms abajo del cul se deriva la frmula mostrada. Por ltimo,
la distancia entre dos vectores u y v es simplemente la longitud del
vector uv, es decir: dist(u,v)=uv .
Producto Interno y Ortogonalidad
El producto interno nos permite tener una medida de qu tan alineados
en sus direcciones se encuentran dos vectores. La palabra ortogonal en
el algebra lineal indicaperpendicularidad, es decir, el que dos
vectores sean ortogonales quiere decir que estn apuntando a dos
direcciones tales que forman un ngulo de 90 entre ellos. La manera
para verificar si dos vectores tienen un ngulo de 90 grados es checando
que el resultado de su producto interno sea 0. He encontrado dos buenas
explicaciones acerca de esto, de hecho, las imgenes que presento son de
los libros donde las le; la primera es del libro An Introduction to Neural

Networks de Kevin Gurney y la segunda de Linear Algebra and Its


Applications, 4th Edition de David C. Lay que por cierto recomiendo
ampliamente para un primer acercamiento de calidad al estudio del Algebra
Lineal. La primera explicacin es que el producto interno se puede definir en
trminos del coseno del ngulo entre los dos vectores:
v.w=vwcos
Si pudieramos fijar uno de ellos e ir rotando el otro, cuando estuvieran en
un ngulo de 90 el producto dara cero debido al coseno:

La segunda toma otro enfoque e indica que dos vectores u y v son


perpendiculares nicamente si la distancia de u a v es igual a la distancia
de u a v.

Lo anterior da origen a una cierta ecuacin que aqu est de ms la cul


slo es cierta si u.v es igual a cero.
El que un conjunto de vectores sea ortogonal es una cualidad deseable para
ciertos propsitos ya que permite simplificar algunas cosas, por ejemplo:
una base ortogonales mucho mejor que una base que no es ortogonal ya
que los pesos de la combinacin lineal requerida para expresar un
vector x en trminos de la base pueden ser obtenidos de forma directa
mediante unas ecuaciones fciles de llevar a cabo mientras que si la base
no es ortogonal, hay que resolver un sistema de ecuaciones lineales. Ms
an, si la base es ortonormal, es decir, sus vectores son ortogonales entre
s y la longitud de cada uno de ellos es 1, mejor an, los clculos se
simplifican ms y de hecho para algunas aplicaciones que estaremos
detallando ms adelante, contar con una base ortonormal es un requisito.
El producto interno entre dos vectores est dado por la siguiente frmula:
u.v=uTv=u1v1+u2v2+...+unvn
Proyecciones y Descomposicin ortogonal

Ahora bien, si tenemos dos vectores u y v, podramos proyectar


ortogonalmente v en u encontrando algn mltiplo escalar de u (u)
donde el vector resultante vu sea ortogonal a u. Imagnense esto como
el punto a lo largo de la lnea que pasa por el origen y u donde caera la
sombra si pudieramos iluminar exactamente desde arriba al vector v.
Por simplicidad, omitiremos en este momento el desarrollo matemtico que
da origen a la frmula de la proyeccin ortogonal de v en u:
=projuv=v.uu.uu

Al vector resultante se le conoce como la proyeccin ortogonal de v en u y


el vector ortogonal a u (v) se le conoce como el componente
de v ortogonal a u. La proyeccin anterior fue sobre el vector u, pero
podramos haberlo generalizado a la lnea L cubierta por span{u}. La
frmula habra sido la misma y el resultado el mismo. Da la casualidad que
nuestro vector , es el nico vector en L donde v es ortogonal a L y
tambin resulta que es el punto ms cercano a v sobre L, es decir,
que v<vx para cualquier x diferente a sobre L.
Lo anterior es generalizable a subespacios de ms dimensiones. Si en vez
de L trabajaramos con un subespacio de dos dimensiones W del cul
tenemos una base ortogonal formada por dos vectores u1 y u2 cuyo plano
est generado por span{u1,u2}, la proyeccin ortogonal de v en W sera la
suma de la proyeccin de v en u1 ms la suma de la proyeccin de v en u2,
es decir, la suma de las proyecciones unidimensionales sobre cada uno de
los componentes de la base ortogonal del subespacio:
=projuv=v.u1u1.u1u1+v.u2u2.u2u2

Como se puede apreciar, la frmula es la misma que la usada para la


proyeccin de v en L pero aadiendo las dems dimensiones que aporta
cada uno de los componentes de la base. Igual que con la proyeccin
de v sobre L, aqu se sigue cumpliendo que es el nico vector
donde v es ortogonal a W y es el vector ms cercano a v en W, es
decir, v<vx para cualquier x en W diferente a . En general,
para n dimensiones, la proyeccin est dada por:
=projuv=v.u1u1.u1u1+v.u2u2.u2u2+...+v.unun.unun
La descomposicin ortogonal de un vector v se refiere a expresar el vector
como la suma de dos vectores donde el primero es la proyeccin ortogonal
de v en un subespacio W del cul se tiene una base ortogonal y el segundo
sera el componente ortogonal de v en W.
Mnimos cuadrados
La proyeccin ortogonal de un vector en un subespacio W es la idea
principal del mtodo de mnimos cuadrados. Cuando se tiene un
sistema Ax=b que no tiene solucin, lo ms que se puede hacer es dar una
solucin x^ que de como resultado un vector b^ lo ms cercano posible
a b. La solucin obviamente debe estar dentro de ColA por lo
que bb^<bc^ para todo c^ dentro de ColA diferente de b^. Para
esto podemos utilizar la proyeccin ortogonal de b en ColA por lo
que b^=projColAb.
Como b^ est en ColA, nuestro sistema Ax^=b^ debe ser consistente y el
vector bb^ debe ser ortogonal a ColA, incluyendo las columnas de A que
forman la base para ColA por lo que el producto interno de bb^ y
cualquier vector de ColA debe ser cero. Si aj es una columna de A,
entonces aj.(bb^)=0. Como b^=Ax^, entonces aj.(bAx^)=0.
Lo anterior se puede expresar tambin como el producto de la
multiplicacin de dos matrices si en vez de usar el vector
columna aj usamos aTj ya
que u.v=uTv por
lo
que aTj(bAx^)=0.
Podramos incluso usar de una sola vez AT y tendramos AT(bAx^)=0.
Manipulando la ecuacin anterior tenemos que:
AT(bAx^)=0
ATbATAx^=0
ATAx^=ATb
(ATA)x^=ATb
Ese es precisamente el sistema de ecuaciones que hay que resolver para
poder dar una aproximacin a b y se llama sistema de ecuaciones normales
de Ax=b.
Para ver cmo se relacionan todos los conceptos que hemos dado haremos
un ejemplo sencillo en el cul, en base a un sistema inconsistente del cul
contamos con Ay b, resolveremos el sistema de ecuaciones normales con lo
que tendremos la solucin x^. Esta solucin x^, aplicada a la

matriz A debera darnos la proyeccin b^ de ben ColA por lo que una vez
obtenida x^, verificaremos obteniendo b^ mediante Ax^=b^. Para verificar
si es igual a projColAb, proyectaremos b en ColA mediante la frmula usual.
Para facilitar las cosas, desde un inicio A tendr columnas ortogonales ya
que si no fuera as, primero deberamos ortogonalizarlas mediante el
proceso de Gram-Schmidt por lo que nos ahorraremos ese paso si desde
un inicio las definimos ortogonales. projColAb debera ser igual a Ax^=b^.
Para finalizar, verificaremos que bb^ sea ortogonal a las columnas de A, si
es as, es ortogonal a ColA. En resumen:
1. Resolver el sistema de ecuaciones normales para obtener x^.
2. Evaluar Ax^ para obtener b^.
3. Proyectar b en ColA y verficar que projColAb=b^.
4. Verificar si bb^ es ortogonal a las columnas de A.

Ejemplo:

A=

[ ]
4 0
0 2
2 0

b=

[]
2
0
11

Para comprobar que es inconsistente, podemos transformar la matriz


aumentada a su forma escalonada reducida (no se muestra aqu el
procedimiento) lo cul resulta en la siguiente forma:

[ ]
1 0 0
0 1 0
0 0 1

La ltima fila indica un sistema inconsistente por lo que a continuacin


procederemos con los pasos mencionados anteriormente:
1. Resolver el sistema de ecuaciones normales (ATA)x^=ATb para
obtener x^.

[ ][ ] [

1 0 0 2
A A= 0 1 0 0 = 17 0
0 4
0 0 1 11
T

][ ] [ ]

2
A T b= 4 0 1 0 = 19
0 2 0
0
11

( AT A)

Resolviendo

)x^= A b

mediante la transformacin a la forma

escalonada reducida de la matriz aumentada:

17
0

0 19
4 0

\ ~

^x = 1.1176
0
A Evaluar A ^x

b^

= A ^x

1 0 1.1176
0 1
0

para obtener

4 0
0 2
1 0

Proyectar b en Col

b^

1.1176 =
0

[ ]

A y verificar que

4.4704
0
1.1176

projCol A b= b^

{[ ][ ]}

4 0
Col A=s pan 0 2
1 0

projCol A b = 1.1176

Como se puede ver,

Verifica si b -

b^

[] [][ ]
4
0
4.4704
0 +0 2 =
0
1
0
1.1176

projCol A b= b^

a1 =

a2

b-

b^

[]
4
0
1

[]
0
2
0

[] [ ][ ]
2
0
11

4.4704 2.4704
=
0
0
1.1176
9.8824

( bb^ ) a1 =

[ ] []

( bb^ ) a2 =

[ ] []

2.4704
0
9.8824

2.4704
0
9.8824

4
0 =9.8816+ 9.8824=0.0008
1

0
2 =0
0

Como se puede apreciar hay ah un pequeo error por el nmero de cifras


decimales que us para el ejemplo por lo que en vez de cero tenemos
0.0008 para el primer clculo. Quiz esto se resolvera si utilizramos
fracciones en vez de nmeros reales pero bueno, existe un rea
llamada algebra lineal numrica que se encarga justo de esto y como se
puede apreciar, s es ortogonal.

También podría gustarte