Está en la página 1de 9

Carrera: UAX

Asignatura: Matemáticas
Fecha:
Página 1 de 9

Álgebra para ingenieros de la


Universidad Alfonso X
1-Matrices y sistemas de ecuaciones lineales

Operaciones con matrices:

 a 11 a 12 L a1n   b11 b12 L b 1q 


   
B=  21
L b2q 
A=  a 21 a 22 L a 2n  b b 22
M M M M  M M M M 
   
a L a mn   b p1 L b pq 
 m1 a m2  b p2

Suma:
- Las matrices a sumar tienen que tener la misma dimensión (m=p, n=q).

 a 11 + b11 a 12 + b12 L a 1n + b1 n 
 
A+B =  a 21 + b 21 a 22 + b 22 L a 2n + b 2n 
M M M M 
 
a + b a m 2 + bm 2 L a mn + b mn 
 m1 m1

Producto por un número (λ):

 λ a 11 λ a 12 L λ a1n 
 
λA=Aλ=  λa 21 λa 22 L λa 2 n 
M M M M 
 
 λa λa m2 L λ a mn 
 m1

Producto de matrices:

- El producto de matrices no es conmutativo (en ocasiones AB≠BA).


- Si multiplicamos AB, A tiene que tener la misma cantidad de columnas que B de filas
(n=p).
- La matriz resultante de la multiplicación tiene la misma cantidad de filas que A y de
columnas que B (dimensión de AB es igual a m×q).

DELTA-MASTER c/ General Ampudia 16, 28003 MADRID ( 915351932 915333842


Carrera: UAX
Asignatura: Matemáticas
Fecha:
Página 2 de 9

AB=
 a 11 b11 + a 12 b 21 + L + a 1n b n 1 a 11 b12 + a 12 b 22 + L + a1 n b n 2 L a 11 b1 q + a 12 b 2 q + L + a 1n b nq 
 
 a 21 b11 + a 22 b 21 + L + a 2 n b n 1 a 21 b12 + a 22 b 22 + L + a 2 n b n 2 L a 21 b1 q + a 22 b 2 q + L + a 2 n b nq 
 M M M M 
 
 a m1 b 11 + a m 2 b 21 + L + a mn b n 1 a m 1 b12 + a m 2 b 22 + L + a mn b n 2 L a m 1 b1 q + a m 2 b 2 q + L + a mn b nq 

Traza de una matriz:

-La matriz a la que se halla la traza tiene que ser cuadrada (n=m).
-La traza es la suma de los elementos de la diagonal.

traza(A)= a11 + a 22 L a nn

Transposición de matrices:

-La transposición es el simple cambio de filas por columnas.

 a 11 a 21 L a n1 
 
A =  a 12
T a 22 L a n2 
M M M M 
 
a L a nn 
 1n a 2n

Tipos de matrices

Matriz fila: matriz con una sola columna (m×1).


Matriz columna: matriz con una sola fila (1×n):
Matriz cuadrada: matriz con la misma cantidad de filas que de columnas (n=m).
Matriz rectangular: matriz con un número diferente de filas que de columnas (n≠m).
Matriz nula: Matriz en la que todos sus elementos son ceros.
Matriz triangular superior (inferior): matriz cuadrada en la cual todos los elementos que
están por debajo (arriba) de la diagonal son ceros.
Matriz diagonal: matriz cuadrada en la cual son nulos los elementos por debajo y por arriba
de la diagonal.
Matriz regular: matriz que se puede invertir.
Matriz identidad: matriz diagonal en la que los elementos de la diagonal son unos.
Matriz simétrica: matriz que es igual a su transpuesta (A= AT ).

DELTA-MASTER c/ General Ampudia 16, 28003 MADRID ( 915351932 915333842


Carrera: UAX
Asignatura: Matemáticas
Fecha:
Página 3 de 9

Matriz antisimétrica: A=- AT .


Matriz ortogonal: AT = A −1 .
Matriz idempotente: A 2 = A.
Matriz nilpotente: si existe un n tal que A n = O (O matriz nula).

Propiedades de los distintos tipos de matrices

- (A + B )T = A T + BT
- (AB )T = B T A T
- (AB) −1 = B −1 A −1
- IA=AI=A (I es la matriz identidad)
- OA=AO=O (O es la matriz nula)

Determinantes

- El determinante solo se le halla a una matriz cuadrada.

Determinantes de matrices de dimensión 2:

a b a b
A=   ,|A|= = ad − cb
c d  c d

Determinantes de matrices de dimensión 3:

 a1 b1 c1 
 
A=  a 2 b2 c 2  ,|A|= a1b 2 c3 + a 3b1c 2 + a 2 b3 c1 − (a 3b 2 c1 + a 2 b1c 3 + a1b3 c 2 )
a c 3 
 3 b3

Determinantes de orden mayor que tres:

Menor correspondiente al elemento ai j ,M i j: es el determinate formado al eliminar


la fila i y la columna j.

Adjunto al elemento aij : (-1)i+j M ij .

Determinante: cogemos cada elemento de una fila o columnas lo multiplicamos por su


adjunto y lo sumamos.

DELTA-MASTER c/ General Ampudia 16, 28003 MADRID ( 915351932 915333842


Carrera: UAX
Asignatura: Matemáticas
Fecha:
Página 4 de 9

Propiedades de los determinantes:

• |AT |=|A|
• |AB|=|BA|
• |A-1 |=1/|A|
• |A|=-|B|, siendo B la matriz formada al intercambiar dos filas o columnas
• |A|=0, si A tiene dos filas o columnas iguales, proporcionales o que una dependa
linealmente de las otras.
• |B|=k|A|, si todos los elementos de B son iguales a los de A menos una fila o columna
que se a multiplicado por k.

Matriz inversa

−1
- La matriz A es la matriz inversa de A si AA -1 = A -1 A = I
- La matriz A tiene inversa si y sólo si su determinante es distinto de cero.

Matrices semejantes
- Dos matrices A y B cuadradas de orden n son semejantes si existe una matriz P regular tal
que B=PAP -1 .

Calculo de la matriz inversa

(adjA)t
-1
- A = , donde la matriz adjA es la matriz formada por los elementos adjuntos
|A|
de A.
- Otra manera de calcular la inversa de A es utilizando el método de Gauss- Jordan

Sistemas de ecuaciones lineales

Se denomina sistema de ecuaciones lineales de m ecuaciones con n incógnitas a:

a11x1 + a12 x1 + ... + a1n x1 = b1


a21x1 + a22 x1 + ... + a2 n x1 = b2
..........................................
am1x1 + am 2 x1 + ... + amn x1 = bm

Forma matricial Ax=b, donde

DELTA-MASTER c/ General Ampudia 16, 28003 MADRID ( 915351932 915333842


Carrera: UAX
Asignatura: Matemáticas
Fecha:
Página 5 de 9

 a11 a12 .... a1n   x1   b1 


     
a a22 .... a2 n  x2  b
A=  21 , x=  , b=  2 
 M .... .... M  M   M 
 a 
  
  b 
 m1 am 2 .... amn   xn   m

Clasificación de los sistemas

- Sistema compatible determinado: son los que tienen solución y es única.


- Sistema compatible indeterminado: son los que tienen infinitas soluciones.
- Sistema incompatible: son los que no tienen ninguna solución.

Rango de una matriz: orden del mayor determinante no nulo que se puede formar apartir de
la matriz.

Teorema de Rouché -Frobenius

 a11 a12 .... a1n b1 


 
%=  a 21 a 22 .... a 2 n b2 
Sea la matriz ampliada A
 M .... .... M M 
 
 am1 am 2 .... amn bm 
- Si rang A ≠ rang A % entonces el sistema es incompatible.
- Si rang A = rang A % =n entonces el sistema es compatible determinado.
- Si rang A = rang A % < n entonces el sistema es compatible indeterminado.

Resolución de sistemas de ecuaciones

- Sistema de Cramer (compatible determinado) x = A -1b .

 a11 ... a1i −1 b1 a1i +1 ... a1n 


a ... a2i −1 b2 a2i +1 ... a2 n 
 21
 M ... M M M ... M 
 a ... ann 

- Regla de Cramer xi =  n1 ... ani− 1 bn ani+ 1
|A|

- Otro método es el de eliminación de Gauss-Jordan.

DELTA-MASTER c/ General Ampudia 16, 28003 MADRID ( 915351932 915333842


Carrera: UAX
Asignatura: Matemáticas
Fecha:
Página 6 de 9

2-Espacios vectoriales

Definición

Diremos que un conjunto V es un espacio vectorial sobre un cuerpo K si hay definidas dos
operaciones:
1- una ley interna, V×V→V, (x , y) →x+y, que denominamos suma de vectores
2- una ley externa K ×V→V, (α ,y) →α y, que denominamos producto por un escalar
de manera que verifican las siguientes propiedades:

1- x+y=y+x (conmutativa)
2- (x+y)+z=x+(y+z) (asociativa)
3- ∃0 ∈ V / x+ 0= x, ∀ x∈ V (elemento neutro)
4- ∀x ∈ V, ∃ - x ∈ V / x + ( - x ) = 0 (elemento opuesto)
5- (α+β)x=αx+βx
6- α (x+y)= αx+αy
7- (αβ)x=α(β x)
8- 1x=x

∀α , β ∈ ¡ , x,y ∈ V

Combinación lineal: Sea {x 1 , x 2 ,..., x n } ∈ V y {a 1 , a 2 ,..., a n }∈ K se dice que la operación


α 1x 1 + α 2 x 2 + ... + α n x n forma una combinación lineal de dichos vectores.

Dependencia lineal: Se dice que {x 1 , x 2 ,..., x n } ∈ V es un conjunto linealmente dependiente


si ∃ {a 1 , a 2 ,..., a n }∈ K con al menos α i ≠ 0 , en el que α 1x 1 + α 2 x 2 + ... + α n x n =0.

Independencia lineal: Se dice que {x 1 , x 2 ,..., x n } ∈ V es un conjunto linealmente


dependiente de V si al ser α 1x 1 + α 2 x 2 + ... + α n x n =0 es necesario que a 1 = a 2 = ... = a n = 0 .

Sistema generador: Se dice que {x 1 , x 2 ,..., x n } ∈ V , forma un sistema generador de V si


∀x ∈ V , ∃ {a 1 , a 2 ,..., a n }∈ K /x = α 1x 1 + α 2 x 2 + ... + α n x n .

Base de un sistema generador: Se dice que B = {x 1 , x 2 ,..., x n } forma una base de V si se


cumple, que es un sistema generador de V y un conjunto linealmente independiente.

Coordenadas de un vector en una base dada: Sea B = {x 1 , x 2 ,..., x n } una base de V, y sea
x ∈ V ; se dice que ( a 1 , a 2 ,..., a n ) ∈ K n son las coordenadas de x en la base B si se cumple: x
= α 1x 1 + α 2 x 2 + ... + α n x n .

Cambio de base: Sean B = {x 1 , x 2 ,..., x n } y B1 = {y 1 , y 2 ,..., y n } dos bases de un espacio


vectorial V. Se dice ecuaciones del cambio de base a las que surgen de hacer

DELTA-MASTER c/ General Ampudia 16, 28003 MADRID ( 915351932 915333842


Carrera: UAX
Asignatura: Matemáticas
Fecha:
Página 7 de 9

α 1x 1 + α 2 x 2 + ... + α n x n = α 1 y 1 + α 2 y 2 + ... + α 1n y n siendo ( a 1 , a 2 ,..., a n ) y


1 1

( a 11 , a 12 ,..., a 1n ) las coordenadas de x en las bases B y B1 respectivamente.

Dimensión de V: numero de vectores que forman una base V.

Subespacio vectorial: Sea S un subconjunto de vectores de V, se dice que forma un


subespacio vectorial de V si en él se verifican: ∀x, y ∈ S y αx + βy ∈ S (el elemento neutro
siempre tiene que pertenecer a S).

Operaciones entre subespacio: Sean S1 y S2 dos subespacio de V, se dice:

- Suma. S1 + S2 = S1 ∪ S2 , es un subespacio de V, donde una base de S1 + S2 esta


formada por una cantidad maximal de vectores linealmente independiente del conjunto
de vectores formado al unir una base de cada uno de los subespacio.
- Intersección. S1 ∩ S2 , es un subespacio de V en el que si x ∈ S1 ∩ S2 entonces x ∈ S1
y x ∈ S2 .
- Suma directa. S1 ⊕ S2 , se dice si dim(S1 ∩S2 )=0
- dim(S1 + S2 )+dim(S1 ∩ S2 )=dim(S1 )+dim(S2 ).

3-Espacios vectoriales euclídeos

Producto interior: a cada par de vectores se le asigna un número real <u,v> que satisface:
1- < au1 + bu2 , v >= a < u1 , v > +b < u 2 , v > (linealidad)
2- <u,v>=<v,u>(simetría)
3- <u,v>≥0, <u,u>=0⇔u=0 (definida positiva)

Espacio euclideo: todo espacio vectorial en el que se le defina un producto escalar.

Longitud de un vector u: ||u||= < u, u > .


Desigualdad de Cauchy – Schawarz: < u , v > ≤ || u || ⋅ || v || .
< u,v >
Relación trigonométrica: cos(θ ) = , donde θ es el ángulo entre los vectores.
|| u || ⋅ || v ||
Ortogonalidad: dos vectores son ortogonales si su producto interno es igual a cero.

Complemento ortogonal: sea S un conjunto del espacio vectorial V, definimos complemento


ortogonal de S a:
S ⊥ = {v ∈ V :< u,v >= 0∀u ∈ S} , S ⊥ es un subespacio vectorial de V.
-Si S es un subespacio de V,V =S⊕ S ⊥ .
Conjuntos ortogonal: un conjunto es ortogonal si todos los elementos son ortogonales entre
si.
Conjuntos ortonormal: un conjunto es ortonormal si todos los elementos son ortogonales
entre si y la longitud de cada uno de ellos es uno.

DELTA-MASTER c/ General Ampudia 16, 28003 MADRID ( 915351932 915333842


Carrera: UAX
Asignatura: Matemáticas
Fecha:
Página 8 de 9

-Todo conjunto ortogonal es linealmente independiente.

< V, W >
Proyección: la proyección del vector V en W es cW donde c = (c es llamado
|| W || 2
coeficiente de Fourier).

Proceso de ortonalización (Gram-Schmidt): Sea el conjunto de vectores {V1 ,V2 ,...,Vn } que
queremos ortogonalizar, el proceso de ortogonalización es el siguiente:
W1 = V1
< V2 , W1 >
W2 = V2 − W1
|| W1 || 2
< V3 , W1 > < V3 , W2 >
W3 = V3 − 2
W1 − W2
|| W1 || || W2 || 2
.................... ............................................
< Vn , W1 > < Vn , Wn−1 >
Wn = Vn − 2
W1 − ... − Wn−1
|| W1 || || Wn −1 || 2

Representación del producto interno en una base {V1 ,V2 ,....Vn }:


 < V1 , V1 > < V1 , V2 > ... < V1 ,V n > 
 
 < V2 , V1 > < V2 , V2 > ... < V 2 ,V n > 
 M M ... M 
 
 < V , V > < V , V > ... < V ,V > 
 n 1 n 2 n n 

4-Aplicaciones lineales
Aplicación lineal: sean V y W dos espacios vectoriales, decimos que la aplicación
f : V → W ∀x ∈ V, ∃ y ∈ W tal que y = f ( x) es lineal si
f (x + y) = f (x ) + f (y )
f (α x) = α f (x )

-A toda aplicación lineal se le puede asociar una matriz y esta depende de las bases a escoger
en los espacios V y W.

Endomorfismo: W=V.

Núcleo: se dice núcleo o Ker de f a: Ker(f)={ x ∈ V : f (x ) = 0 }.


Imagen: se dice que imagen de f :Im(f) {y ∈ W : ∃x ∈ V / f (x ) = y} .
-dim(Ker(f))+dim(Im(f))=dim(V).
Inyectiva: Ker(f)=0.(f es un monomorfismo)
Sobreyectiva: Im(f)=W . ( f es epimorfismo)

DELTA-MASTER c/ General Ampudia 16, 28003 MADRID ( 915351932 915333842


Carrera: UAX
Asignatura: Matemáticas
Fecha:
Página 9 de 9

Biyectiva: aplicación inyectiva y sobreyectiva. (f es un isomorfismo)

5-Diagonalización

Autovector: Sea f : V → V un endomorfismo, se dice que x es un autovector de f si se


cumple f(x)=λx.
Autovalor: es el valor λ de la definición de autovector.

Calculo de Autovalores y autovectores

Autovalores: son las soluciones del polinomio det(A-λI)=0 (polinomio característico),


siendo A una matriz asociada a la aplicación lineal f.

Autovectores: son los vectores que conforman las bases de cada subespacio (subespacio
propio) formado por las soluciones de los sistemas (A- λi I)x=0, i=1..r, donde λi son los
autovalores y r es la número de valores propios distintos.
- Una aplicación es diagonalizable si la multiplicidad de sus autovalores es igual a la
dimensión del subespacio propio.

Matriz diagonal asociada a la aplicación f, D: es la matriz diagonal en la cual su


diagonal está formada por los autovalores de f. Además D= P −1 AP, donde P es una matriz
cuyas columnas están formada por los autovectores.

Propiedades:
- A y A⊥ tienen los mismos autovalores.
- Si λ es autovalor de A, kλ es autovalor de kA (los autovectores son los mismos).
- Si λ es autovalor de A, λ −1 es autovalor de A−1 (los autovectores son los mismos).
- Si λ es autovalor de A, λ n es autovalor de An (los autovectores son los mismos).
- Si λ es autovalor de A, Ker(f)≠0.
- Si p(x) es el polinomio característico de A entonces p(A)=0, Teorema de Cyley-
Hamilton.
- Si A es simétrica es siempre diagonalizable y sus autovectores forman un conjunto
ortogonal.

DELTA-MASTER c/ General Ampudia 16, 28003 MADRID ( 915351932 915333842

También podría gustarte