Está en la página 1de 11

Lección 2

Sistemas de ecuaciones lineales y


matrices

Contenido
2.1. Sistemas de ecuaciones lineales
2.1.1. Método de Gauss
2.2. Vectores en Rn
2.2.1. Vectores en Rn
2.2.2. Dependencia e independencia lineal
2.3. Matrices
2.3.1. Matrices
2.3.2. Tipos de matrices
2.3.3. Operaciones con matrices
2.3.4. Matriz traspuesta
2.3.5. Matriz inversa
2.3.6. Rango de una matriz
2.4. Determinantes
2.4.1. Determinantes de orden 2 y de orden 3
2.4.2. Algunas propiedades de los determinantes
2.4.3. Desarrollo de un determinante por adjuntos
2.4.4. Cálculo de la inversa de una matriz
2.5. Resolución de sistemas de ecuaciones lineales
2.5.1. Notación matricial
2.5.2. Método de Gauss
2.5.3. Regla de Cramer

1
2.1. Sistemas de ecuaciones lineales 2

2.1. Sistemas de ecuaciones lineales

Un sistema de m ecuaciones lineales con n incógnitas es un conjunto de m igualdades de


la forma 
a11 x1 + a12 x2 + · · · + a1n xn = b1 

a21 x1 + a22 x2 + · · · + a2n xn = b2 

..
. 


a x + a x + ··· + a x = b 
m1 1 m2 2 mn n m

Los elementos aij son los coeficientes del sistema, bi son los términos independientes y xi
son las incógnitas.
Se dice que el conjunto α1 , α2 , . . . , αn es una solución del sistema si al sustituir xj por αj
(j = 1, 2, . . . , n) se verifican todas las igualdades del sistema.
Un sistema que tenga solución se dice compatible y un sistema que no tiene solución se
dice incompatible. Un sistema compatible se dice determinado si tiene una única solución
e indeterminado si tiene infinitas soluciones.
Un sistema se dice homogéneo si todos los términos independientes son nulos. Los sistemas
homogéneos siempre son compatibles pues siempre tienen la solución trivial

x1 = x2 = · · · = xn = 0.

Dos sistemas de ecuaciones lineales compatibles se dice que son equivalentes si tienen las
mismas soluciones.

2.1.1. Método de Gauss

El método de Gauss para resolver un sistema de ecuaciones lineales consiste en realizar


operaciones hasta obtener un sistema que sea fácil de resolver.

Operaciones elementales

Cambiar el orden de las ecuaciones.

Multiplicar una ecuación por un número distinto de 0.

Sumar a una ecuación un múltiplo de otra.

Es fácil demostrar que si realizamos operaciones elementales sobre un sistema de ecua-


ciones obtenemos un sistema equivalente al de partida. Realizando operaciones elementales
iremos eliminando incógnitas de forma que el sistema equivalente resultante tenga una
resolución muy sencilla.
Si aplicamos el método de Gauss a un sistema incompatible obtendremos una ecuación
que no tiene solución.


c 2011 Ana San Luis
2.2. Vectores en Rn 3

2.2. Vectores en Rn

2.2.1. Vectores en Rn

Denotaremos por Rn el conjunto de todos los vectores de la forma


Rn = {(u1 , u2 , . . . , un ); u1 , u2 , . . . , un ∈ R}.

Operaciones con vectores de Rn

Suma de vectores: si u = (u1 , u2 , . . . , un ), v = (v1 , v2 , . . . , vn ) ∈ Rn , se define


u + v = (u1 + v1 , u2 + v2 , . . . , un + vn ).

Producto de un vector por un número real (escalar ): si u = (u1 , u2 , . . . , un )


y α ∈ R, se define
α u = (αu1 , αu2 , . . . , αun ).

Propiedades de las operaciones en Rn

Sean u, v, w ∈ Rn y α, β ∈ R.

Suma
• Operación interna: la suma de vectores de Rn es de nuevo un vector de Rn .
• Conmutativa: u + v = v + u.
• Asociativa: (u + v) + w = u + (v + w).
• Elemento neutro: u + 0 = 0 + u = u, donde 0 = (0, 0, . . . , 0).
• Elemento opuesto: u+(−u) = (−u)+u = 0, donde −u = (−u1 , −u2 , . . . , −un ).
Producto por un escalar
• Distributiva respecto de la suma de vectores: α (u + v) = α u + α v.
• Distributiva respecto de la suma de escalares: (α + β) u = α u + β u.
• Asociativa respecto a escalares: α (β u) = (α β) u.
• Multiplicación por la unidad escalar: 1 u = u.

Como consecuencia de las propiedades anteriores se tiene que si u ∈ Rn y α ∈ R, entonces

0 u = 0,
α 0 = 0,
(−1) u = −u,
si α u = 0, entonces u = 0 o α = 0.


c 2011 Ana San Luis
2.3. Matrices 4

2.2.2. Dependencia e independencia lineal

Definición 2.2.1 Se dice que u ∈ Rn es combinación lineal de v1 , v2 , . . . , vn ∈ Rn si


existen escalares α1 , α2 , . . . , αn ∈ R tales que

u = α1 v1 + αv2 + · · · + αn vn .

Definición 2.2.2 Se dice que u1 , u2 , . . . , un ∈ Rn son linealmente independientes (sis-


tema libre) si cualquier combinación lineal nula de u1 , u2 , . . . , un tiene todos los escalares
nulos, es decir, si

α1 u1 + αu2 + · · · + αn un = 0, entonces α1 = α2 = · · · = αn = 0.

Definición 2.2.3 Se dice que u1 , u2 , . . . , un ∈ Rn son linealmente dependientes (sistema


ligado) si no son linealmente independientes, es decir, si existen escalares no todos nulos
α1 , α2 , . . . , αn ∈ R tales que

α1 u1 + αu2 + · · · + αn un = 0.

Se puede demostrar que un sistema de vectores es linealmente dependiente si, y solo si, al
menos uno de los vectores del sistema es combinación lineal de los demás vectores.

Definición 2.2.4 Se llama rango de un sistema de vectores al máximo número de vectores


linealmente dependientes del sistema.

2.3. Matrices

2.3.1. Matrices

Definición 2.3.1 Una matriz de dimensión o de orden m × n con coeficientes reales es


un conjunto de números reales dispuestos en m filas y n columnas.
 
a11 a12 a13 · · · a1n
 a21 a22 a23 · · · a2n 
A =  .. .. .. .. .. 
 
 . . . . . 
am1 am2 am3 · · · amn

Se denota A = (aij )m×n .

El conjunto de todas las matrices de dimensión m × n con coeficientes reales se denota


por Mm×n (R). Si m = n se denota Mn (R).
Análogamente se pueden definir matrices con coeficientes complejos Mm×n (C) y, más
generalmente, matrices con coeficientes en un cuerpo cualquiera K, Mm×n (K).


c 2011 Ana San Luis
2.3. Matrices 5

2.3.2. Tipos de matrices


Matriz fila: es una matriz que tiene una fila y un número arbitrario n de columnas,
es decir, es una matriz de dimensión 1 × n.

A = (a11 a12 a13 · · · a1n ).

Matriz columna: es una matriz que tiene una columna y un número arbitrario m
de filas, es decir, es una matriz de dimensión m × 1.
 
a11
 a21 
A =  .. 
 
 . 
am1

Matriz cuadrada: es una matriz que tiene el mismo número de filas que de colum-
nas, es decir, es una matriz de orden n × n (orden n).
 
a11 a12 a13 · · · a1n
 a21 a22 a23 · · · a2n 
A =  .. .. .. .. .. 
 
 . . . . . 
an1 an2 an3 · · · ann

Matriz identidad: es una matriz cuadrada que tiene que tiene todos los elementos
nulos salvo los de la diagonal que son unos.
 
1 0 0 ··· 0
 0 1 0 ··· 0 
In =  .. .. .. .. .. 
 
 . . . . . 
0 0 0 ··· 1

2.3.3. Operaciones con matrices

Suma de matrices

La suma de matrices se realiza elemento a elemento, es decir, el elemento de la matriz


suma que ocupa el lugar (ij) (fila i, columna j) es la suma de los elementos (ij) de
cada una de las matrices sumando. Por tanto solo se pueden sumar matrices de la misma
dimensión. Formalmente la suma de matrices se expresa así:

Si A = (aij ) y B = (bij ) son matrices de dimensión m × n, entonces la matriz suma

C = A + B = (aij + bij )m×n .


c 2011 Ana San Luis
2.3. Matrices 6

Producto de un escalar por una matriz

El producto de un número real (también puede ser complejo o de un cuerpo cualquiera


K) por una matriz se realiza multiplicando cada elemento de la matriz por el número.
Formalmente esta operación se expresa así:

Si A = (aij ) es un matriz de dimensión m × n y α es un número real , entonces

α A = (α aij )m×n .

Propiedades de las suma y del producto por escalares

Sean A, B, C ∈ Mm×n y α, β ∈ R.

Suma

• Operación interna: la suma de matrices de orden m × n es de nuevo una matriz


de orden m × n.
• Conmutativa: A + B = B + A.
• Asociativa: (A + B) + C = A + (A + C).
• Elemento neutro: A + 0 = 0 + A = A, donde 0 denota la matriz nula.
• Elemento opuesto: A + (−A) = (−A) + A = 0.

Producto por un escalar

• Distributiva respecto de la suma de vectores: α(A + B) = αA + αB.


• Distributiva respecto de la suma de escalares: (α + β)A = αA + βA.
• Asociativa respecto a escalares: α(βA) = (αβ)A.
• Multiplicación por la unidad escalar: 1A = A.

Obsérvese que estas propiedades son las mismas que las vistas para vectores de Rn .

Producto de matrices

El producto de matrices se realiza multiplicando (escalarmente) filas de la primera matriz


por columnas de la segunda. Formalmente el producto de matrices se expresa así:

Si A = (aij ) es una matriz de dimensión m × n y B = (bij ) y B es una matriz de dimensión


n × p, entonces

C = AB = (cij )m×p , cij = ai1 b1j + ai2 b2j + ai3 b3j + · · · + ain bnj .


c 2011 Ana San Luis
2.3. Matrices 7

Propiedades del producto de matrices

Sean A, B, C ∈ Mm×n y α, β ∈ R.

Asociativa: (AB)C = A(BC).

Distributiva respecto de la suma: A(B + C) = AB + AC

El producto de matrices cuadradas de dimensión n tiene como elemento unidad


la matriz unidad In , entonces In A = AIn = A.

El producto de matrices no verifica, en general, la propiedad conmutativa.

2.3.4. Matriz traspuesta

Definición 2.3.2 Si A es una matriz de dimensión m × n, se llama matriz traspuesta de


A, y se denota At , a la matriz que se obtiene intercambiando las filas por las columnas de
A.

Observaciones

(A + B)t = At + B t .

(AB)t = B t At (siempre que las matrices tengan las dimensiones adecuadas).

2.3.5. Matriz inversa

Definición 2.3.3 Una matriz cuadrada A de dimensión n se dice invertible o regular


si podemos encontrar otra matriz cuadrada de dimensión n, que denotaremos A−1 , que
verifique
AA−1 = A−1 A = In .
A la matriz A−1 le llamaremos inversa de A.

Observaciones

Se puede demostrar que si una matriz es invertible, entonces su matriz inversa es


única.

El producto de matrices invertibles es invertible y además

(AB)−1 = B −1 A−1 .


c 2011 Ana San Luis
2.4. Determinantes 8

2.3.6. Rango de una matriz

Se puede considerar el conjunto de vectores que forman las filas de una matriz y estudiar
su rango (máximo número de linealmente independientes). Podemos realizar también este
estudio para los vectores columna de la matriz. Se puede demostrar que existe el mismo
número de filas linealmente independientes que de columnas, es decir, el rango por filas
de una matriz coincide con su rango por columnas.

Definición 2.3.4 Se llama rango de una matriz A al número máximo de filas o columnas
de A linealmente independientes.

Teorema 2.3.5 Una matriz cuadrada de orden n es invertible si, y solo si, su rango es
n.

2.4. Determinantes

2.4.1. Determinantes de orden 2 y de orden 3

Definición 2.4.1 Sea A una matriz cuadrada de orden 2.


 
a11 a12
A=
a21 a22

Se llama determinante de A, y se denota por |A|, al número



a11 a12
|A| = = a11 a22 − a12 a21 .
a21 a22

Definición 2.4.2 Sea A una matriz cuadrada de orden 3.


 
a11 a12 a13
A =  a21 a22 a23 
a31 a32 a33

Se llama determinante de A, y se denota por |A|, al número



a11 a12 a13

|A| = a21 a22 a23 = a11 a22 a33 +a13 a21 a32 +a12 a23 a31 −a13 a22 a31 −a11 a23 a32 −a12 a21 a33 .
a31 a32 a33

El cálculo de determinantes puede simplificarse utilizando las propiedades que se describen


a continuación.


c 2011 Ana San Luis
2.4. Determinantes 9

2.4.2. Algunas propiedades de los determinantes


Si multiplicamos un número por un determinante es equivalente a multiplicar una
fila o una columna del determinante por el número.
Si sumamos a una fila (columna) un múltiplo de otra fila (respectivamente columna)
el determinante no varía.
Si las filas o columnas de un determinante son linealmente dependientes, entonces
el determinante es nulo. Un caso particular de esta situación se produce si hay una
fila o una columna de ceros.
Una matriz y su traspuesta tienen el mismo determinante.
Si A y B son matrices cuadradas se verifica

|AB| = |A||B|.

2.4.3. Desarrollo de un determinante por adjuntos

Definición 2.4.3 Sea A = (aij ) una matriz cuadrada de orden n. Se llama adjunto del
elemento aij , y se denota por Aij , al determinante que resulta de eliminar la fila i y la
columna j de la matriz A multiplicado por (−1)i+j . Nótese que

(−1)i+j = 1 si i + j es par,
(−1)i+j = −1 si i + j es impar.

Si sustituimos cada elemento de A por su adjunto obtenemos la matriz adjunta de A que


denotaremos por Adj(A).

Puede calcularse el determinante de una matriz cuadrada A de orden n utilizando ad-


juntos. Se puede demostrar que el determinante de A es suma de los productos de los
elementos de cualquier fila (o columna) de A por sus respectivos adjuntos. El cálculo del
determinante de una matriz puede simplificarse haciendo ceros en una fila (o columna) de
la matriz (utilizando las propiedades anteriores) y desarrollando el determinante por esa
fila (o columna).

2.4.4. Cálculo de la inversa de una matriz

Teorema 2.4.4 Una matriz cuadrada A de orden n es invertible si, y solo si, su deter-
minante es no nulo.

Si A es una matriz cuadrada con determinante no nulo la inversa de A se puede obtener


de la forma
(Adj(A))t
A−1 = .
|A|


c 2011 Ana San Luis
2.5. Resolución de sistemas de ecuaciones lineales 10

2.5. Resolución de sistemas de ecuaciones lineales

2.5.1. Notación matricial

El sistema de ecuaciones lineales



a11 x1 + a12 x2 + · · · + a1n xn = b1 

a21 x1 + a22 x2 + · · · + a2n xn = b2 

..
. 


am1 x1 + am2 x2 + · · · + amn xn = bm 

puede expresarse utilizando la notación matricial de la forma


    
a11 a12 . . . a1n x1 b1
 a21 a22 . . . a2n 
  x2   b2
   
 .. .. ..   ..  =  ..
 
 . ... 
. .  .   . 
am1 am2 . . . amn xn bm

Se llama matriz de coeficientes del sistema a la matriz A = (aij ); se llama vector de térmi-
nos independientes al vector columna b = (bi ). Por último, llamaremos matriz ampliada
del sistema a la matriz que se obtiene añadiendo a la matriz A el vector de términos
independientes b; esta mueva matriz se denota por (A| b).
 
a11 a12 . . . a1n b1
 a21 a22 . . . a2n b2 
(A| b) =  .. .. .. .. 
 
 . . . .
. . . 
am1 am2 . . . amn bm

Para estudiar si un sistema tiene solución y si esta es única debemos estudiar los rangos
de las matrices A y (A| b).

Teorema 2.5.1 (Rouché-Frobenius) Dado un sistema con n incógnitas cuyas matrices


de coeficientes y ampliada son, respectivamente, A y (A| b), se verifica

si rango(A) 6= rango(A| b), entonces el sistema es incompatible,

si rango(A) = rango(A| b), entonces el sistema es compatible. Además,

• si rango(A) = rango(A| b) = n, el sistema es compatible determinado,


• si rango(A) = rango(A| b) < n, el sistema es compatible indeterminado.

Nótese que para un sistema homogéneo el teorema anterior se reduce al análisis de sistemas
determinados. Por tanto, en este caso

si rango(A) = rango(A| b) = n, el sistema tiene solo la solución trivial,

si rango(A) = rango(A| b) < n, el sistema tiene infinitas soluciones.


c 2011 Ana San Luis
2.5. Resolución de sistemas de ecuaciones lineales 11

2.5.2. Método de Gauss

El método de Gauss puede aplicarse a un sistema escrito en forma matricial: se trata de


aplicar operaciones elementales a las filas de la matriz ampliada del sistema hasta obtener
una matriz escalonada. De esta forma se obtiene un sistema equivalente cuya resolución
es muy sencilla.
Si aplicamos el método de Gauss a un sistema incompatible obtendremos una ecuación
que no tiene solución.

2.5.3. Regla de Cramer

Teorema 2.5.2 (Regla de Cramer) Sea el sistema de n ecuaciones con n incógnitas


a11 x1 + a12 x2 + · · · + a1n xn = b1 

a21 x1 + a22 x2 + · · · + a2n xn = b2 

..
. 


an1 x1 + an2 x2 + · · · + ann xn = bn 
Si la matriz A de coeficientes del sistema es invertible, entonces la solución del sistema
anterior puede obtenerse de la forma
∆i
xi = i = 1, 2, . . . , n,
|A|

donde ∆i denota el determinante de la matriz que resulta de sustituir la columna i de la


matriz A por el vector de términos independientes.

En el caso de un sistema de tres ecuaciones con tres incógnitas las soluciones vienen dadas
por:
b1 a12 a13 a11 b1 a13 a11 a12 b1

b2 a22 a23 a21 b2 a23 a21 a22 b2

b3 a32 a33 a31 b3 a33 a31 a32 b3
x1 = x2 = x3 =
|A| |A| |A|

La Regla de Cramer exige realizar muchas operaciones para resolver un sistema, en la


práctica resulta más cómodo utilizar el método de Gauss.


c 2011 Ana San Luis

También podría gustarte