Está en la página 1de 60

Matemática Avanzada

Prof. Luis A. Montoya Coronado

Managua, octubre 2022


Contenido de la clase:

1. Sucesiones numéricas

2. Convergencia de series

3. Algebra lineal

4. Propiedades de matrices

5. Soluciones de sistemas de ecuaciones

6. Determinantes de matrices

7. Cambio de coordenadas

8. Ajuste de curvas en el plano: Interpolación de funciones. Método de Newton y Lagrange.

9. Valores y vectores propios. Diagonalización de matrices


Sucesiones y series numéricas
• Criterios de convergencia para las series numéricas
Sucesiones y series numéricas
Sucesiones y series numéricas
Sucesiones y series numéricas
Sucesiones y series numéricas
Sucesiones y series numéricas
Sucesiones y series numéricas
Sucesiones y series numéricas
Sucesiones y series numéricas
Sucesiones y series numéricas
Analizar la convergencia o divergencia de las siguientes series numéricas
Algebra Lineal
Historia de los sistemas de ecuaciones

El problema de los sistemas lineales de ecuaciones es uno de los más antiguos de la matemática y tiene una
infinidad de aplicaciones, como en procesamiento digital de señales, análisis estructural, estimación, predicción y
más generalmente en programación lineal así como en la aproximación de problemas no lineales de análisis
numérico.
En este encuentro se analizan las ecuaciones algebraicas lineales simultáneas que en general se representan
como:

Donde las 𝑎𝑖𝑗 son los coeficientes constantes de las variables y las 𝑏𝑖
son los términos independientes constantes.
Los sistemas de ecuaciones lineales comenzaron a ser estudiados sistemáticamente por Leibniz y Cramer a
mediados del siglo XVIII. Esté último matemático, expuso lo que hoy conocemos como regla de Cramer para
los sistemas de orden 3. A mediados del siglo XIX fue Cayley, al estudiar las matrices, quien dedujo la formula
general de la regla de Cramer y quien expuso claramente la condición necesaria y suficiente para que un
sistema cuadrado de ecuaciones lineales tuviera solución única, a saber, que la matriz de los coeficientes del
sistema fuera invertible.

A medida que en otras disciplinas científicas se iba encontrando que los problemas se podían plantear en
términos de sistemas de ecuaciones lineales los matemáticos se empezaron a preocupar de aspectos como
el número de operaciones en un algoritmo. Pronto se dieron cuenta que para calcular la inversa de una
matriz por otros algoritmos el número de operaciones era muy elevado, mientras que el método de Gauss
exigía un numero considerablemente menor.
Otro problema muy complicado era el siguiente:
¿De que forma contribuyen los errores de redondeo individuales al error total?
Este fue atacado por primera vez por Von Neumann. Actualmente se utiliza el método John Von Neumann
(1903-1957)
del pivoteo parcial, una ligera variante del método de Gauss, para intentar que los
errores parciales sean los menores posibles. En1948, el matemático inglés Alan Turing
desarrolló la factorización LU.

Alan Turing (1912-1954)


Solución de sistemas de ecuaciones lineales
• Matriz inversa
• Regla de Cramer.
La solución de un sistema de ecuaciones lineales escrito en la forma matricial 𝑨𝒙 = 𝒃 tiene
solución teórica única si el determinante de la matriz del sistema es diferente de cero,
det(𝐴) ≠ 0, pero hay que tener cuidado pues se puede presentar un mal condicionamiento, el
cual se debe a la proximidad de las soluciones. Si es cero puede suceder que el sistema no tenga
soluciones (Incompatible) o infinitas, en el siguiente gráfico se presenta estas situaciones en un
sistema de ecuaciones 2x2.

Representación gráfica de sistemas singulares y mal condicionadas: a) no hay solución, b) hay


una infinidad de soluciones y c) sistema mal condicionado donde las pendientes son tan
cercanas que es difícil detectar visualmente el punto de intersección.
Algebra lineal

El algebra lineal surge de estudiar un sistema de ecuaciones lineales de cualquier cantidad de variables,

𝐴𝑥 = 𝑏 (𝑢𝑛𝑎 𝑣𝑎𝑟𝑖𝑎𝑏𝑙𝑒) 𝐴𝑥 + 𝑏𝑦 = 𝑐 (𝑑𝑜𝑠 𝑣𝑎𝑟𝑖𝑎𝑏𝑙𝑒𝑠) 𝐴𝑥 + 𝑏𝑦 + 𝑐𝑧 = 𝑑 (3 𝑣𝑎𝑟𝑖𝑎𝑏𝑙𝑒𝑠)

Todas las que representen una línea recta, para representar una infinita ecuación de variables

𝑎1 𝑥1 + 𝑎2 𝑥2 + ⋯ + 𝑎𝑛 𝑥𝑛 = 𝑏 (𝑛 𝑣𝑎𝑟𝑖𝑎𝑏𝑙𝑒𝑠)

Sistema de ecuaciones: es un conjunto de ecuaciones lineales

5𝑥 − 𝑦 + 3𝑧 + 8𝑤 = 5
2𝑥 + 3𝑦 = 1 (sistema de 2x4)
(sistema 2x2) 𝑥 − 3𝑦 + 6𝑦 − 5𝑤 = 1
5𝑥 − 2𝑦 = 4

5𝑥 − 𝑦 + 3𝑧 = 5 𝑥 − 3𝑦 = 0
2𝑧 + 3𝑦 − 5𝑧 = 4 (sistema 3x3) 2𝑥 − 𝑦 = 2 (sistema de 3x2)
6𝑥 − 3𝑦 = 6
𝑥 − 3𝑦 + 6𝑦 = 1
Algebra lineal
Podemos representar para infinitas ecuaciones y variables con;

𝑎11 𝑥1 + 𝑎12 𝑥2 + ⋯ + 𝑎1𝑛 𝑥𝑛 = 𝑏1


𝑎21 𝑥1 + 𝑎22 𝑥2 + ⋯ + 𝑎2𝑛 𝑥𝑛 = 𝑏2
(𝑠𝑖𝑠𝑡𝑒𝑚𝑎 𝑑𝑒 𝑚 𝑥 𝑛)

𝑎𝑚1 𝑥1 + 𝑎𝑚2 𝑥2 + ⋯ + 𝑎𝑚𝑛 𝑥𝑛 = 𝑏𝑛

Hasta sabemos cómo resolver un sistema de ecuaciones de 2x2 o 3x3 por método como el de sustitución, reducción o
igualación. El problema es cuando tenemos sistema con muchas ecuaciones y variables.
El algebra lineal:
¿Todo sistema de ecuaciones lineales tiene solución? ¿cómo saber si un sistema tiene o no solución?
Si un sistema dado tiene solución ¿cuántas soluciones tiene? ¿Cómo podemos encontrar todas las soluciones de, por ejemplo,
un sistema 6 x 10?
Para responder estas preguntas el algebra lineal tiene otras herramientas u objetos entre los cuales se encuentran:
• Sistemas de ecuaciones
• Matrices
• Espacios vectoriales
• Transformaciones lineales
Algebra lineal
Ejemplo: Matriz:

5𝑥 − 𝑦 + 3𝑧 + 8𝑤 = 5 5 −1 3 8
𝑥 − 3𝑦 + 6𝑧 − 5𝑤 = −1 1 −3 6 5
2𝑥 − 7𝑦 + 2𝑧 + 3𝑤 = 2 2 7 2 3

De manera general: La posición:

𝑎11 𝑎12 … 𝑎1𝑛 𝑎34 = −4


𝑎21 𝑎22 … 𝑎2𝑛
𝐴= ⋮ ⋮ ⋱ ⋮
𝑎𝑚1 𝑎𝑚2 … 𝑎𝑚𝑛 𝑎22 = 6

−3 5 1 −3 1 𝑎13 = 1
𝐴= 2 6 1 2 2
−1 0 4 −4 9
𝑎31 = −1
Algebra lineal
Ejemplo: 5𝑥 − 𝑦 + 3𝑧 + 8𝑤 = 5 Matriz: 5 −1 3 8
𝑥 − 3𝑦 + 6𝑧 − 5𝑤 = −1 1 −3 6 5
2𝑥 − 7𝑦 + 2𝑧 + 3𝑤 = 2 2 7 2 3
De manera general: La posición:
𝑎11 𝑎12 … 𝑎1𝑛 𝑎34 = −4 𝑎13 = 1
𝑎21 𝑎22 … 𝑎2𝑛
𝐴= ⋮ ⋮ ⋱ ⋮ 𝑎22 = 6 𝑎31 = −1
𝑎𝑚1 𝑎𝑚2 … 𝑎𝑚𝑛

−3 5 1 −3 1
𝐴= 2 6 1 2 2
−1 0 4 −4 9
2 + ì −3𝑖 4
Las matrices pueden tener entradas en ℝ o ℂ o ℚ, etc. 𝐴= 𝐴 𝜖 𝑀2𝑥3 (ℂ)
7𝑖 0 5 − 7𝑖

𝑀5𝑥2 (ℝ) es el conjunto de matrices de 5 filas y 2 columnas con entradas en los número reales ( ℝ )
𝑀2𝑥7 (ℚ) es el conjunto de matrices de 2 filas y 7 columnas con entradas en los número racionales (ℚ)
Algebra lineal
Matrices especiales que utilizaremos mucho son las matrices columnas:
2
𝑢 = 5 𝑣𝑒𝑐𝑡𝑜𝑟 𝑑𝑒 𝑐𝑜𝑙𝑢𝑚𝑛𝑎 3𝑥1 𝜖 ℝ3 𝑣Ԧ = 0 1 −4 9 𝑣𝑒𝑐𝑡𝑜𝑟 𝑑𝑒 𝑓𝑖𝑙𝑎 1𝑥4 𝜖 ℝ4
−3

Matriz cero:

0 0 0
0 0 0
0= 0 0 0 0= 0= 0= 0 0 0
0 0 0
0 0 0

Matriz cuadrada: son aquellas que son de 𝑛 𝑥 𝑛

2 0
𝑎= 𝜖 𝑀2 (ℝ) Los términos 𝑎11 , 𝑎22 , 𝑎33 , … , 𝑎𝑛𝑛 se denominan diagonal principal de la
3 −1
matriz

1 −1 0
𝑎 = 0 −3 −1 𝜖 𝑀3 (ℝ)
7 9 4
Operaciones con matrices: suma, resta y multiplicación por un escalar

Multiplicación por un escalar: Un escalar es un número real o un número complejo

−3 5 1 −3 1
𝐴= 2 6 1 2 2
−1 0 4 −4 9
Si operamos 3*A se multiplica por cada uno de los valores de la matrices:

−3 5 1 −3 1 −9 15 3 −9 3
3𝐴 = 3 ∗ 2 6 1 2 2 = 6 18 3 6 6
−1 0 4 −4 9 −3 0 12 −12 27

Suma y resta de matrices (ambas deben de ser el mismo tamaño). La suma o resta se realiza cada
entrada con la correspondiente
1 −2 6 3 3 −5 4 1 1
𝐴+𝐵 = + =
1 −2 6 3 3 −5 4 6 −1 0 −1 −2 4 5 −3
𝐴= 𝐵=
4 6 −1 0 −1 −2 1 −2 6 3 3 −5 −2 −5 11
𝐴−𝐵 = − =
4 6 −1 0 −1 −2 4 7 1
Propiedades de la suma y multiplicación por escalar

Sean A,B,C matrices en 𝑀𝑚×𝑛 (ℝ), entonces se cumple:


a) 𝐴 + (𝐵 + 𝐶) = (𝐴 + 𝐵) + 𝐶 (propiedad asociativa)
b) 𝐴 + 𝐵 = 𝐵 + 𝐴 (propiedad conmutativa)
c) 𝐴 + 0 = 𝐴 (propiedad aditivo)
d) 𝐴 + (−𝐴) = 0 (Propiedad inverso aditivo)

Propiedad conmutativa
Entrada 𝑖, 𝑗, de 𝐴 + 𝐵: 𝑎𝑖𝑗 + 𝑏𝑖𝑗
Entrada 𝑖, 𝑗, de 𝐵 + 𝐴: 𝑏𝑖𝑗 + 𝑎𝑖𝑗

𝑎𝑖𝑗 + 𝑏𝑖𝑗 = 𝑏𝑖𝑗 + 𝑎𝑖𝑗 pues en ℝ la suma es conmutativa, tanto para número reales como para ℂ
Propiedades de la suma y multiplicación por escalar

Sean A,B,C matrices en 𝑀𝑚×𝑛 (ℝ), entonces se cumple:


a) 𝐴 + (𝐵 + 𝐶) = (𝐴 + 𝐵) + 𝐶 (propiedad asociativa)
b) 𝐴 + 𝐵 = 𝐵 + 𝐴 (propiedad conmutativa)
c) 𝐴 + 0 = 𝐴 (propiedad aditivo)
d) 𝐴 + (−𝐴) = 0 (Propiedad inverso aditivo)

Propiedad asociativa:

Entrada 𝑖, 𝑗 de 𝐴 + 𝐵 + 𝐶 : 𝑎𝑖𝑗 + 𝑏𝑖𝑗 + 𝐶𝑖𝑗


Entrada 𝑖, 𝑗 de 𝐴 + 𝐵 + 𝐶: (𝑎𝑖𝑗 +𝑏𝑖𝑗 ) + 𝐶𝑖𝑗

𝑎𝑖𝑗 + 𝑏𝑖𝑗 + 𝐶𝑖𝑗 = (𝑎𝑖𝑗 +𝑏𝑖𝑗 ) + 𝐶𝑖𝑗

pues en ℝ la suma es asociativa, tanto para número reales como para ℂ


Propiedades del producto por un escalar

Sean A, B, matrices en 𝑀𝑚×𝑛 (ℝ), y sean r, s 𝜖 ℝ entonces se cumple:


a) 0 ∙ 𝐴 = 0
b) 1 ∙ 𝐴 = 𝐴
c) 𝑟 𝐴 + 𝐵 = 𝑟𝐴 + 𝑟𝐵
d) 𝑟 + 𝑠 ∙ 𝐴 = 𝑟𝐴 + 𝑠𝐴

Producto punto (producto interno o producto escalar)

El producto escalar es un producto que se realiza entre vectores. Nos servirá para introducirnos al producto
entre matrices. Sean los vectores:

4 8
𝑢 = −2 𝑣Ԧ = 0
6 1
El producto punto se representa como: Otra forma de escribir el producto punto

𝑢 ∙ 𝑣Ԧ = 4 8 + −2 0 + 6 1 = 32 + 0 + 6 = 38 < 𝑢, 𝑣Ԧ > = 38
Propiedades del producto por un escalar

Vemos que el producto punto de dos vectores nos da un número escalar. Para poder realizarlo, debemos de
tener vectores de la misma dimensión. Lo mismo para vectores de una fila.

𝑢 = 2 −5 3 1 𝑣Ԧ = 0 4 −2 7

𝑢 ∙ 𝑣Ԧ = 2 0 + −5 4 + 3 −2 + 1 7 = 0 − 20 − 6 + 7 = −19
Veamos un ejemplo de dos vectores de la misma dimensión pero en fila y columna:

6
𝑢= 3 8 𝑣Ԧ = 𝑢 ∙ 𝑣Ԧ = 3 6 + 8 2 = 34
2
Propiedades del producto punto
Ԧ 𝑤 ∈ ℝ𝑛 y sea 𝑘 𝜖 ℝ
Sean 𝑢, 𝑣,
a) 𝑢 ∙ 𝑢 ≥ 0, 𝑢 ∙ 𝑢 = 0 𝑠𝑖 𝑦 𝑠𝑜𝑙𝑜 𝑠𝑖 𝑢 = 0
b) 𝑢 ∙ 𝑣Ԧ = 𝑣Ԧ ∙ 𝑢 𝑐𝑜𝑛𝑚𝑢𝑡𝑎𝑡𝑖𝑣𝑎
c) 𝑢 ∙ 𝑣Ԧ + 𝑤 = 𝑢 ∙ 𝑣Ԧ + 𝑢 ∙ 𝑤 𝑑𝑖𝑠𝑡𝑟𝑖𝑏𝑢𝑡𝑖𝑣𝑎
d) 𝑘 ∙ 𝑢 ∙ 𝑣Ԧ = 𝑘 ∙ 𝑢 ∙ 𝑣Ԧ = 𝑢 ∙ 𝑘 ∙ 𝑣Ԧ
e) 𝑢 ∙ 0 = 0
Multiplicación de matrices
La multiplicación de matrices es diferente a lo anterior visto. Sea una matriz A de 𝑚 × 𝑛, para poder multiplicarla
por otra matriz, esta debe ser una matriz B de 𝑛 × 𝑝. Al multiplicar ambas matrices nos quedará 𝐴𝐵 de 𝑚 × 𝑝.
Sean la matrices: 1 0
2 −5 1 −2
𝐴3𝑥2 = 6 −2 𝐵2𝑥4 =
3 2 0 −1
−1 4
Iguales, se realiza el producto

Tamaño del la matriz resultante

Si nos imaginamos que la matriz tiene varios vectores, entonces realizamos producto puntos de varios vectores,
filas de la primera matriz con columna de la segunda.

1 0 2 −5 1 −2
𝐴3𝑥2 = 6 −2 𝐵2𝑥4 =
3 2 0 −1
−1 4

1 ∗ 2) + (0 ∗ 3 1 ∗ −5) + (0 ∗ 2 1 ∗ 1) + (0 ∗ 0 1 ∗ −2) + (0 ∗ −1 2 −5 1 −2
𝐴𝐵3𝑥4 = 6 ∗ 2) − (2 ∗ 3 6 ∗ −5) − (2 ∗ 2 6 ∗ 1) − (2 ∗ 0 6 ∗ −2) − (2 ∗ −1 = 6 34 6 −10
−1 ∗ 2) + (4 ∗ 3 −1 ∗ −5) + (4 ∗ 2 −1 ∗ 1) + (4 ∗ 0 −1 ∗ −2) + (4 ∗ −1 10 13 −1 −2
Multiplicación de matrices
Definición: sea 𝐴 = 𝑎𝑖𝑗 una matriz 𝑚 × 𝑛, y sea 𝐵 = 𝑏𝑖𝑗 un matriz 𝑛 × 𝑝. Entonces el producto de A y B es una
matriz 𝐶 = (𝑐𝑖𝑗 ), en donde,
𝑐𝑖𝑗 = 𝑎𝑖1 𝑏1𝑗 + 𝑎𝑖2 𝑏2𝑗 + ⋯ + 𝑎𝑖𝑛 𝑏𝑛𝑗

𝑐𝑖𝑗 = ෍ 𝑎𝑖𝑘 𝑏𝑘𝑗


𝑘=1
Ejemplo del producto de matriz por un vector:
2 −1 3 2 ∗ 3 − 1 ∗ −4 10
𝐴2𝑥2 = 𝑢2𝑥1 = 𝐴𝑢2𝑥1 = =
3 5 −4 3 ∗ 3 + 5 ∗ −4 −11
En ocasiones podemos multiplicar vectores como matrices.

2 9 −3 3
3 𝑢 ∙ 𝑤: 2𝑥3 𝑢 ∙ 𝑤: 𝑢 ∙ 𝑣:
Ԧ 𝑛𝑜 𝑒𝑠𝑡á 𝑑𝑒𝑓𝑖𝑛𝑖𝑑𝑜
𝑢2𝑥1 = 𝑣Ԧ3𝑥1 = 5 −12 4 −4
−4 0
6 −2 2
𝑤1𝑥3 = 3 −1 1 𝑣Ԧ ∙ 𝑤: 3𝑥3 𝑣Ԧ ∙ 𝑤: 15 −5 5 𝑤 ∙ 𝑣:
Ԧ 1
0 0 0
El producto de la matrices NO ES CONMUTATIVA
Multiplicación de matrices
Matriz identidad, se representa como 𝐼, y es una matriz cuadrada 𝑛 × 𝑛 que se defina como:
1 0 0 0
1 0 0
1 𝑠𝑖 𝑖 = 𝑗 1 0 0 1 0 0
𝐼𝑛 = 𝑎𝑖𝑗 𝑎𝑖𝑗 = ቊ Por ejemplo, 𝐼2 = 𝐼3 = 0 1 0 𝐼4 =
0 𝑠𝑖 𝑖 ≠ 𝑗 0 1 0 0 1 0
0 0 1
0 0 0 1
Para toda matriz A de 𝑚 × 𝑛, se cumple que: 𝐼𝑚 𝐴 = 𝐴 = 𝐴𝐼𝑛

Propiedad del producto con escalares. Si A, B, son matrices y k es un escalar, entonces:

𝑘 𝐴𝐵 = 𝑘𝐴 𝐵 = 𝐴(𝑘𝐵)

Multiplicación por matriz 0. Para toda matriz A de m n, se cumple que:

0𝐴 = 0 = 𝐴0
Multiplicación de matrices
Matriz identidad, se representa como 𝐼, y es una matriz cuadrada 𝑛 × 𝑛 que se defina como:
1 0 0 0
1 0 0
1 𝑠𝑖 𝑖 = 𝑗 1 0 0 1 0 0
𝐼𝑛 = 𝑎𝑖𝑗 𝑎𝑖𝑗 = ቊ Por ejemplo, 𝐼2 = 𝐼3 = 0 1 0 𝐼4 =
0 𝑠𝑖 𝑖 ≠ 𝑗 0 1 0 0 1 0
0 0 1
0 0 0 1
Para toda matriz A de 𝑚 × 𝑛, se cumple que: 𝐼𝑚 𝐴 = 𝐴 = 𝐴𝐼𝑛

Propiedad del producto con escalares. Si A, B, son matrices y k es un escalar, entonces:

𝑘 𝐴𝐵 = 𝑘𝐴 𝐵 = 𝐴(𝑘𝐵)

Multiplicación por matriz 0. Para toda matriz A de m n, se cumple que:

0𝐴 = 0 = 𝐴0
Solución de ecuaciones lineales
Técnicas por factorización: Gauss sencillo y con pivoteo parcial.

La eliminación de Gauss consiste en utilizar sistemáticamente las operaciones elementales para hacer
ceros debajo de la diagonal de la matriz A y así obtener un sistema triangular superior. La validez del
método reposa sobre el hecho que las operaciones elementales consisten en multiplicar el sistema
planteado por una matriz invertible.
2 𝑥1 + 𝑥2 + 2𝑥3 = 10
Ejemplo 1. Resolver el sistema ቐ6𝑥1 + 4𝑥2 = 26
8𝑥1 + 5𝑥2 + 𝑥3 = 35
2 1 2 10
Solución: Para resolver el sistema se utiliza la matriz ampliada 6 4 0 26 donde el número
8 5 1 35
marcado se le llama pivote sobre el cual se realizan las siguientes transformaciones elementales de filas
y columnas:
2 1 2 10
• T1 (l2→l2-(6/2) l1) y T2 (l3→l3-(8/2) l1) obteniendo 0 1 −6 −4
0 1 −7 −5
Descomposición LU

Supongamos que es posible expresar la matriz A en producto de matrices triangulares L y U. Es importante


señalar que la descomposición LU no es única.
Por esta razón una de las descomposiciones más populares es imponer que la matriz U tenga unos en su
diagonal. Esto se conoce como la descomposición de Crout.
En el método de Crout la matriz A es factorizada como A= LU en donde la matriz L es una matriz triangular
inferior con diagonal unitaria y U una matriz triangular superior. El método de Crout es un procedimiento
del tipo recursivo, esto significa el desarrollo de un conjunto de pasos sucesivos en donde el trabajo a
realizar en cada paso resulta similar o del mismo tipo pero basado en resultados obtenidos en pasos
anteriores. Estos pasos consisten en la descomposición sucesiva de los menores principales de la matriz
de coeficientes A. Del primer ejemplo de Gauss tenemos la triangulación según Crout:

2 1 2 1 0 0 2 1 2
6 4 0 = 3 1 0 0 1 −6
8 5 1 4 1 1 0 0 −1
Descomposición LU

El problema ahora se puede reescribir de la forma: Ax=(LU)x=b, haciendo Ux=y, la resolución del sistema
lineal se puede hacer en dos etapas: i) Ly=b ii) Ux=y, que son dos sistemas triangulares. En la
etapa i se realiza una sustitución hacia adelante sobre la matriz L para obtener el vector y para luego en la
etapa ii hacer una sustitución hacia atrás sobre la matriz U para obtener el vector solución x.

1 0 0 𝑦1 10
3 1 0 𝑦2 = 26 de aquí (y1,y2,y3)=(10,-4,-1), después resuelve la sustitución hacia atrás
4 1 1 𝑦3 35
2 1 2 𝑦1 10
0 1 −6 𝑦2 = −4 resuelto anteriormente.
0 0 −1 𝑦3 −1

El método de Cholesky es un método de factorización de matrices pero cuando la matriz del sistema es
simétrica.
Descomposición LU

Suponga que la matriz A es una matriz m × n se puede escribir como el producto de dos matrices:
𝐴 = 𝐿𝑈
donde L es una matriz triangular inferior m × m y U es una matriz escalonada m × n. Entonces para resolver
el sistema:
𝐴 𝑥 = 𝑏,
escribimos
𝐴 𝑥 = (𝐿 𝑈) 𝑥 = 𝐿 (𝑈 𝑥)

Una posible estrategia de solución consiste en tomar y = U x y resolver para y:

𝐿 𝑦 = 𝑏.

Como la matriz L es triangular superior este sistema puede resolverse mediante sustitución hacia abajo.
Una vez con los valores encontrados de y, las incógnitas al sistema inicial se resuelve despejando x de

𝑈𝑥 = 𝑦
Método de Cramer para resolver sistemas de ecuaciones lineales
Si se cumple la condición de que el det(𝐴) ≠ 0, el método de Cramer consiste en resolver un sistema
lineal 𝐴𝑥 = 𝑏, siguiendo la siguiente fórmula desde 𝑖 = 1 hasta 𝑖 = 𝑛:
𝑑𝑒𝑡𝐴𝑖
𝑥𝑖 = , con 𝑥𝑖 como la i-ésima componente del vector
𝑑𝑒𝑡𝐴

Solución x y 𝐴𝑖 es la matriz A con la i-ésima columna

Solución: El calculo para el primer valor seria:

La complejidad de este método es el número de operaciones necesarias para calcular la solución


Uso de Excel para encontrar Matriz Inversa
Ejemplo: encontrar la inversa de la siguiente matriz utilizando Excel

Solución: Se crea un campo para la matriz original (3x3) y se crea otro similar donde se aplica la función
=MINVERSA al campo de la matriz original, luego se presiona a la misma vez Ctrl+Shift+Enter
Uso de Excel para encontrar Matriz Inversa

Seleccionar el campo de la
Se aplica la función MINVERSA y se
matriz 3x3
selecciona la matriz propuesta

Se cierra la función con Se presiona a la misma vez


paréntesis Ctrl+Shift+Enter
Uso de Excel para encontrar Matriz Inversa
Recuerde que una forma para determinar la solución de ecuaciones algebraicas lineales es: 𝑥 = 𝐴−1 𝑏
Siempre y cuando la matriz inversa exista.

Resolver por la matriz inversa el sistema dado

SOLUCIÓN: Al calcular la matriz inversa el resultado es el siguiente:

Por lo tanto x= =

Para encontrar los valores del vector x se utilizó la siguiente función:


=MMULT(CAMPO DE LA INVERSA, CAMPO DEL VECTOR B)
Cambios de sistemas de coordenadas
Sistemas de coordenadas

Z (3)

Y (2)

X (1)
Coordenadas globales
Coordenadas locales

z’
y’

2 x’
3
3 𝑀𝑧 𝜃𝑧
𝑀𝑦 𝜃𝑦
x’ 2
x’ 𝐹𝑧 ,𝑤 𝐹𝑦 ,v
1
z’ z’ 𝐹𝑥 ,u 𝑀𝑥 𝜃𝑥
y’ y’

4
1
Transformación de coordenadas

𝑥1𝐺
𝑂𝑃𝐺 = 𝑦 =?
1𝐺
𝑦𝐺
𝑦𝐿 𝑥1𝐿
𝑂𝑃𝐿 = 𝑦
1𝐿

𝑥𝐿

𝑂 𝑥𝐺
Transformación de coordenadas
𝑥1𝐿
𝑂𝑃𝐿 = 𝑦 ⊿OBA
1𝐿
OB = OA ∙ cos 𝜃
𝑥1𝐺
𝑦𝐺 𝑂𝑃𝐺 = 𝑦 =? OB = 𝑥1𝐺 ∙ cos 𝜃
1𝐺
𝑦𝐿
BC = 𝐴𝐷

𝑦1𝐺
𝑃
⊿OBA
𝜃 AD = AP ∙ 𝑠𝑖𝑛 𝜃
𝑦1𝐿 C 𝑥𝐿 AD = 𝑦1𝐺 ∙ 𝑠𝑖𝑛 𝜃
𝐵 𝑥1𝐿
Distancia OC en sistema global
⊿ADP
OC = 𝑂𝐵 + 𝐴𝐷
𝜃
⊿OBA D
OC = 𝑥1𝐺 ∙ cos 𝜃+ 𝑦1𝐺 ∙ 𝑠𝑖𝑛 𝜃
𝑂 𝐴 𝑥1𝐺 𝑥𝐺
Transformación de coordenadas

𝑥1𝐿
𝑂𝑃𝐿 = 𝑦 ⊿OFE
1𝐿
𝑥1𝐺 OF = O𝐸 ∙ cos 𝜃
𝑂𝑃𝐺 = 𝑦 =?
1𝐺 OF = 𝑦1𝐺 ∙ cos 𝜃
𝑦𝐺
𝑦𝐿 FG = EH
⊿EPH
𝑦1𝐺 E EH = 𝐸𝑃 ∙ 𝑠𝑖𝑛 𝜃
𝑃 EH = 𝑥1𝐺 ∙ 𝑠𝑖𝑛 𝜃
F 𝜃
FG = 𝑥1𝐺 ∙ 𝑠𝑖𝑛 𝜃

C Distancia OC en sistema global


𝑦1𝐿 H 𝑥𝐿
G 𝐵 𝑥1𝐿 OG = OF − FG
𝜃
OG = 𝑦1𝐿𝐺 ∙ cos 𝜃 − 𝑥1𝐺 ∙ 𝑠𝑖𝑛 𝜃
D
𝑂 𝐴 𝑥1𝐺 𝑥𝐺
Transformación de coordenadas

𝑥1𝐿 OC = 𝑥1𝐿 = 𝑥1𝐺 ∙ cos 𝜃 + 𝑦1𝐺 ∙ 𝑠𝑖𝑛 𝜃


𝑂𝑃𝐿 = 𝑦
1𝐿 OG = 𝑦1𝐿 = 𝑦1𝐺 ∙ cos 𝜃 − 𝑥1𝐺 ∙ 𝑠𝑖𝑛 𝜃
𝑥1𝐺 (reordenamos)
𝑂𝑃𝐺 = 𝑦 =?
1𝐺 OC = 𝑥1𝐿 = 𝑥1𝐺 ∙ cos 𝜃 + 𝑦1𝐺 ∙ 𝑠𝑖𝑛 𝜃
𝑦𝐺 OG = 𝑦1𝐿 = −𝑥1𝐺 ∙ 𝑠𝑖𝑛 𝜃 + 𝑦1𝐺 ∙ cos 𝜃
𝑦𝐿

𝑦1𝐺 E En forma matricial:


𝜃
𝑃 𝑥1𝐿 cos 𝜃 𝑠𝑖𝑛 𝜃 𝑥1𝐺
F
𝑦1𝐿 = −𝑠𝑖𝑛 𝜃 cos 𝜃 ∙ 𝑦1𝐺
𝑂𝑃𝐿 [T]
𝑂𝑃𝐺
𝑦1𝐿 C
H
G 𝐵 𝑥1𝐿 𝑥𝐿 Por lo tanto:
𝜃
𝑂𝑃𝐿 = 𝑇 ∙ 𝑂𝑃𝐺
D 𝑂𝑃𝐺 = 𝑇 𝑇
∙ 𝑂𝑃𝐿
𝑂 𝐴 𝑥1𝐺 𝑥𝐺
Algebra lineal

F4
W4
3 K 4  EI 4 K 4  EI 4

F3
W3
3 K 3  EI 3 K 3  EI 3

F2
W2
3 K 2  EI 2 K 2  EI 2

F1
W1
5
K1  EI1 K1  EI1
Polinomio de Newton

Fórmula de Newton para diferencias finitas para puntos igualmente espaciados.


Esta fórmula puede escribirse de la siguiente manera.
Diferencias finitas
Ejemplo: Desarrollar el polinomio de Newton de grado 3 que pase
por los puntos dados en la siguiente tabla:
Luego calcule 𝑃3(−0.5) 𝑦 𝑃3(1.5)

Solución: Primero encontramos las diferencias hacia adelante y desarrollamos la


formula del polinomio en un valor 𝑥0 = −1 de tal manera que se tomen todas
diferencias. El valor de 𝑠 = (𝑥 + 1)/1 = 𝑥 + 1
Polinomio de Lagrange

Luego se puede definir muy fácilmente el polinomio de Interpolación de Lagrange de grado n que
aproxima n+1 puntos que no están igualmente espaciados como:
P3 x  
 x  0x  1x  2
1   x  1x  1x  2
1   x  1x  0x  2
1   x  1x  0x  1
5
 1  0 1  1 1  2 0  10  10  2 1  11  01  2 2  12  02  1
P3 x  
 

x x 2  3x  2 x 3  2 x 2  x  2 x 3  x 2  2 x 5 x 3  5 x
 
6 2 2 6
P3 x   x 3  x  1
2 2
3 3
ELEMENTOS LAGRANGIANOS

Introducción

• Para obtener las funciones de forma de elementos unidimensionales de clase Co se


puede hacer uso de las propiedades de los polinomios de Lagrange

• Estos polinomios toman un determinado valor en un punto y cero en un conjunto


de puntos prefijados
Historia de los valores y vectores propios

• El problema de la determinación algebraica de valores propios surgió en el Siglo XVIII a partir


del estudio de sistemas mecánicos discretos.

• Su aparición, sin embargo, no resulta sorprendente ya que el estudio de formas cuadráticas


existía desde la segunda mitad del Siglo XVII; Leibniz había mostrado un gran interés en el
estudio de sistemas de ecuaciones y sistemas de formas cuadráticas y estos temas son los que
eventualmente darían lugar a una teoría de matrices.

• Fue hacia la segunda mitad del Siglo XVIII, que tanto Lagrange, como Laplace se vieron
obligados−siempre motivados por la teoría física−a profundizar en el estudio matemático de
los valores propios.
Historia de los valores y vectores propios

En álgebra lineal, los vectores propios o autovectores de un operador lineal son los vectores no nulos
que, cuando son transformados por el operador, dan lugar a un múltiplo escalar de sí mismos, con lo
que no cambian su dirección.

Este escalar λ recibe el nombre valor propio, autovalor o valor característico.

En 1820, Cauchy se dio cuenta de la importancia de los valores propios para determinar los “ejes
principales” de una forma cuadrática con n variables.

También aplicó sus descubrimientos a la teoría del movimiento planetario. Fue él quien, en 1840, usó
por primera vez los términos valores característicos y ecuación característica para indicar los valores
propios y la ecuación polinomial básica.
Valores y Vectores propios.

• Diagonalización de
matrices.
Polinomio característico

Solución: Primero encontremos la matriz 𝐴 − 𝜆𝐼.

-λ = , luego

calculamos el determinante de esta matriz, el cual resulta:

𝑝(𝜆) = det(𝐴 − 𝜆𝐼) = (3 − 𝜆)(5 − 𝜆)(−1 − 𝜆) =

Las raíces de este polinomio característico son 𝜆1 = 3, 𝜆2 = 5 𝑦 𝜆3 = −1.


Multiplicidad de un valor propio

Determine las multiplicidades de


sus valores propios.

Solución: Calculamos primero la matriz 𝐴 − 𝜆𝐼 la cual es:

Luego encontramos el det(𝐴 − 𝜆𝐼) por el método de los menores utilizando la columna 1, de aquí
obtenemos, de donde concluimos que 𝜆1 = 1 es un valor propio de multiplicidad algebraica 1 y 𝜆2 = 2 es
un valor propio de multiplicidad algebraica 2.

También podría gustarte