Documentos de Académico
Documentos de Profesional
Documentos de Cultura
1. Sucesiones numéricas
2. Convergencia de series
3. Algebra lineal
4. Propiedades de matrices
6. Determinantes de matrices
7. Cambio de coordenadas
El problema de los sistemas lineales de ecuaciones es uno de los más antiguos de la matemática y tiene una
infinidad de aplicaciones, como en procesamiento digital de señales, análisis estructural, estimación, predicción y
más generalmente en programación lineal así como en la aproximación de problemas no lineales de análisis
numérico.
En este encuentro se analizan las ecuaciones algebraicas lineales simultáneas que en general se representan
como:
Donde las 𝑎𝑖𝑗 son los coeficientes constantes de las variables y las 𝑏𝑖
son los términos independientes constantes.
Los sistemas de ecuaciones lineales comenzaron a ser estudiados sistemáticamente por Leibniz y Cramer a
mediados del siglo XVIII. Esté último matemático, expuso lo que hoy conocemos como regla de Cramer para
los sistemas de orden 3. A mediados del siglo XIX fue Cayley, al estudiar las matrices, quien dedujo la formula
general de la regla de Cramer y quien expuso claramente la condición necesaria y suficiente para que un
sistema cuadrado de ecuaciones lineales tuviera solución única, a saber, que la matriz de los coeficientes del
sistema fuera invertible.
A medida que en otras disciplinas científicas se iba encontrando que los problemas se podían plantear en
términos de sistemas de ecuaciones lineales los matemáticos se empezaron a preocupar de aspectos como
el número de operaciones en un algoritmo. Pronto se dieron cuenta que para calcular la inversa de una
matriz por otros algoritmos el número de operaciones era muy elevado, mientras que el método de Gauss
exigía un numero considerablemente menor.
Otro problema muy complicado era el siguiente:
¿De que forma contribuyen los errores de redondeo individuales al error total?
Este fue atacado por primera vez por Von Neumann. Actualmente se utiliza el método John Von Neumann
(1903-1957)
del pivoteo parcial, una ligera variante del método de Gauss, para intentar que los
errores parciales sean los menores posibles. En1948, el matemático inglés Alan Turing
desarrolló la factorización LU.
El algebra lineal surge de estudiar un sistema de ecuaciones lineales de cualquier cantidad de variables,
Todas las que representen una línea recta, para representar una infinita ecuación de variables
𝑎1 𝑥1 + 𝑎2 𝑥2 + ⋯ + 𝑎𝑛 𝑥𝑛 = 𝑏 (𝑛 𝑣𝑎𝑟𝑖𝑎𝑏𝑙𝑒𝑠)
5𝑥 − 𝑦 + 3𝑧 + 8𝑤 = 5
2𝑥 + 3𝑦 = 1 (sistema de 2x4)
(sistema 2x2) 𝑥 − 3𝑦 + 6𝑦 − 5𝑤 = 1
5𝑥 − 2𝑦 = 4
5𝑥 − 𝑦 + 3𝑧 = 5 𝑥 − 3𝑦 = 0
2𝑧 + 3𝑦 − 5𝑧 = 4 (sistema 3x3) 2𝑥 − 𝑦 = 2 (sistema de 3x2)
6𝑥 − 3𝑦 = 6
𝑥 − 3𝑦 + 6𝑦 = 1
Algebra lineal
Podemos representar para infinitas ecuaciones y variables con;
Hasta sabemos cómo resolver un sistema de ecuaciones de 2x2 o 3x3 por método como el de sustitución, reducción o
igualación. El problema es cuando tenemos sistema con muchas ecuaciones y variables.
El algebra lineal:
¿Todo sistema de ecuaciones lineales tiene solución? ¿cómo saber si un sistema tiene o no solución?
Si un sistema dado tiene solución ¿cuántas soluciones tiene? ¿Cómo podemos encontrar todas las soluciones de, por ejemplo,
un sistema 6 x 10?
Para responder estas preguntas el algebra lineal tiene otras herramientas u objetos entre los cuales se encuentran:
• Sistemas de ecuaciones
• Matrices
• Espacios vectoriales
• Transformaciones lineales
Algebra lineal
Ejemplo: Matriz:
5𝑥 − 𝑦 + 3𝑧 + 8𝑤 = 5 5 −1 3 8
𝑥 − 3𝑦 + 6𝑧 − 5𝑤 = −1 1 −3 6 5
2𝑥 − 7𝑦 + 2𝑧 + 3𝑤 = 2 2 7 2 3
−3 5 1 −3 1 𝑎13 = 1
𝐴= 2 6 1 2 2
−1 0 4 −4 9
𝑎31 = −1
Algebra lineal
Ejemplo: 5𝑥 − 𝑦 + 3𝑧 + 8𝑤 = 5 Matriz: 5 −1 3 8
𝑥 − 3𝑦 + 6𝑧 − 5𝑤 = −1 1 −3 6 5
2𝑥 − 7𝑦 + 2𝑧 + 3𝑤 = 2 2 7 2 3
De manera general: La posición:
𝑎11 𝑎12 … 𝑎1𝑛 𝑎34 = −4 𝑎13 = 1
𝑎21 𝑎22 … 𝑎2𝑛
𝐴= ⋮ ⋮ ⋱ ⋮ 𝑎22 = 6 𝑎31 = −1
𝑎𝑚1 𝑎𝑚2 … 𝑎𝑚𝑛
−3 5 1 −3 1
𝐴= 2 6 1 2 2
−1 0 4 −4 9
2 + ì −3𝑖 4
Las matrices pueden tener entradas en ℝ o ℂ o ℚ, etc. 𝐴= 𝐴 𝜖 𝑀2𝑥3 (ℂ)
7𝑖 0 5 − 7𝑖
𝑀5𝑥2 (ℝ) es el conjunto de matrices de 5 filas y 2 columnas con entradas en los número reales ( ℝ )
𝑀2𝑥7 (ℚ) es el conjunto de matrices de 2 filas y 7 columnas con entradas en los número racionales (ℚ)
Algebra lineal
Matrices especiales que utilizaremos mucho son las matrices columnas:
2
𝑢 = 5 𝑣𝑒𝑐𝑡𝑜𝑟 𝑑𝑒 𝑐𝑜𝑙𝑢𝑚𝑛𝑎 3𝑥1 𝜖 ℝ3 𝑣Ԧ = 0 1 −4 9 𝑣𝑒𝑐𝑡𝑜𝑟 𝑑𝑒 𝑓𝑖𝑙𝑎 1𝑥4 𝜖 ℝ4
−3
Matriz cero:
0 0 0
0 0 0
0= 0 0 0 0= 0= 0= 0 0 0
0 0 0
0 0 0
2 0
𝑎= 𝜖 𝑀2 (ℝ) Los términos 𝑎11 , 𝑎22 , 𝑎33 , … , 𝑎𝑛𝑛 se denominan diagonal principal de la
3 −1
matriz
1 −1 0
𝑎 = 0 −3 −1 𝜖 𝑀3 (ℝ)
7 9 4
Operaciones con matrices: suma, resta y multiplicación por un escalar
−3 5 1 −3 1
𝐴= 2 6 1 2 2
−1 0 4 −4 9
Si operamos 3*A se multiplica por cada uno de los valores de la matrices:
−3 5 1 −3 1 −9 15 3 −9 3
3𝐴 = 3 ∗ 2 6 1 2 2 = 6 18 3 6 6
−1 0 4 −4 9 −3 0 12 −12 27
Suma y resta de matrices (ambas deben de ser el mismo tamaño). La suma o resta se realiza cada
entrada con la correspondiente
1 −2 6 3 3 −5 4 1 1
𝐴+𝐵 = + =
1 −2 6 3 3 −5 4 6 −1 0 −1 −2 4 5 −3
𝐴= 𝐵=
4 6 −1 0 −1 −2 1 −2 6 3 3 −5 −2 −5 11
𝐴−𝐵 = − =
4 6 −1 0 −1 −2 4 7 1
Propiedades de la suma y multiplicación por escalar
Propiedad conmutativa
Entrada 𝑖, 𝑗, de 𝐴 + 𝐵: 𝑎𝑖𝑗 + 𝑏𝑖𝑗
Entrada 𝑖, 𝑗, de 𝐵 + 𝐴: 𝑏𝑖𝑗 + 𝑎𝑖𝑗
𝑎𝑖𝑗 + 𝑏𝑖𝑗 = 𝑏𝑖𝑗 + 𝑎𝑖𝑗 pues en ℝ la suma es conmutativa, tanto para número reales como para ℂ
Propiedades de la suma y multiplicación por escalar
Propiedad asociativa:
El producto escalar es un producto que se realiza entre vectores. Nos servirá para introducirnos al producto
entre matrices. Sean los vectores:
4 8
𝑢 = −2 𝑣Ԧ = 0
6 1
El producto punto se representa como: Otra forma de escribir el producto punto
𝑢 ∙ 𝑣Ԧ = 4 8 + −2 0 + 6 1 = 32 + 0 + 6 = 38 < 𝑢, 𝑣Ԧ > = 38
Propiedades del producto por un escalar
Vemos que el producto punto de dos vectores nos da un número escalar. Para poder realizarlo, debemos de
tener vectores de la misma dimensión. Lo mismo para vectores de una fila.
𝑢 = 2 −5 3 1 𝑣Ԧ = 0 4 −2 7
𝑢 ∙ 𝑣Ԧ = 2 0 + −5 4 + 3 −2 + 1 7 = 0 − 20 − 6 + 7 = −19
Veamos un ejemplo de dos vectores de la misma dimensión pero en fila y columna:
6
𝑢= 3 8 𝑣Ԧ = 𝑢 ∙ 𝑣Ԧ = 3 6 + 8 2 = 34
2
Propiedades del producto punto
Ԧ 𝑤 ∈ ℝ𝑛 y sea 𝑘 𝜖 ℝ
Sean 𝑢, 𝑣,
a) 𝑢 ∙ 𝑢 ≥ 0, 𝑢 ∙ 𝑢 = 0 𝑠𝑖 𝑦 𝑠𝑜𝑙𝑜 𝑠𝑖 𝑢 = 0
b) 𝑢 ∙ 𝑣Ԧ = 𝑣Ԧ ∙ 𝑢 𝑐𝑜𝑛𝑚𝑢𝑡𝑎𝑡𝑖𝑣𝑎
c) 𝑢 ∙ 𝑣Ԧ + 𝑤 = 𝑢 ∙ 𝑣Ԧ + 𝑢 ∙ 𝑤 𝑑𝑖𝑠𝑡𝑟𝑖𝑏𝑢𝑡𝑖𝑣𝑎
d) 𝑘 ∙ 𝑢 ∙ 𝑣Ԧ = 𝑘 ∙ 𝑢 ∙ 𝑣Ԧ = 𝑢 ∙ 𝑘 ∙ 𝑣Ԧ
e) 𝑢 ∙ 0 = 0
Multiplicación de matrices
La multiplicación de matrices es diferente a lo anterior visto. Sea una matriz A de 𝑚 × 𝑛, para poder multiplicarla
por otra matriz, esta debe ser una matriz B de 𝑛 × 𝑝. Al multiplicar ambas matrices nos quedará 𝐴𝐵 de 𝑚 × 𝑝.
Sean la matrices: 1 0
2 −5 1 −2
𝐴3𝑥2 = 6 −2 𝐵2𝑥4 =
3 2 0 −1
−1 4
Iguales, se realiza el producto
Si nos imaginamos que la matriz tiene varios vectores, entonces realizamos producto puntos de varios vectores,
filas de la primera matriz con columna de la segunda.
1 0 2 −5 1 −2
𝐴3𝑥2 = 6 −2 𝐵2𝑥4 =
3 2 0 −1
−1 4
1 ∗ 2) + (0 ∗ 3 1 ∗ −5) + (0 ∗ 2 1 ∗ 1) + (0 ∗ 0 1 ∗ −2) + (0 ∗ −1 2 −5 1 −2
𝐴𝐵3𝑥4 = 6 ∗ 2) − (2 ∗ 3 6 ∗ −5) − (2 ∗ 2 6 ∗ 1) − (2 ∗ 0 6 ∗ −2) − (2 ∗ −1 = 6 34 6 −10
−1 ∗ 2) + (4 ∗ 3 −1 ∗ −5) + (4 ∗ 2 −1 ∗ 1) + (4 ∗ 0 −1 ∗ −2) + (4 ∗ −1 10 13 −1 −2
Multiplicación de matrices
Definición: sea 𝐴 = 𝑎𝑖𝑗 una matriz 𝑚 × 𝑛, y sea 𝐵 = 𝑏𝑖𝑗 un matriz 𝑛 × 𝑝. Entonces el producto de A y B es una
matriz 𝐶 = (𝑐𝑖𝑗 ), en donde,
𝑐𝑖𝑗 = 𝑎𝑖1 𝑏1𝑗 + 𝑎𝑖2 𝑏2𝑗 + ⋯ + 𝑎𝑖𝑛 𝑏𝑛𝑗
2 9 −3 3
3 𝑢 ∙ 𝑤: 2𝑥3 𝑢 ∙ 𝑤: 𝑢 ∙ 𝑣:
Ԧ 𝑛𝑜 𝑒𝑠𝑡á 𝑑𝑒𝑓𝑖𝑛𝑖𝑑𝑜
𝑢2𝑥1 = 𝑣Ԧ3𝑥1 = 5 −12 4 −4
−4 0
6 −2 2
𝑤1𝑥3 = 3 −1 1 𝑣Ԧ ∙ 𝑤: 3𝑥3 𝑣Ԧ ∙ 𝑤: 15 −5 5 𝑤 ∙ 𝑣:
Ԧ 1
0 0 0
El producto de la matrices NO ES CONMUTATIVA
Multiplicación de matrices
Matriz identidad, se representa como 𝐼, y es una matriz cuadrada 𝑛 × 𝑛 que se defina como:
1 0 0 0
1 0 0
1 𝑠𝑖 𝑖 = 𝑗 1 0 0 1 0 0
𝐼𝑛 = 𝑎𝑖𝑗 𝑎𝑖𝑗 = ቊ Por ejemplo, 𝐼2 = 𝐼3 = 0 1 0 𝐼4 =
0 𝑠𝑖 𝑖 ≠ 𝑗 0 1 0 0 1 0
0 0 1
0 0 0 1
Para toda matriz A de 𝑚 × 𝑛, se cumple que: 𝐼𝑚 𝐴 = 𝐴 = 𝐴𝐼𝑛
𝑘 𝐴𝐵 = 𝑘𝐴 𝐵 = 𝐴(𝑘𝐵)
0𝐴 = 0 = 𝐴0
Multiplicación de matrices
Matriz identidad, se representa como 𝐼, y es una matriz cuadrada 𝑛 × 𝑛 que se defina como:
1 0 0 0
1 0 0
1 𝑠𝑖 𝑖 = 𝑗 1 0 0 1 0 0
𝐼𝑛 = 𝑎𝑖𝑗 𝑎𝑖𝑗 = ቊ Por ejemplo, 𝐼2 = 𝐼3 = 0 1 0 𝐼4 =
0 𝑠𝑖 𝑖 ≠ 𝑗 0 1 0 0 1 0
0 0 1
0 0 0 1
Para toda matriz A de 𝑚 × 𝑛, se cumple que: 𝐼𝑚 𝐴 = 𝐴 = 𝐴𝐼𝑛
𝑘 𝐴𝐵 = 𝑘𝐴 𝐵 = 𝐴(𝑘𝐵)
0𝐴 = 0 = 𝐴0
Solución de ecuaciones lineales
Técnicas por factorización: Gauss sencillo y con pivoteo parcial.
La eliminación de Gauss consiste en utilizar sistemáticamente las operaciones elementales para hacer
ceros debajo de la diagonal de la matriz A y así obtener un sistema triangular superior. La validez del
método reposa sobre el hecho que las operaciones elementales consisten en multiplicar el sistema
planteado por una matriz invertible.
2 𝑥1 + 𝑥2 + 2𝑥3 = 10
Ejemplo 1. Resolver el sistema ቐ6𝑥1 + 4𝑥2 = 26
8𝑥1 + 5𝑥2 + 𝑥3 = 35
2 1 2 10
Solución: Para resolver el sistema se utiliza la matriz ampliada 6 4 0 26 donde el número
8 5 1 35
marcado se le llama pivote sobre el cual se realizan las siguientes transformaciones elementales de filas
y columnas:
2 1 2 10
• T1 (l2→l2-(6/2) l1) y T2 (l3→l3-(8/2) l1) obteniendo 0 1 −6 −4
0 1 −7 −5
Descomposición LU
2 1 2 1 0 0 2 1 2
6 4 0 = 3 1 0 0 1 −6
8 5 1 4 1 1 0 0 −1
Descomposición LU
El problema ahora se puede reescribir de la forma: Ax=(LU)x=b, haciendo Ux=y, la resolución del sistema
lineal se puede hacer en dos etapas: i) Ly=b ii) Ux=y, que son dos sistemas triangulares. En la
etapa i se realiza una sustitución hacia adelante sobre la matriz L para obtener el vector y para luego en la
etapa ii hacer una sustitución hacia atrás sobre la matriz U para obtener el vector solución x.
1 0 0 𝑦1 10
3 1 0 𝑦2 = 26 de aquí (y1,y2,y3)=(10,-4,-1), después resuelve la sustitución hacia atrás
4 1 1 𝑦3 35
2 1 2 𝑦1 10
0 1 −6 𝑦2 = −4 resuelto anteriormente.
0 0 −1 𝑦3 −1
El método de Cholesky es un método de factorización de matrices pero cuando la matriz del sistema es
simétrica.
Descomposición LU
Suponga que la matriz A es una matriz m × n se puede escribir como el producto de dos matrices:
𝐴 = 𝐿𝑈
donde L es una matriz triangular inferior m × m y U es una matriz escalonada m × n. Entonces para resolver
el sistema:
𝐴 𝑥 = 𝑏,
escribimos
𝐴 𝑥 = (𝐿 𝑈) 𝑥 = 𝐿 (𝑈 𝑥)
𝐿 𝑦 = 𝑏.
Como la matriz L es triangular superior este sistema puede resolverse mediante sustitución hacia abajo.
Una vez con los valores encontrados de y, las incógnitas al sistema inicial se resuelve despejando x de
𝑈𝑥 = 𝑦
Método de Cramer para resolver sistemas de ecuaciones lineales
Si se cumple la condición de que el det(𝐴) ≠ 0, el método de Cramer consiste en resolver un sistema
lineal 𝐴𝑥 = 𝑏, siguiendo la siguiente fórmula desde 𝑖 = 1 hasta 𝑖 = 𝑛:
𝑑𝑒𝑡𝐴𝑖
𝑥𝑖 = , con 𝑥𝑖 como la i-ésima componente del vector
𝑑𝑒𝑡𝐴
Solución: Se crea un campo para la matriz original (3x3) y se crea otro similar donde se aplica la función
=MINVERSA al campo de la matriz original, luego se presiona a la misma vez Ctrl+Shift+Enter
Uso de Excel para encontrar Matriz Inversa
Seleccionar el campo de la
Se aplica la función MINVERSA y se
matriz 3x3
selecciona la matriz propuesta
Por lo tanto x= =
Z (3)
Y (2)
X (1)
Coordenadas globales
Coordenadas locales
z’
y’
2 x’
3
3 𝑀𝑧 𝜃𝑧
𝑀𝑦 𝜃𝑦
x’ 2
x’ 𝐹𝑧 ,𝑤 𝐹𝑦 ,v
1
z’ z’ 𝐹𝑥 ,u 𝑀𝑥 𝜃𝑥
y’ y’
4
1
Transformación de coordenadas
𝑥1𝐺
𝑂𝑃𝐺 = 𝑦 =?
1𝐺
𝑦𝐺
𝑦𝐿 𝑥1𝐿
𝑂𝑃𝐿 = 𝑦
1𝐿
𝑥𝐿
𝑂 𝑥𝐺
Transformación de coordenadas
𝑥1𝐿
𝑂𝑃𝐿 = 𝑦 ⊿OBA
1𝐿
OB = OA ∙ cos 𝜃
𝑥1𝐺
𝑦𝐺 𝑂𝑃𝐺 = 𝑦 =? OB = 𝑥1𝐺 ∙ cos 𝜃
1𝐺
𝑦𝐿
BC = 𝐴𝐷
𝑦1𝐺
𝑃
⊿OBA
𝜃 AD = AP ∙ 𝑠𝑖𝑛 𝜃
𝑦1𝐿 C 𝑥𝐿 AD = 𝑦1𝐺 ∙ 𝑠𝑖𝑛 𝜃
𝐵 𝑥1𝐿
Distancia OC en sistema global
⊿ADP
OC = 𝑂𝐵 + 𝐴𝐷
𝜃
⊿OBA D
OC = 𝑥1𝐺 ∙ cos 𝜃+ 𝑦1𝐺 ∙ 𝑠𝑖𝑛 𝜃
𝑂 𝐴 𝑥1𝐺 𝑥𝐺
Transformación de coordenadas
𝑥1𝐿
𝑂𝑃𝐿 = 𝑦 ⊿OFE
1𝐿
𝑥1𝐺 OF = O𝐸 ∙ cos 𝜃
𝑂𝑃𝐺 = 𝑦 =?
1𝐺 OF = 𝑦1𝐺 ∙ cos 𝜃
𝑦𝐺
𝑦𝐿 FG = EH
⊿EPH
𝑦1𝐺 E EH = 𝐸𝑃 ∙ 𝑠𝑖𝑛 𝜃
𝑃 EH = 𝑥1𝐺 ∙ 𝑠𝑖𝑛 𝜃
F 𝜃
FG = 𝑥1𝐺 ∙ 𝑠𝑖𝑛 𝜃
F4
W4
3 K 4 EI 4 K 4 EI 4
F3
W3
3 K 3 EI 3 K 3 EI 3
F2
W2
3 K 2 EI 2 K 2 EI 2
F1
W1
5
K1 EI1 K1 EI1
Polinomio de Newton
Luego se puede definir muy fácilmente el polinomio de Interpolación de Lagrange de grado n que
aproxima n+1 puntos que no están igualmente espaciados como:
P3 x
x 0x 1x 2
1 x 1x 1x 2
1 x 1x 0x 2
1 x 1x 0x 1
5
1 0 1 1 1 2 0 10 10 2 1 11 01 2 2 12 02 1
P3 x
x x 2 3x 2 x 3 2 x 2 x 2 x 3 x 2 2 x 5 x 3 5 x
6 2 2 6
P3 x x 3 x 1
2 2
3 3
ELEMENTOS LAGRANGIANOS
Introducción
• Fue hacia la segunda mitad del Siglo XVIII, que tanto Lagrange, como Laplace se vieron
obligados−siempre motivados por la teoría física−a profundizar en el estudio matemático de
los valores propios.
Historia de los valores y vectores propios
En álgebra lineal, los vectores propios o autovectores de un operador lineal son los vectores no nulos
que, cuando son transformados por el operador, dan lugar a un múltiplo escalar de sí mismos, con lo
que no cambian su dirección.
En 1820, Cauchy se dio cuenta de la importancia de los valores propios para determinar los “ejes
principales” de una forma cuadrática con n variables.
También aplicó sus descubrimientos a la teoría del movimiento planetario. Fue él quien, en 1840, usó
por primera vez los términos valores característicos y ecuación característica para indicar los valores
propios y la ecuación polinomial básica.
Valores y Vectores propios.
• Diagonalización de
matrices.
Polinomio característico
-λ = , luego
Luego encontramos el det(𝐴 − 𝜆𝐼) por el método de los menores utilizando la columna 1, de aquí
obtenemos, de donde concluimos que 𝜆1 = 1 es un valor propio de multiplicidad algebraica 1 y 𝜆2 = 2 es
un valor propio de multiplicidad algebraica 2.