Está en la página 1de 62

TEORÍA ALGEBRA

UNIDAD 1: Matrices.
Matriz: dados m y n enteros positivos, una matriz A de m x n es un arreglo rectangular de escalares dispuestos en
m renglones y n columnas.
Los m.n números del arreglo se denominan elementos de la matriz, y un elemento genérico de A se simboliza con
𝑎𝑖𝑗 (elemento ubicado en el i – ésimo renglón o fila y en la j – ésima columna). Se utilizan paréntesis o corchetes
para encerrar a los m.n elementos de la matriz; y en general, se emplean letras mayúsculas para designar a las
matrices.
En símbolos:
𝑎11 ⋯ 𝑎1𝑛
𝐴𝑚𝑥𝑛 =( ⋮ ⋱ ⋮ ), o 𝐴𝑚𝑥𝑛 = (𝑎𝑖𝑗 )𝑚𝑥𝑛 𝑐𝑜𝑛 1 ≤ 𝑖 ≤ 𝑚, 1 ≤ 𝑗 ≤ 𝑛.
𝑎𝑚1 ⋯ 𝑎𝑚𝑛
Tamaño u orden de una matriz: una matriz que tiene m filas y n columnas es de tamaño u orden m x n.
Matriz fila: si una matriz es de tamaño 1 x n, se denomina matriz fila o vector fila.
Matriz columna: si una matriz es de tamaño m x 1, se denomina matriz columna o vector columna.
Matriz cuadrada: una matriz 𝐴𝑚𝑥𝑛 es cuadrada si m = n. En este caso, se dice que el tamaño de A es n.
Matriz identidad: se denomina matriz identidad y se simboliza con I, a la matriz cuadrada tal que:
𝑎𝑖𝑗 = 1 si i = j.
𝑎𝑖𝑗 = 0 si i ≠ j.
Matriz nula: se denomina matriz nula y se simboliza con 0, a la matriz tal que para todo i y para todo j, se cumple
que 𝑎𝑖𝑗 = 0.
Igualdad de matrices: dos matrices A y B son iguales si tienen el mismo tamaño y si 𝑎𝑖𝑗 = b, para todo i = 1,…,m y
para todo j = 1,…,n, es decir cuando los elementos correspondientes son iguales.
Matriz triangular superior: una matriz triangular es superior cuando A es cuadrada, o sea 𝐴 ∈ 𝑅 𝑛𝑥𝑚 y además 𝑎𝑖𝑗 =
0 cuando i > j. Si i < j es triangular inferior.
Matriz diagonal: una matriz cuadrada es diagonal cuando todos los elementos fuera de la diagonal son ceros.
𝐵 = (𝑏𝑖𝑗 ) ∈ 𝑅 𝑡𝑥𝑡 .
𝐴 ∈ 𝑅 𝑛𝑥𝑚 𝑦 𝑎𝑖𝑗 = 0 si i ≠ j.
Operaciones con matrices:
Suma de matrices: sean A = (𝑎𝑖𝑗 )𝑚𝑥𝑛 y B = (𝑏𝑖𝑗 )𝑚𝑥𝑛 , entonces la suma de A y B es la matriz C = (𝑐𝑖𝑗 )𝑚𝑥𝑛 tal que
para todo i y para todo j 𝐶𝑖𝑗 = 𝑎𝑖𝑗 + 𝑏𝑖𝑗 .
En símbolos:
𝑎11 ⋯ 𝑎1𝑛 𝑏11 ⋯ 𝑏1𝑛
𝐴=( ⋮ ⋱ ⋮ )y𝐵=( ⋮ ⋱ ⋮ )
𝑎1𝑚 ⋯ 𝑎𝑚𝑛 𝑏1𝑚 ⋯ 𝑏𝑚𝑛
𝑎11 + 𝑏11 ⋯ 𝑎1𝑛 + 𝑏1𝑛
Entonces C = A + B =( ⋮ ⋱ ⋮ ).
𝑎1𝑚 + 𝑏1𝑚 ⋯ 𝑎𝑚𝑛 + 𝑏𝑚𝑛
Multiplicación por escalar: sean 𝜏 𝜖 𝑅 y A = (𝑎𝑖𝑗 )𝑚𝑥𝑛 . Entonces la matriz B = 𝜏. 𝐴 se obtiene al multiplicar cada
componente de A por el escalar 𝜏. Esto es, B = (𝑏𝑖𝑗 )𝑚𝑥𝑛 / ∀𝑖; ∀𝑗: 𝑏𝑖𝑗 = 𝜏. 𝑎𝑖𝑗 .
𝑎11 ⋯ 𝑎1𝑛 𝜏. 𝑎11 ⋯ 𝜏. 𝑎1𝑛
En símbolos, si 𝐴 = ( ⋮ ⋱ ⋮ ) → 𝜏. 𝐴 = ( ⋮ ⋱ ⋮ )
𝑎1𝑚 ⋯ 𝑎𝑚𝑛 𝜏. 𝑎1𝑚 ⋯ 𝜏. 𝑎𝑚𝑛

Producto de matrices: dadas A = (𝑎𝑖𝑗 )𝑚𝑥𝑛 y B = (𝑏𝑖𝑗 )𝑚𝑥𝑛 , entonces el producto de A y B es una matriz: C=
(𝑐𝑖𝑗 )𝑚𝑥𝑛 𝑡𝑎𝑙 𝑞𝑢𝑒 ∀𝑖; ∀𝑗: 𝑐𝑖𝑗 = ∑𝑖𝑘=1 𝑎𝑖𝑘 . 𝑏𝑗𝑘 .
En otras palabras, cada elemento 𝑐𝑖𝑗 de la matriz producto se obtiene al realizar el producto punto del vector fila i
- ésima de A y el j – ésimo vector de B.
Para poder realizar el producto A.B, la cantidad de columnas de A debe ser igual a la cantidad de filas de B. La
matriz producto tiene tantas filas como A y tantas columnas como B.
Propiedades de las operaciones matriciales:
Las propiedades de las operaciones matriciales definidas son suma, multiplicación por un escalar y producto.
Sean 𝜏, 𝜏1 𝑦 𝜏2 escalares, y A, B y C matrices (en todos los casos se supone que su tamaño permite realizar las
operaciones). 0 es la matriz nula.
1. A + B = B + A. Ley conmutativa para la suma.
2. (A + B) + C = A + (B + C). Ley Asociativa para la suma.
3. 𝜏. (A + B) = 𝜏.A + 𝜏.B. Ley distributiva para la suma.
4. (𝜏1 + 𝜏2 ) . A = 𝜏1 . 𝐴 + 𝜏2 . 𝐴. Ley distributiva para la suma.
5. A + 0 = A. Existencia de elemento neutro para la suma.
6. A + (- A) = 0. Existencia de elemento inverso aditivo u opuesto en la suma.
7. 1. A = A Existencia de elemento neutro para la multiplicación por escalar.
8. 𝜏. A = 0 ↔ 𝜏 = 0  A = 0.
9. 𝐴. 𝐼𝑛 = 𝐼𝑛 . A = A, siendo 𝐴𝑛𝑥𝑛 . Existencia de elemento neutro para la multiplicación.
10. (𝐴 + 𝐵). C = A.C +B.C. Ley distributiva para la multiplicación.
11. A. (B + C) = A.B + A.C. Ley distributiva para la multiplicación.
12. (A.B).C = A. (B.C). Ley asociativa para la multiplicación de matrices.
13. (𝜏1 + 𝜏2 ).A = 𝜏1 . ( 𝜏2 . 𝐴). Ley asociativa para la multiplicación por un escalar.
14. 𝜏. (A.B) = (𝜏. 𝐴).B = A. ( 𝜏. 𝐵) Ley asociativa para la multiplicación por un escalar.
15. A.0 = 0.A = 0, siendo 𝐴𝑛𝑥𝑛 . Existencia de elemento absorbente en multiplicación de matrices.
16. Existen matrices no nulas (A ≠ 0, B ≠ 0) tal que A.B = 0. Existencia de divisores propios del cero.
17. B = C → A.B = A.C multiplicación a la izquierda.
B = C → B.A = C.A multiplicación a la derecha.
Sin embargo el producto entre matrices no goza de la propiedad cancelativa: A.B = A.C pero B ≠ C. B.A = C.A
pero B ≠ C.
Potencia de una matriz: la potencia de una matriz se define en términos de la multiplicación de la matriz consigo
misma un número finito de veces.
Si A es una matriz cuadrada, es posible realizar el producto A.A….A. Para simbolizar esta matriz se usa la
misma notación exponencial que para todos los números, esto es 𝐴𝑛 = A.A…A.
Transpuesta de una matriz: sea una matriz 𝐴𝑛𝑥𝑛 , se dice que 𝐵𝑛𝑥𝑛 es la matriz transpuesta de A ↔ ∀𝑖; ∀𝑗: 𝑎𝑖𝑗 =
𝑏𝑖𝑗 . La matriz transpuesta de A se simboliza con 𝐴𝑇 o A’.
Una matriz es simétrica si coincide con su transpuesta, y anti simétrica si coincide con la matriz opuesta de su
transpuesta.
A es simétrica si y solo si A = 𝐴𝑇 .
A es anti simétrica si y solo si A = - 𝐴𝑇 .
Inversa de una matriz: sean A y B dos matrices de n x n. Se dice que B es inversa de A si y solo sí A.B = B.A
= I. Si B existe, se dice que A es invertible o no singular y se denota con 𝐴−1 .
Entonces A. 𝐴−1 = 𝐴−1.A = I.
Si una matriz tiene inversa, ésta es única.
Propiedades de la transposición e inversión de matrices:
1. (A + B)T = AT + B T
2. (τ. A)T = τ. A−T
T
3. (AT ) = A
4. (A. B)T = AT . B T
5. (A−1 )−1 = A
6. A−1 . B −1 = (𝐴. 𝐵)−1
7. (𝐴𝑇 )−1 = (𝐴−1 )𝑇
1
8. (τ. A)−1 = 𝜏 . A−1 , 𝜏 ≠ 0

9. (𝐴𝑛 )−1 = (𝐴−1 )𝑛 , 𝑛 ∈ 𝑅


Traza de una matriz: sea 𝐴 una matriz cuadrada, la traza de 𝐴𝑛𝑥𝑛 se define como la suma de los elementos de
la diagonal principal.
La traza de A no está definida si A no es una matriz cuadrada.
Propiedades:
- La traza de 𝐴𝑇 es igual a la traza de A.
- La traza de (A + B) = tr A + tr B.
Operaciones elementales:
Dada 𝐴 ∈ 𝑅 𝑛𝑥𝑚 se definen tres operaciones elementales:
1. Multiplicación de una fila por un escalar no nulo.
2. Intercambio de dos filas.
3. Suma a una fila un múltiplo de otra.
Matrices elementales: se llama asi a la matriz que se obtiene de aplicar una y solo una operación elemental a
la matriz identidad.
Cálculo de la matriz inversa:
𝑎11 ⋯ 𝑎1𝑛 𝑥11 ⋯ 𝑥1𝑛
Sea 𝐴 = [ ⋮ ⋱ ⋮ ]y su inversa A−1 = [ ⋮ ⋱ ⋮ ]. Entonces por definición A. A−1 =
𝑎𝑛1 ⋯ 𝑎𝑛𝑛 𝑥𝑛1 ⋯ 𝑥𝑛𝑛
A−1 . 𝐴 = 𝐼
Para encontrar A−1 , se escribe A seguida por la matriz I, se la lleva a a la matriz A a su forma
escalonada reducida por renglones. Si ésta resulta ser la matriz identidad la matriz que se obtiene a la
derecha es A−1 . Simbólicamente:
Operaciones elementales por renglón
A | I  I |A−1
Matrices especiales:
- Matriz invertible, regular, o no singular es la matriz que posee matriz inversa.
- Matriz nula o matriz cero: O = (𝑎𝑖𝑗 )𝑚𝑥𝑛 𝑡𝑎𝑙 𝑞𝑢𝑒 𝑎𝑖𝑗 = 0
- Matriz identidad: (𝐼 = (𝑎𝑖𝑗 )𝑚𝑥𝑛 𝑡𝑎𝑙 𝑞𝑢𝑒 𝑎𝑖𝑗 = 1 𝑠𝑖 𝑖 = 𝑗, = 0 𝑠𝑖 𝑖 ≠ 𝑗
- Matriz escalar: 𝐴𝑚𝑥𝑛 = (𝑎𝑖𝑗 )𝑚𝑥𝑛 𝑡𝑎𝑙 𝑞𝑢𝑒 𝑎𝑖𝑗 = 𝑘 𝑠𝑖 𝑖 = 𝑗, 0 𝑠𝑖 𝑖 ≠ 𝑗, 𝑘 ∈ 𝑅
- Matriz diagonal: 𝐴𝑚𝑥𝑛 = (𝑎𝑖𝑗 )𝑚𝑥𝑛 𝑡𝑎𝑙 𝑞𝑢𝑒 𝑎𝑖𝑗 = 0 𝑠𝑖 𝑖 ≠ 𝑗
- Matriz cuadrada triangular:
a) Superior: 𝐴 = (𝑎𝑖𝑗 )𝑚𝑥𝑛 𝑡𝑎𝑙 𝑞𝑢𝑒 𝑎𝑖𝑗 = 0 𝑠𝑖 𝑖 > 𝑗
b) Inferior: 𝐴 = (𝑎𝑖𝑗 )𝑚𝑥𝑛 𝑡𝑎𝑙 𝑞𝑢𝑒 𝑎𝑖𝑗 = 0 𝑠𝑖 𝑖 < 𝑗
- Matriz simétrica: 𝐴 = AT
- Matriz anti simétrica: 𝐴 = −AT
- Matriz idempotente: 𝐴 = A2
- Matriz nilpotente 𝐴 = Ak 𝑡𝑎𝑙 𝑞𝑢𝑒 𝑘 ∈ 𝑁 ˄ 𝑘 ≥ 2
- Matriz involutiva: A2 = 𝐼
- Matriz ortogonal: A−1 = AT
Matrices y sistemas de ecuaciones lineales de n ecuaciones y n incógnitas:
Si el sistema tiene tantas ecuaciones como incógnitas, la matriz A es cuadrada. El sistema se expresa como
𝐴𝑛𝑥𝑛 𝑥𝑛𝑥1 = 𝑏𝑛𝑥1y se denominan normales.
Si A es una matriz regular, entonces es posible encontrar la matriz incógnita x pre multiplicando miembro a
miembro por 𝐴−1 :
𝐴𝑥 = 𝑏 → 𝐴−1 𝐴𝑥 = 𝐴−1 𝑏 → 𝑥 = 𝐴−1 𝑏
Si el sistema es homogéneo, la matriz de los términos independientes es la matriz nula. Si existe 𝐴−1
𝐴𝑥 = 0 → 𝐴−1 𝐴𝑥 = 𝐴−1 0 → 𝑥 = 0
En el caso de que la inversa de A no exista, el sistema homogéneo de n ecuaciones y n incógnitas será,
evidentemente, indeterminado. Si el sistema es no homogéneo, la no existencia de 𝐴−1 no concluye sobre el tipo
de solución. El sistema podrá ser compatible indeterminado o incompatible.
Luego son equivalentes las siguientes proposiciones:
Un sistema lineal de ecuaciones 𝐴𝑛𝑥𝑛 𝑥 = 𝑏 es compatible determinado ↔ ∃ 𝐴−1
El sistema lineal de ecuaciones 𝐴𝑛𝑥𝑛 𝑥 = 0 no tiene soluciones no triviales ↔ ∃ 𝐴−1
El sistema lineal de ecuaciones 𝐴𝑛𝑥𝑛 𝑥 = 0 tiene soluciones no triviales ↔ ∄ 𝐴−1
Matrices particionadas: se denomina submatríz de una matriz 𝐴𝑚𝑥𝑛 a la matriz que se obtiene suprimiendo en A una
fila o más filas y/o una o más columnas.
Operaciones con matrices particionadas:
1. Múltiplo escalar de una matriz y suma de matrices:
Sean A y B dos matrices del mismo tamaño, las cuales pueden particionarse en las submatrices 𝐴𝑖𝑗 𝑦 𝐵𝑖𝑗 ;
donde ∀𝑖 𝑦 ∀𝑗, el tamaño de 𝐴𝑖𝑗 , es idéntico al de 𝐵𝑖𝑗 .
La matriz suma C = A + B es otra matriz formada ir submatrices 𝐶𝑖𝑗 donde ∀𝑖 𝑦 ∀𝑗: 𝐶𝑖𝑗 = 𝐴𝑖𝑗 + 𝐵𝑖𝑗 .
El múltiplo escalar ∝ de la matriz A es otra matriz D formada por submatrices 𝐷𝑖𝑗 , donde ∀𝑖 𝑦 ∀𝑗: 𝐷𝑖𝑗 =
∝. 𝐴𝑖𝑗 .
2. Producto de matrices: sean las matrices 𝐴𝑚𝑙 𝑦 𝐵𝑚𝑙 , las cuales se particionan en submatrices 𝐴𝑖𝑗 𝑦 𝐵𝑖𝑗
de tal manera que la partición de las columnas de la matriz A es análoga a la partición de las filas de B.
3. Matriz inversa por partición:
𝐴 𝐵
Paso 1: se particiona la matriz 𝑀 = [ ] de tal manera que D resulte invertible.
𝐶 𝐷
Paso 2: se calculan las matrices
𝛼 = (𝐴 − 𝐵𝐷 −1 𝐶)−1
𝛽 = −𝛼𝐵𝐷 −1
δ = −𝐷 −1 𝐶𝛼
𝜏 = 𝐷 −1 − 𝐷 −1 𝐶𝛽
𝛼 𝛽
4. Paso tres: se construye la matriz 𝑀−1 = [ ]y luego se verifica que 𝑀𝑀−1 = 𝑀−1 𝑀 = 𝐼.
𝛿 𝜏
5.
UNIDAD 2: Determinantes.
Definición: Sea A una matriz cuadrada. La función determinante se denota por det, y det(A) se define como
la suma de los productos elementales con signo de A. El número det(A) se denomina determinante de A.
Regla de sarrus: para calcular el determinante de una matriz de 3 x 3 se agregan las dos primeras filas
conservando su orden. Luego se suman los tres productos indicados mediante flechas que descienden de izquierda
a derecha y se restan los tres productos indicados con flechas que descienden de derecha a izquierda.
Cofactor: sea 𝐴 ∈ 𝑅 𝑛𝑥𝑛 . Se denomina cofactor o adjunto 𝐶𝑖𝑗 del elemento 𝑎𝑖𝑗 de la matriz 𝐴𝑛𝑥𝑛 al producto
entre (−1)𝑖+𝑗 y el determinante de la matriz menor 𝑀𝑖𝑗 .
En símbolos: 𝐶𝑖𝑗 = (−1)𝑖+𝑗 . det(𝑀𝑖𝑗 )
Determinantes de orden n: se denomina determinante de orden n asociado a una matriz cuadrada 𝐴 ∈ 𝑅 𝑛𝑥𝑛 ,
y se simboliza con det( 𝐴𝑛 ) 𝑜 |𝐴|, al valor calculado mediante la función.
𝑎11 𝑠𝑖 𝑛 = 1
𝑛
det(𝐴𝑛 ) = {
∑ 𝑎1𝑘 𝐶1𝑘 𝑠𝑖 𝑛 > 1
𝑘=1

Regla de Laplace:
Teorema 1: sea 𝐴 = (𝑎𝑖𝑗 )una matriz de orden n x n, |A| desarrollado por los elementos de la fila k – ésima es
la suma de los productos entre cada elemento de la fila por su respectivo cofactor.

= 𝑎𝑘1 . 𝐶𝑘1 + 𝑎𝑘2 . 𝐶𝑘2 + ⋯ + 𝑎𝑘𝑛 . 𝐶𝑘𝑛

Fila k – ésima.

Entonces, |𝐴| = ∑𝑛𝑖=1 𝑎𝑘𝑖 . 𝐶𝑘𝑖 representa el desarrollo de |A| por la fila k – ésima.
De manera análoga, expandiendo por la columna h – ésima:

=𝑎1ℎ . 𝐶1ℎ + 𝑎2ℎ . 𝐶2ℎ + ⋯ + 𝑎𝑛ℎ . 𝐶𝑛ℎ

Columna h – ésima.
Entonces, |𝐴| = ∑𝑛𝑖=1 𝑎𝑖ℎ . 𝐶𝑖ℎ representa el desarrollo de |A| por la columna h – ésima.
Propiedades de los determinantes:
1. Sea 𝐴 ∈ 𝑅 𝑛𝑥𝑛 .
El determinante de A es igual al de su transpuesta.
En símbolos: |𝐴𝑇 | = |𝐴| *demostración.
2. Sea 𝐴 ∈ 𝑅 𝑛𝑥𝑛 .
Si la matriz A tiene una línea (fila o columna) de ceros, entonces su determinante es nulo.
*demostración.
3. Sea 𝐴 ∈ 𝑅 𝑛𝑥𝑛 .
Sea 𝐵 ∈ 𝑅 𝑛𝑥𝑛 la matriz que se obtiene por multiplicar una fila o columna de la matriz A por un escalar k (k ∈ 𝑅),
entonces el dterminante de la matriz B es un múltiplo del determinante de la matriz A.
En símbolos: |B| = k |A| *demostración.
Corolario: Sean 𝐴 ∈ 𝑅 𝑛𝑥𝑛 𝑦 𝑘 ∈ 𝑅, entonces |k.A| = kn |A|.
4. Sea 𝐴 ∈ 𝑅 𝑛𝑥𝑛 .
Si en la matriz A se intercambian dos líneas (filas o columnas), el determinante asociado a dicha matriz cambia de
signo. *demostración.
Corolario: Sea 𝐴 ∈ 𝑅 𝑛𝑥𝑛 .
Si la matriz A tiene dos líneas (filas o columnas) iguales, entonces su determinante es nulo.
5. Sea 𝐴 ∈ 𝑅 𝑛𝑥𝑛 .
Si a una línea (fila o columna) de una matriz cuadrada A se le suma un múltiplo escalar de otra línea, el determinante
de la matriz no cambia.
6. Sea 𝐴 ∈ 𝑅 𝑛𝑥𝑛 𝑦 𝐵 ∈ 𝑅 𝑛𝑥𝑛 .
El determinante del producto entre las matrices A y B es igual al producto entre sus respectivos determinante.
En símbolos: |AB| = |A|.|B|.
7. Lema: Sea 𝐴 ∈ 𝑅 𝑛𝑥𝑛 :
- Existe A-1 si, y solo si |A| ≠ 0.
- Si A es regular |A-1| = |A|-1.
- Si h ∈ 𝑁, entonces |Ah| = |A|h.
Observación: sabemos que |AB| = |A| |B| cuando 𝐴 ∈ 𝑅 𝑛𝑥𝑛 𝑦 𝐵 ∈ 𝑅 𝑛𝑥𝑛 ; sin embargo no sucede lo mismo para la
suma de matrices cuadradas. Esto es, en general, |A + B| ≠ |A| + |B|.
8. Sea 𝐴 ∈ 𝑅 𝑛𝑥𝑛 .
Si los elementos de una línea (fila o columna) de A son suma de m términos, entonces el determinante asociado
puede descomponerse en la suma de m determinantes.
Resumen de los efectos sobre el determinante de una matriz cuadrada cuando se aplican operaciones elementales
sobre sus líneas:
Sea 𝐴 ∈ 𝑅 𝑛𝑥𝑛 .
- Si se permutan dos filas (columnas) de A, el determinante de A cambia de signo.
- Si una fila (columna) de A se multiplica por k, el determinante de A también se multiplica por k (k ≠ 0).
- Si a una fila (columna) de A se le suma el múltiplo escalar de otra fila (columna), el determinante de A no
varía.
Matriz adjunta: Sea 𝐴 ∈ 𝑅 𝑛𝑥𝑛 . Se llama matriz adjunta de A a la matriz que se obtiene por transponer la matriz A
y reemplazar cada elemento de A’ por su correspondiente cofactor. Se simboliza: adj (A).
UNIDAD 3: Sistemas de ecuaciones lineales:
Un conjunto finito de m ecuaciones lineales con n incógnitas (𝑥1 , 𝑥2 , … , 𝑥𝑛 ) se denoina sistema de ecuaciones
lineales (s.e.l.) y se simboliza como: 𝑆𝑚𝑥𝑛 .
Al conjunto ordenado de números (𝛼1 , 𝛼2 , … , 𝛼𝑛 ) que verifica simultáneamente todas las ecuaciones se
denomina solución del sistema lineal. Al conjunto de todas las soluciones se le conoce como conjunto solución o
solucio general del sistema lineal.
En símbolos:
𝑎11 . 𝑥1 + 𝑎12 . 𝑥2 + ⋯ + 𝑎1𝑛 . 𝑥𝑛 = 𝑏1
𝑆𝑚𝑥𝑛 = { …………………………………
𝑎𝑚1 . 𝑥1 +. 𝑎𝑚2 . 𝑥2 + ⋯ + 𝑎𝑚𝑛 . 𝑥𝑛 = 𝑏𝑚
Solución de un sistema de ecuaciones lineales:
Se dice que un sistema es compatible o consistente si tiene al menos una solución, y que es incompatible o
inconsistente si carece de soluciones. Cuando un sistema compatible admite más de una solución se denomina
compatible indeterminado, y si tiene sólo una solución será compatible terminado.
Sistemas de ecuaciones equivalentes: se dice que dos sistemas son equivalentes si tienen el mismo conjunto
solución.
Teorema 1: toda operación elemental realizada sobre un sistema de ecuaciones lineales, lo transforma en un
sistema equivalente. Por lo tanto, para obtener la solución de un sistema de ecuaciones lineales podemos
transformarlo en sucesivos sistemas equivalentes utilizando operaciones elementales.
Matrices relacionadas con un sistema de ecuaciones lineales: dados m y n enteros positivos, una matriz A de
m x n, es un arreglo rectangular de escalares dispuestos en m renglones y n columnas. Los m.n números del
arreglo se denominan elementos de la matriz y un elemento genérico de A se simboliza con 𝑎𝑖𝑗 (elemento ubicado
en el i – ésimo renglón o fila y en la j – ésima columna). Se utilizan paréntesis o corchetes para encerrar a los m.n
elementos de la matriz, y en general, se utilizan letras mayúsculas para designar a las matrices.
En símbolos:
𝑎11 ⋯ 𝑎1𝑛
𝐴=( ⋮ ⋱ ⋮ )
𝑎𝑚1 ⋯ 𝑎𝑚𝑛
Al sistema de m ecuaciones y n incógnitas
𝑎11 . 𝑥1 + 𝑎12 . 𝑥2 + ⋯ + 𝑎1𝑛 . 𝑥𝑛 = 𝑏1
{ …………………………………
𝑎𝑚1 . 𝑥1 +. 𝑎𝑚2 . 𝑥2 + ⋯ + 𝑎𝑚𝑛 . 𝑥𝑛 = 𝑏𝑚
Se le asocian dos matrices denominadas matriz de los coeficientes A y matriz ampliada A|B

La línea vertical trazada en la segunda matriz es “imaginaria” y normalmente no se incluye.


Matriz escalonada:
Se denomina matriz escalonada a la matriz donde:
1. El primer elemento no nulo de un renglón es 1 (denominado uno principal o pivote).
2. Los renglones, si los hubiese, que tienen todos sus elementos nulos se agrupan en la parte
inferior de la matriz.
3. En dos renglones consecutivos, el uno principal del renglón inferior aparece más hacia la
derecha del primer 1 del renglón superior.
Matriz escalonada reducida:
Se denomina matriz escalonada reducida a la matriz escalonada que en las columnas que contienen al uno
principal, posee ceros en las demás posiciones.
Método de Gauss y método de Gauss – Jordan:
Se dice que un sistema de ecuaciones está en su forma escalonada / escalonada reducida si la matriz ampliada
del sistema es escalonada / escalonada reducida.
Clasificación de sistemas lineales por su tipo de solución:
𝑑𝑒𝑡𝑒𝑟𝑚𝑖𝑛𝑎𝑑𝑜𝑠 (𝑠𝑜𝑙𝑢𝑐𝑖ó𝑛 ú𝑛𝑖𝑐𝑎)
𝑐𝑜𝑚𝑝𝑎𝑡𝑖𝑏𝑙𝑒𝑠 {
𝑠𝑖𝑠𝑡𝑒𝑚𝑎𝑠 𝑑𝑒 𝑒𝑐𝑢𝑎𝑐𝑖𝑜𝑛𝑒𝑠 𝑙𝑖𝑛𝑒𝑎𝑙𝑒𝑠 { 𝑖𝑛𝑑𝑒𝑡𝑒𝑟𝑚𝑖𝑛𝑎𝑑𝑜𝑠 (𝑖𝑛𝑓𝑖𝑛𝑖𝑡𝑎𝑠 𝑠𝑜𝑙𝑢𝑐𝑖𝑜𝑛𝑒𝑠)
𝑖𝑛𝑐𝑜𝑚𝑝𝑎𝑡𝑖𝑏𝑙𝑒𝑠 (sin 𝑠𝑜𝑙𝑢𝑐𝑖ó𝑛)
Sistemas compatibles indeterminados: variable principal y variable libre:
Dado un sistema de ecuaciones lineales, las variables que tienen el uno principal en la forma escalonada (o
escalonada reducida) de la matriz aumentada se denominan variables principales, a las restantes se las llama
variables libres. El valor que se le asigna a una variable libre se denomina parámetro.
Rango de una matriz: a la cantidad de renglones no nulos que tiene cualquier forma escalonada de una matriz
A se le denomina rango de la matriz A, y se simboliza con 𝜌 (𝐴).
Rango y solución: dado un sistema lineal de m ecuaciones y n incógnitas, donde A es la matriz de coeficientes
de tamaño m x n, B es la matriz columna de términos independientes de tamaño m x 1, y A|B es la matriz ampliada
de orden m x (n+1), el objetivo es encontrar una relación entre el tipo de solución y los rangos de las matrices de
coeficientes y ampliada.
Advierta que en toda matriz el 𝜌 (𝐴) ≤ 𝜌 (𝐴|𝐵) porque A y A|B solo difieren en la última columna, luego sólo
puede haber un pivote de diferencia.
Caso 1: si 𝜌 (𝐴) < 𝜌 (𝐴|𝐵), el sistema es incompatible. Una de las ecuaciones del sistema equivalente (la del
último renglón que no tiene todo sus elementos nulos) tendrá la forma 0 = 1, la cual evidentemente tiene solución
vacía y transforma al sistema en incompatible.
Caso 2: si 𝜌 (𝐴) = 𝜌 (𝐴|𝐵) , se pueden presentar dos situaciones:
1. 𝜌 (𝐴) = 𝑛. Si la cantidad de unos principales coincide con el número de incógnitas, la forma
escalonada reducida de la matriz permitirá explicitar una solución única (todas las variables son
principales).
2. 𝜌 (𝐴) < 𝑛. Si 𝜌 (𝐴) es menor que el número de incógnitas, implica que del sistema equivalente
obtenido a partir de la matriz escalonada, sólo se podrá explicitar una cantidad 𝜌 (𝐴) de variables (las
llamadas variables principales). Habrá entonces n - 𝜌 (𝐴) variables libres, o lo que es equivalente n -
𝜌 (𝐴) parámetros en la solución del sistema.
Teorema de Rouche – Frobenius o Kronecker:
Un sistema de ecuaciones lineales es compatible si el rango de la matriz de coeficientes y el rango de
la matriz ampliada son iguales. Es determinado cuando el número de incógnitas es igual al rango, e
indeterminado cuando tal número es mayor.
𝜌 (𝐴) < 𝜌 (𝐴|𝐵) 𝐼𝑁𝐶𝑂𝑀𝑃𝐴𝑇𝐼𝐵𝐿𝐸
𝑆𝑚𝑥𝑛 ={ 𝜌 (𝐴) = 𝑛 𝑑𝑒𝑡𝑒𝑟𝑚𝑖𝑛𝑎𝑑𝑜
𝜌 (𝐴) = 𝜌 (𝐴|𝐵)𝐶𝑂𝑀𝑃𝐴𝑇𝐼𝐵𝐿𝐸 {
𝜌 (𝐴) < 𝑛 𝑖𝑛𝑑𝑒𝑡𝑒𝑟𝑚𝑖𝑛𝑎𝑑𝑜

Sistemas de ecuaciones lineales homogéneos:

Se dice que un sistema de ecuaciones lineales es homogéneo si todos los términos independientes
son cero. Simbólicamente:

Sistemas paramétricos:

Se denomina sistemas de ecuaciones lineales paramétricos a los sistemas de ecuaciones lineales


donde al menos un coeficiente o un término independiente no es constante, sino que depende de un
parámetro. Los posibles valores que adopta este parámetro causan que el sistema de ecuaciones cambie,
variando así el conjunto solución.
Sistema de ecuaciones lineales y determinantes: la forma matricial de un sistema de n ecuaciones con
incógnitas, 𝐴𝑛𝑥𝑛 𝑋𝑛𝑥1 = 𝐵𝑛𝑥1 , donde 𝑋𝑛𝑥1es matriz de las incógnitas y 𝐵𝑛𝑥1es la matriz de términos independientes.
Si 𝐴 ∈ 𝑅 𝑛𝑥𝑛 es tal que |A| ≠ 0 se tiene que: ∃ 𝐴−1 .
Luego:
𝐴. 𝑋 = 𝐵
𝐴−1 . 𝐴. 𝑋 = 𝐴−1 . 𝐵
𝐼. 𝑋 = 𝐴−1 . 𝐵
𝑋 = 𝐴−1 . 𝐵
Dado que la inversa de la matriz es única, entonces el sistema A.X = B tiene solo una solución: 𝑋 = 𝐴−1 . 𝐵
Si B ≠ 0𝑛𝑥1 y |A|≠ 0, puede concluirse que el sistema no es compatible determinado y caben dos posibilidades:
que sea compatible determinado o incompatible.
Si el sistema es homogéneo y |A| ≠ 0, la solución única es la solución trivial:
𝐴. 𝑋 = 0𝑛𝑥1 → 𝑋 = 𝐴−1 0𝑛𝑥1 → 𝑋 = 0𝑛𝑥1
𝑠𝑖 𝐴 ≠ 0
Luego, como los sistemas homogéneos son siempre compatibles, si |A| = 0, el sistema es indeterminado.
Regla de Cramer: para encontrar la incógnita i – ésima de un sistema de n ecuaciones lineales con n incógnitas
compatible determinado, 𝐴𝑛𝑥𝑛 𝑋𝑛𝑥1 = 𝐵𝑛𝑥1 con |𝐴| ≠ 0, basta con realizar el cociente entre dos determinantes. El
numerador es el determinante de la matriz que se forma al sustituir en la matriz de coeficientes A de las incógnitas
la i – ésima columna por la matriz columna B de los términos independientes, y el denominador es el determinante
de la matriz de coeficientes A.
UNIDAD 4: Vectores en R2, R3 y Rn.
Vector: un segmento de recta queda determinado por sus puntos extremos, cuando estos puntos están dados
en cierto orden se dice que el segmento está orientado, y a este segmento orientado se le denomina vector.
Clasificación de vectores:
- Los vectores fijos quedan definidos cuando, además de especificar su módulo, dirección y
sentido, se indica el punto sobre el que están aplicados.
- Los vectores deslizantes quedan definidos cuando, además de especificar módulo, dirección
y sentido, se indica la línea de acción.
(*) Vectores equipolentes: dos vectores son equipolentes cuando tienen el mismo módulo, el
mismo sentido y la misma dirección o sus rectas de acción son paralelas.
- Vectores libres: un vector libre 𝑣 → es el representante de todos los vectores que son
equipolentes a un vector dado.
Operaciones entre vectores:
Suma de vectores: sean 𝑣 → 𝑦 𝑤 → dos vectores cualesquiera, entonces el vector 𝑣 → + 𝑤 →, suma de 𝑣 → 𝑦 𝑤 → ,
se obtiene aplicando la regla del paralelogramo.
- Regla del paralelogramo: se considera un punto de aplicación, O, y con origen en este punto
se representa al vector 𝑣 → y al vector 𝑤 → . Se traza una recta paralela a la dirección del vector 𝑤 →
en el extremo del vector 𝑣 → , y en el extremo del vector 𝑤 → se traza una recta paralela a la dirección
del vector 𝑣 → . Estas rectas se cortan en un punto P, formando un paralelogramo. Luego, el vector
suma 𝑣 → + 𝑤 → se obtiene uniendo el punto de aplicación O con el punto P.

Propiedades de la suma de vectores:


1. Ley de composición interna: la suma de dos vectores es un vector, 𝑢→ = 𝑣 → + 𝑤 → .
2. La suma de vectores es conmutativa: 𝑣 → + 𝑤 → = 𝑤 → + 𝑣 → .
3. La suma de vectores es asociativa: 𝑣 → + ( 𝑢→ + 𝑤 → ) = (𝑣 → + 𝑤 → ) + 𝑢→ .
4. Elemento neutro: existe un vector denominado vector nulo, simbolizado mediante 0→ , tal que
para cualquier vector 𝑣 → se cumple que 𝑣 → + 0→ = 0→ + 𝑣 → = 𝑣 → y se conoce como elemento neutro
para la suma de vectores.
5. Elemento opuesto: para todo vector 𝑣 → existe un vector opuesto –𝑣 → tal que 𝑣 → + (−𝑣 → ) =
0→ .
Resta de vectores: sean 𝑣 → 𝑦 𝑤 → dos vectores cualesquiera; entonces el vector 𝑣 → − 𝑤 →, que es la resta entre
los vectores 𝑣 → 𝑦 𝑤 → , se obtiene al sumar a 𝑣 → el vector opuesto de 𝑤 → .
En símbolos: 𝑣 → − 𝑤 → = 𝑣 → + (− 𝑤 → ).
Para encontrar gráficamente el vector diferencia 𝑣 → − 𝑤 → consideramos un punto origen, O, y graficamos el
vector 𝑣 → . Luego en el punto extremo de este vector, trazamos el vector opuesto de 𝑤 → . El vector diferencia 𝑣 → −
𝑤 → es el que se obtiene al unir el punto inicial de 𝑣 → con el punto extremo del vector opuesto 𝑤 → .

Producto escalar por un vector: sean 𝑣 → un vector y 𝜏 un número real, entonces el producto del vector 𝑣 → por
el escalar 𝜏, simbolizado mediante 𝜏. 𝑣 → , es un vector con las siguientes características:
El modulo del vector 𝜏. 𝑣 → es || 𝜏. 𝑣 → || = | 𝜏|.||𝑣 → ||, donde:
||𝜏. 𝑣 → || < ||𝑣 → || 𝑠𝑖 |𝜏| < 1
{ ||𝜏. 𝑣 → || > ||𝑣 → ||𝑠𝑖 |𝜏| > 1
||𝜏. 𝑣 → || = ||𝑣 → ||𝑠𝑖 𝜏 = 1  𝜏 = −1
La dirección de 𝜏. 𝑣 → coincide con la dirección de 𝑣 → cuando 𝜏 ≠ 0 𝑦 𝑣 → ≠ 0→ ; esto es, la dirección permanece
invariante. Y la dirección de 𝜏. 𝑣 → es no determinada cuando 𝜏 = 0 𝑜 𝑣 → = 0, o ambos igual a 0.
El sentido de 𝜏. 𝑣 → coincide con el sentido de 𝑣 → 𝑠𝑖 𝜏 > 0, y es opuesto a 𝑣 → cuando 𝜏 < 0.
Propiedades del producto de un vector por un escalar:
1. Ley de composición externa: el producto de un vector por un escalar es un vector, es decir:
→ →
𝜏. 𝑣 = 𝑢 .
2. Asociatividad mixta: 𝜏1 (𝜏2 . 𝑣 → ) = (𝜏1 . 𝜏2 )𝑣 → = 𝜏2 (𝜏1 . 𝑣 → ).
3. Propiedad distributiva del producto de un vector por un escalar con respecto a la suma de
vectores: 𝜏(𝑢→ + 𝑣 → ) = 𝜏. 𝑢→ + 𝜏. 𝑣 → .
4. Propiedad distributiva del producto de un vector por un escalar con respecto a la suma de
escalares: (𝜏1 + 𝜏2 ). 𝑣 → = 𝜏1 . 𝑣 → + 𝜏2 . 𝑣 → .
5. El escalar 1 es neutro para el producto de un vector por un escalar: 1. 𝑣 → = 𝑣 → .
Observación: al vector 𝜏. 𝑣 → se le llama múltiplo escalar del vector 𝑣 → .
(*) Demostración.
Vectores en sistemas de coordenadas:
Vectores en el espacio bidimensional R2: para ubicar puntos en el espacio bidimensional R2, se utiliza un
sistema de referencia cartesiano Oxy. En éste cada punto P(x;y) queda identificado, mediante un par ordenado de
números reales: la abscisa x y la ordenada y.
La expresión del vector posición del punto P(x,y) ∈ R2 en función de sus coordenadas es 𝑝→ = 𝑂𝑃→ = (𝑥, 𝑦).
La expresión canónica del vector posición del punto P(x,y) ∈ R2 es 𝑝→ = 𝑥𝑖 + 𝑦𝑗.
Sean los vectores 𝑣 → = (𝑣𝑥 ; 𝑣𝑦 ) 𝑦 𝑢→ = (𝑢𝑥 ; 𝑢𝑦 ) dos vectores del plano expresados según sus coordenadas y
𝜏 𝜖 𝑅.
Igualdad: 𝑣 → = 𝑢→ ↔ 𝑣𝑥 = 𝑢𝑥 ˄ 𝑣𝑦 = 𝑢𝑦 .
Suma: 𝑣 → + 𝑢→ = (𝑣𝑥 + 𝑢𝑥 ; 𝑣𝑦 + 𝑢𝑦 ).
Resta: 𝑣 → − 𝑢→ = (𝑣𝑥 − 𝑢𝑥 ; 𝑣𝑦 − 𝑢𝑦 ).
Producto de un vector por un escalar: 𝜏. 𝑣 → = 𝜏. (𝑣𝑥 ; 𝑣𝑦 ) = (𝜏. 𝑣𝑥 ; 𝜏. 𝑣𝑦 ).
Vectores en el espacio tridimensional R3:
Todo punto P(x;y;z) ∈ R3 tiene asociado un vector posición 𝑝→ . La expresión en coordenadas del vector
posición 𝑝→ es 𝑝→ = 𝑂𝑃→ = (𝑥, 𝑦, 𝑧).

Vector definido mediante las coordenadas de su origen y su punto extremo:


Teorema 1: dados los puntos del espacio 𝑅 3 : 𝑃1 (𝑥1 ; 𝑦1 ; 𝑧1 ) 𝑦 𝑃2 (𝑥2 ; 𝑦2 ; 𝑧2 ) el vector con origen en 𝑃1 y extremo
en 𝑃2 es 𝑃1 𝑃2 = (𝑥2 − 𝑥1 ; 𝑦2 − 𝑦1 ; 𝑧2 − 𝑧1 ).
Demostración: sean 𝑃1 = (𝑥1 ; 𝑦1 ; 𝑧1 ) y 𝑃2 = (𝑥2 ; 𝑦2 ; 𝑧2 ) los vectores posición de los puntos
𝑃1 (𝑥1 ; 𝑦1 ; 𝑧1 ) 𝑦 𝑃2 (𝑥2 ; 𝑦2 ; 𝑧2 )
Módulo de un vector: el modulo del vector 𝑣 → = (𝑣1 , 𝑣2 , 𝑣3 ) del espacio R3 es ||𝑣 → || = √𝑣1 2 + 𝑣2 2 + 𝑣3 2
Versor o vector unitario asociado a un vector: el versor asociado 𝑣 → a un vector 𝑣 → ≠ 0 posee las siguientes
características:
- Tiene la misma dirección y el mismo sentido del vector 𝑣 → .
- Su módulo es 1.
- En consecuencia, el versor asociado 𝑣 → a un vector 𝑣 → es un múltiplo escalar del vector 𝑣 → ;
es decir 𝑣 ~ = 𝜏𝑣 → , siendo 𝜏 > 0.
1
Teorema 3: sea el vector 𝑣 → ≠ 0, entonces 𝑣 ~ =
||𝑣 → ||

Vectores paralelos:
Teorema 4: en R2 y R3, dos vectores no nulos son paralelos si y solo si un vector es múltiplo escalar del otro.
En símbolos: 𝑣 → // 𝑤 → ↔ ∃ 𝜏 𝜖 𝑅: 𝑣 → = 𝜏𝑤 → , 𝑠𝑖𝑒𝑛𝑑𝑜 𝑣 → ≠ 0 𝑦 𝑤 → ≠ 0.
Demostración:
Para demostrar el teorema 4, se necesita probar que
a) Si 𝑣 → = 𝜏. 𝑤 → → 𝑣 → // 𝑤 →
b) Si 𝑣 → // 𝑤 → → 𝑣 → = 𝜏. 𝑤 →

Introducción a espacios vectoriales reales:


Combinación real: el vector 𝑣 → ∈ 𝑉 es combinación lineal de los vectores del conjunto 𝐴 = {𝑣1 → , 𝑣2 → , … , 𝑣𝑛 → }
si, y solo si, existen escalares 𝜏1 , 𝜏2 , … , 𝜏𝑛 tales que 𝜏1 . 𝑣1 → +𝜏2 . 𝑣2 → + ⋯ + 𝜏𝑛 . 𝑣𝑛 → = 𝑣 → .
Independencia y dependencia lineal: 𝐴 = {𝑣1 → , 𝑣2 → , … , 𝑣𝑛 → } es linealmente independiente en V si la única forma
de escribir al vector nulo, 0→ , como combinación lineal de los vectores de A es con todos los escalares nulos. Es
decir 𝜏1 . 𝑣1 → +𝜏2 . 𝑣2 → + ⋯ + 𝜏𝑛 . 𝑣𝑛 → = 0→ → 𝜏1 = 𝜏2 = ⋯ = 𝜏𝑛 = 0.
En caso contrario, 𝐴 = {𝑣1 → , 𝑣2 → , … , 𝑣𝑛 → } es linealmente dependiente en V si para escribir al vector nulo no
necesitamos que los escalares sean todos nulos. Es decir, ∃ 𝜏𝑖 : 𝜏𝑖 ≠ 0 con i = 1,2,…,| 0→ = 𝜏1 . 𝑣1 → +𝜏2 . 𝑣2 → + ⋯ +
𝜏𝑛 . 𝑣𝑛 → .
Producto escalar, ángulo entre vectores y proyecciones.
Producto escalar y ángulo entre vectores:
Teorema 5: sean los vectores 𝑢→ = (𝑢1 , 𝑢2 , 𝑢3 ) y 𝑣 → = (𝑣1 , 𝑣2 , 𝑣3 ), entonces el producto escalar entre 𝑢→ y 𝑣 →
es 𝑢→ .𝑣 → = 𝑢1 . 𝑣1 + 𝑢2 . 𝑣2 + 𝑢3 . 𝑣3 .
En palabras: el producto escalar entre dos vectores es igual a la suma de los productos entre componentes
homólogas.
Demostración: el resultado es cierto cuando alguno de los vectores es el vector nulo. Para el resto de los
casos, consideramos el triángulo de la figura. Por el teorema del coseno se cumple que:
||𝑢→ − 𝑣 → ||2 = ||𝑢→ ||2 + ||𝑣 → ||2 − 2. ||𝑢→ ||. ||𝑣 → ||. 𝑐𝑜𝑠𝜃
Por definición del producto escalar: ||𝑢→ − 𝑣 → ||2 = ||𝑢→ ||2 + ||𝑣 → ||2 − 2. 𝑢→ . 𝑣 →

Propiedades del producto escalar entre vectores:


1. El producto escalar entre vectores es conmutativo, 𝑢→ . 𝑣 → = 𝑣 → . 𝑢→
2. El producto escalar entre vectores es distributivo con respecto a la suma de vectores
𝑢→ . (𝑣 → + 𝑤 → ) = 𝑢→ . 𝑣 → + 𝑢→ . 𝑤 →
3. Extracción de un escalar del producto escalar entre vectores, 𝜏. (𝑢→ . 𝑣 → ) = (𝜏. 𝑢→ ). 𝑣 → =
𝑢→ . (𝜏. 𝑣 → ), 𝑐𝑜𝑛 𝜏 ∈ 𝑅.
𝜋
4. Si los vectores 𝑢→ 𝑦 𝑣 → son ortogonales, esto es áng. (𝑢→ . 𝑣 → ) = 2 , entonces 𝑢→ . 𝑣 → = 0.

5. Si el producto escalar entre 𝑢→ 𝑦 𝑣 → es nulo, entonces alguno de los vectores es el vector


nulo o los vectores son ortogonales. En símbolos: u→ . v → = 0 → u→ = 0  v → = 0  u→  v → .
6. El producto escalar de un vector por sí mismo es igual al cuadrado del módulo del vector,
𝑢→ . 𝑢→ = ||𝑢→ ||2 .
7. Consecuencia de (6): el módulo de un vector es igual a la raíz cuadrada del producto escalar
del vector por sí mismo. En símbolos ||𝑢→ || = √𝑢→ . 𝑢→ .
Teorema 6: sean los vectores 𝑢→ = (𝑢1 , 𝑢2 , 𝑢3 ) y 𝑣 → = (𝑣1 , 𝑣2 , 𝑣3 ), entonces 𝜃 = á𝑛𝑔. (𝑢→ . 𝑣 → ) es:
𝑢1 . 𝑣1 + 𝑢2 . 𝑣2 + 𝑢3 . 𝑣3
𝜃 = 𝑎𝑟𝑐𝑜𝑠 ( )
√𝑢1 2 + 𝑢2 2 + 𝑢3 2 . √𝑣1 2 + 𝑣2 2 + 𝑣3 2

Producto vectorial: el producto vectorial entre dos vectores 𝑢→ 𝑦 𝑣 → del espacio R3, distintos del vector nulo y
no paralelos, se indica mediante 𝑢→ 𝑥 𝑣 → y tiene por resultado un vector 𝑤 → con las siguientes características:
Dirección: la dirección del vector 𝑤 → = 𝑢→ 𝑥 𝑣 → es perpendicular a la dirección del vector 𝑢→ y a la del vector
𝑣 →.
Por lo tanto, 𝑤 → = 𝑢→ 𝑥 𝑣 → es perpendicular al plano que contiene los vectores 𝑢→ 𝑦 𝑣 → .
Sentido: sea 𝜃 el ángulo entre 𝑢→ 𝑦 𝑣 → , si suponemos que los dedos de la mano derecha se mueven siguiendo
el giro del vector 𝑢→ según el ángulo 𝜃 hasta coincidir con el vector 𝑣 → , entonces el pulgar de la mano derecha
indicará el sentido del vector 𝑤 → = 𝑢→ 𝑥 𝑣 → . Se dice entonces que la terna (𝑢→ ; 𝑣 → ; 𝑢→ 𝑥 𝑣 → ) es directa, es decir,
igualmente orientada que la terna (𝑖; 𝑗; 𝑘).
En este caso, el giro va en sentido levógiro, es decir, anti horario; en contraposición al sentido dextrógiro u
horario.
Módulo: el módulo del vector 𝑤 → = 𝑢→ 𝑥 𝑣 → es ||𝑤 → || = ||𝑢→ 𝑥 𝑣 → || = ||𝑢→ ||. ||𝑣 → ||𝑠𝑒𝑛 𝜃, (siendo 𝜃 el ángulo
entre 𝑢→ 𝑦 𝑣 → ).

Fórmula del producto vectorial entre vectores en función de sus coordenadas:


Teorema 7: sean los vectores 𝑢→ = 𝑢1 . 𝑖 + 𝑢2 . 𝑗 + 𝑢3 . 𝑘 y 𝑣 → = 𝑣1 . 𝑖 + 𝑣2 . 𝑗 + 𝑣3 . 𝑘.
Entonces, 𝑢→ 𝑥 𝑣 → = (𝑢2 𝑣3 − 𝑢3 𝑣2 )𝑖 + (𝑢3 𝑣1 − 𝑢1 𝑣3 )𝑗 + (𝑢1 𝑣2 − 𝑢2 𝑣1 )𝑘
Regla de resolución del producto vectorial aplicando determinantes:
Sean los vectores 𝑢→ = 𝑢1 . 𝑖 + 𝑢2 . 𝑗 + 𝑢3 . 𝑘 y 𝑣 → = 𝑣1 . 𝑖 + 𝑣2 . 𝑗 + 𝑣3 . 𝑘.
𝑖 𝑗 𝑘 𝑢 𝑢3 𝑢1 𝑢3 𝑢1 𝑢2
Entonces, 𝑢→ 𝑥 𝑣 → = (𝑢1 𝑢2 𝑢3 ) = ( 𝑣 2 𝑣3 ) 𝑖 − (𝑣1 𝑣3 ) 𝑗 + (𝑣1 𝑣2 ) 𝑘.
2
𝑣1 𝑣2 𝑣3
Interpretación geométrica del módulo del producto vectorial:
Teorema 8: sean los vectores no paralelos 𝑢→ = 𝑢1 . 𝑖 + 𝑢2 . 𝑗 + 𝑢3 . 𝑘 y 𝑣 → = 𝑣1 . 𝑖 + 𝑣2 . 𝑗 + 𝑣3 . 𝑘.
Si consideramos que los vectores 𝑢→ 𝑦 𝑣 → tienen origen común en O, entonces determinarán dos de los lados
no paralelos de un paralelogramo cuya área quedará definida por el módulo del producto vectorial 𝑢→ 𝑥 𝑣 → .

Producto mixto: dados tres vectores 𝑢→ , 𝑣 → 𝑦 𝑤 → del espacio R3, se llama producto mixto al número real que
se obtiene al multiplicar 𝑢→ . ( 𝑣 → 𝑥 𝑤 → ).
Fórmula del producto mixto entre vectores en función de sus coordenadas:
Una manera apropiada de calcular el producto mixto 𝑢→ . ( 𝑣 → 𝑥 𝑤 → ) entre tres vectores de R3 es efectuando
primero el producto vectorial y luego el producto escalar.
Regla de resolución del producto mixto aplicando determinantes:
Sean los vectores 𝑢→ = 𝑢1 . 𝑖 + 𝑢2 . 𝑗 + 𝑢3 . 𝑘, 𝑣 → = 𝑣1 . 𝑖 + 𝑣2 . 𝑗 + 𝑣3 . 𝑘 y 𝑤 → = 𝑤1 . 𝑖 + 𝑤2 . 𝑗 + 𝑤3 . 𝑘, entonces el
producto mixto es
𝑢1 𝑢2 𝑢3
𝑣 𝑣3 𝑣1 𝑣3 𝑣1 𝑣2
→ →
𝑢 .( 𝑣 𝑥 𝑤 →)
= ( 𝑣1 𝑣2 𝑣3 ) = ( 2
𝑤2 𝑤3 ) . 𝑢1 − (𝑤1 𝑤3 ) . 𝑢2 + (𝑤1 𝑤2 ) . 𝑢3
𝑤1 𝑤2 𝑤3
Interpretación geométrica del valor absoluto del producto mixto:
Cuando se consideran los vectores 𝑢→ , 𝑣 → 𝑦 𝑤 → del espacio R3 con origen común en O, sus longitudes
determinan tres de las aristas de un paralelepípedo cuyo volumen es el valor absoluto del producto mixto entre
𝑢→ , 𝑣 → 𝑦 𝑤 → .
Es decir,
Volumen del paralelepípedo: |𝑢→ . ( 𝑣 → 𝑥 𝑤 → )|

Condición de coplanaridad de tres vectores:


Los vectores 𝑢→ , 𝑣 → 𝑦 𝑤 → , distintos del vector nulo, del espacio R3 son coplanares si, y solo si, el producto
mixto entre ellos es nulo.

UNIDAD 5: rectas y planos.


RECTA EN R2
Ecuación de la recta que pasa por un punto y es paralela a la dirección de un vector.
Ecuación paramétrica vectorial de la recta en R2.
(𝑥, 𝑦) = (𝑥0 ; 𝑦0 ) + 𝜏. (𝑑1 ; 𝑑2 ), 𝑠𝑖𝑒𝑛𝑑𝑜 𝜏 𝜖 𝑅. (𝐼)
Esta ecuación recibe el nombre de ecuación paramétrica vectorial de la recta en R2, puesto que el punto P
(x;y) con vector posición 𝑝→ será un punto perteneciente a la recta r si, y sólo si existe una 𝜏 𝜖 𝑅 tal que se cumpla
(I).
Ecuación paramétrica cartesiana de la recta en R2.
𝑥 = 𝑥0 + 𝜏. 𝑑1
𝑟: { , con 𝜏 𝜖 𝑅.
𝑦 = 𝑦0 + 𝜏. 𝑑2
Este sistema de ecuaciones se denomina ecuaciones paramétricas cartesianas de la recta en R2, puesto que
el punto P (x;y) será un punto perteneciente a la recta r si, y sólo si, existe una 𝜏 𝜖 𝑅 tal que se cumplan las
siguientes igualdades: 𝑥 = 𝑥0 + 𝜏. 𝑑1 y 𝑦 = 𝑦0 + 𝜏. 𝑑2 .
Ecuación simétrica de la recta en R2.
𝑥 − 𝑥0 𝑦 − 𝑦0
𝑟: =
𝑑1 𝑑2
Esta ecuación se denomina ecuación simétrica, o continua, de la recta en R2 que pasa por el punto 𝑃0 (𝑥0 ; 𝑦0 )
y cuyo vector director es 𝑑 = (𝑑1 ; 𝑑2 ), siendo 𝑑1 ≠ 0 𝑦 𝑑2 ≠ 0.
Ecuación de la recta que pasa por un punto y es perpendicular a la dirección de un vector en R2.
Ecuación implícita o general de la recta en R2:
𝑟: 𝐴𝑥 + 𝐵𝑦 + 𝐶 = 0.
Esta expresión de la recta en R2 se denomina ecuación implícita, o general, de la recta, donde los coeficientes
A y B no son simultáneamente nulos.
Ecuación segmentaria de la recta:
𝑥 𝑦
𝑟: + = 1
𝑝 𝑞
Esta expresión se denomina ecuación segmentaria de la recta, siendo p y q la abscisa y la ordenada al origen,
respectivamente.
Ecuación explicita de la recta en R2:
𝑟: 𝑦 = 𝑚𝑥 + 𝑏
Expresión que se denomina ecuación explicita de la recta de pendiente m y ordenada al origen b.
El ángulo de inclinación de una recta es el ángulo formado entre el eje de abscisas en sentido positivo y la
recta, cuando ésta se considera dirigida hacia arriba.
Si convenimos llamar 𝜃 al ángulo de inclinación de una recta, la medida de este ángulo es cualquier valor real
comprendido entre 0 y , es decir, 0 ≤ 𝜃 ≤ 𝜋.
Se llama pendiente de una recta no vertical, que indicaremos con m, a la tangente de su ángulo de inclinación.
En símbolos: 𝑚 = 𝑡𝑔(𝜃).
Rectas coincidentes: sean 𝑟1 y 𝑟2 dos rectas en el plano.
Diremos que 𝑟1 y 𝑟2 son coincidentes, si solo se verifica que: 𝑟1 C 𝑟2 y 𝑟2 C 𝑟1 .
Distancia de un punto a una recta en R2:
Sea una recta r y un punto P ambos en el plano.
Se llama distancia del punto P a la recta r al mínimo de todos los valores ||𝑃𝐴→ || con A 𝜖 𝑅.
Teorema: la distancia del punto 𝑃1 (𝑥1 ; 𝑦1 ) a la recta 𝑟: 𝐴𝑥 + 𝐵𝑦 + 𝐶 = 0 está dada por la fórmula:
|𝐴𝑥1 + 𝐵𝑦1 + 𝐶|
𝑑𝑖𝑠𝑡(𝑃1 ; 𝑟) =
√𝐴2 + 𝐵2
PLANOS EN R3
Ecuación implícita o general de un plano:
La ecuación implícita o general de un plano que pasa por el punto 𝑃0 (𝑥0 ; 𝑦0 ; 𝑧0 )y es perpendicular a la dirección
de un vector 𝑛→ = (𝑛1 ; 𝑛2 ; 𝑛3 ) distinto del vector nulo es 𝑝𝑙: 𝐴𝑥 + 𝐵𝑦 + 𝐶𝑧 = 0.
Ecuación segmentaria de un plano:
𝑥 𝑦 𝑧
𝑝𝑙: + + = 1.
𝑝 𝑞 𝑟
Esta expresión se denomina ecuación segmentaria del plano, siendo p, q y r la abscisa, la ordenada, y la cota
al origen, respectivamente.
Análisis de casos.
Planos paralelos a los planos coordenados:

Planos paralelos a los ejes coordenados:


Planos que pasan por el origen de coordenadas:

Ecuación del plano que pasa por tres puntos no alineados:


La ecuación del plano que pasa por los puntos 𝑃0 (𝑥0 ; 𝑦0 ; 𝑧0 ), 𝑃1 (𝑥1 ; 𝑦1 ; 𝑧1 ) y 𝑃3 (𝑥2 ; 𝑦2 ; 𝑧2 ) no alineados se
obtiene a partir de resolver el producto mixto 𝑝𝑙: 𝑃0 𝑃→ . (𝑃0 𝑃1 → 𝑥 𝑃0 𝑃2 → ) = 0, siendo P (x;y;z) un punto genérico
perteneciente al plano.
Ecuación del plano que pasa por un punto y es paralelo a dos vectores no paralelos entre sí:
La ecuación del plano que pasa por el punto 𝑃0 (𝑥0 ; 𝑦0 ; 𝑧0 ) y es paralelo a los vectores 𝑎→ y 𝑏 → , no paralelos
entre sí se obtiene a partir de resolver el producto mixto 𝑃0 𝑃→ . (𝑎→ 𝑥 𝑏 → ) = 0, siendo P (x,y,z) un punto genérico
perteneciente al plano.
Ecuación paramétrica vectorial y paramétrica cartesiana:

Posiciones relativas de dos planos:


Ángulos diedros formados entre dos planos:
Sean las ecuaciones de dos planos 𝑝𝑙1 y 𝑝𝑙2 no paralelos ni coincidentes definidos por sus ecuaciones
implícitas:
𝑝𝑙1 → 𝐴𝑥 + 𝐵𝑦 + 𝐶𝑧 + 𝐷 = 0 y 𝑝𝑙2 → 𝐴′ 𝑥 + 𝐵′ 𝑦 + 𝐶 ′ 𝑧 + 𝐷 ′ = 0 donde 𝑛1 → = (𝐴; 𝐵; 𝐶)  𝑝𝑙1 y 𝑛2 → =
(𝐴′ ; 𝐵′ ; 𝐶 ′ )  𝑝𝑙2 .
Distancia de un punto a un plano:
Sea el plano 𝑝𝑙𝜋: 𝐴𝑥 − 𝐵𝑦 + 𝐶𝑧 − 𝐷 = 0 y el punto 𝑃1 (𝑥1 ; 𝑦1 , 𝑧1 ).
La distancia del punto 𝑃1 (𝑥1 ; 𝑦1 ; 𝑧1 ) al plano  es la longitud del segmento 𝑀𝑃1 siendo 𝑀𝑃1  𝑝𝑙𝜋.

Teorema: la distancia del punto 𝑃1 (𝑥1 ; 𝑦1 , 𝑧1 ) al plano 𝑝𝑙𝜋: 𝐴𝑥 − 𝐵𝑦 + 𝐶𝑧 − 𝐷 = 0 esta dada por la fórmula:
|𝐴𝑥1 + 𝐵𝑦1 + 𝐶𝑧1 + 𝐷|
𝑑𝑖𝑠𝑡(𝑃1 , 𝑝𝑙, 𝜋) =
√𝐴2 + 𝐵2 + 𝐶 2
Familia o haz de planos: el conjunto de los planos que pasan por una recta r se denomina familia o haz de
planos.
RECTAS EN R3
Ecuacion de la recta que pasa por un punto y es paralela a un vector.
Ecuacion paramétrica vectorial de la recta en R3:
La ecuación paramétrica vectorial de la recta que pasa por el punto 𝑃0 (𝑥0 ; 𝑦0 ; 𝑧0 ) y es paralela al vector 𝑑→ =
(𝑑1 ; 𝑑2 ; 𝑑3 ), distinto al vector nulo, es:
𝑟: (𝑥; 𝑦; 𝑧) = (𝑥0 ; 𝑦0 ; 𝑧0 ) + 𝜏(𝑑1 ; 𝑑2 ; 𝑑3 ), 𝑐𝑜𝑛 𝜏 ∈ 𝑅.
Ecuación paramétrica cartesiana de la recta en R3:

Recta paralela a un plano coordenado:


Recta paralela a un eje coordenado:

Ecuaciones simétricas de la recta en R3:

Recta definida como intersección de dos planos no paralelos:

Posiciones relativas de rectas y planos:


Recta paralela a un plano:
Sean la recta 𝑟: (𝑥; 𝑦; 𝑧) = (𝑥0 ; 𝑦0 ; 𝑧0 ) + 𝜏. (𝑑1 ; 𝑑2 ; 𝑑3 ), 𝑐𝑜𝑛 𝜏 ∈ 𝑅, y el plano 𝛼: 𝐴𝑥 + 𝐵𝑦 + 𝐶𝑧 + 𝐷 = 0.
La recta r es paralela al plano 𝛼 si, y sólo sí, el vector director de la recta es perpendicular al vector normal del
plano.
En símbolos: r // 𝑝𝑙 𝛼 ↔ 𝑑→  𝑛→ ↔ (𝑑1 ; 𝑑2 ; 𝑑3 ). (𝐴; 𝐵; 𝐶) = 0.
Recta perpendicular a un plano:
Si una recta 𝑟: (𝑥; 𝑦; 𝑧) = (𝑥0 ; 𝑦0 ; 𝑧0 ) + 𝜏. (𝑑1 ; 𝑑2 ; 𝑑3 ), 𝑐𝑜𝑛 𝜏 ∈ 𝑅, y un plano son concurrentes en un punto, puede
suceder que la recta sea perpendicular al plano 𝛼: 𝐴𝑥 + 𝐵𝑦 + 𝐶𝑧 + 𝐷 = 0.
Entonces:
Ángulo entre recta y plano:

La medida del ángulo  que forman la recta 𝑟: (𝑥; 𝑦; 𝑧) = (𝑥0 ; 𝑦0 ; 𝑧0 ) + 𝜏. (𝑑1 ; 𝑑2 ; 𝑑3 ), 𝑐𝑜𝑛 𝜏 ∈ 𝑅 y el plano 𝛼: 𝐴𝑥 +
𝐵𝑦 + 𝐶𝑧 + 𝐷 = 0 se obtiene con la fórmula:
𝑑→ . 𝑛→ |𝐴. 𝑑1 + 𝐵. 𝑑2 + 𝐶. 𝑑3 |
𝜑 =  (𝑟; 𝑝𝑙𝛼) = 𝑎𝑟𝑐𝑠𝑒𝑛 ( ) = 𝑎𝑟𝑐𝑠𝑒𝑛
||𝑑→ ||. ||𝑛→ ||
√𝐴2 + 𝐵2 + 𝐶 2 √𝑑1 2 + 𝑑2 2 + 𝑑3 2
Posiciones relativas de dos rectas en el espacio:
Dos rectas en R3 se denominan coplanares si existe un plano que, simultáneamente, las incluya. En caso
contrario se denominan rectas alabeadas.
Rectas concurrentes o incidentes en un punto:

Rectas paralelas:
Rectas perpendiculares:

Rectas alabeadas: dos rectas de R3 se denominan alabeadas si no existe un plano que las contenga
simultáneamente.
Planos proyectantes de una recta:
Se define como planos proyectantes de una recta, a lo sumo, a tres de los infinitos planos que contienen a la
recta, tales que cada plano resulta ser perpendicular a un plano coordenado.
UNIDAD 6: Cónicas.
Lugar geométrico de R2.
Dada una ecuación E(x;y)=0, el conjunto de todos los puntos de R2 cuyas coordenadas las satisfacen se
denomina lugar geométrico o gráfica de la ecuación, y se simboliza con lg.

Circunferencia: se denomina circunferencia al lugar geométrico formado por todos los putos P del plano que
equidistan de un punto fijo C de ese plano, llamado centro. La distancia entre C y P s conoce como radio, r, y no
debe ser nula.
Elipse: se denomina elipse al lugar geométrico formado por todos los puntos del plano para los cuales se
cumple que la suma de sus distancias a dos puntos fijos de ese plano, denominados focos, permanece constante
y es mayor que la distancia entre los focos.
Ecuación ordinaria de la elipse:
2 2
𝑥′ 𝑦′
La elipse con centro en el origen y semiejes a y b, referida al sistema X’ Y’ tiene por ecuación a 𝑎2
+ 𝑏2
= 1.

Las ecuaciones de transformación son 𝑥 = 𝑥 ′ + ℎ, 𝑦 = 𝑦 ′ + ℎ.


(𝑥−ℎ)2 (𝑦−𝑘)2
Sustituyendo 𝑥 ′ = 𝑥 − ℎ y 𝑦 ′ = 𝑦 − 𝑘 resulta + = 1 que recibe el nombre de ecuación ordinaria de
𝑎2 𝑏2

la elipse con centro (h;k) y semiejes a y b.


Parábola: se denomina parábola al lugar geométrico de todos los puntos del plano que equidistan de una recta
r, denominada directriz, y de un punto fijo F exterior a la parábola, llamado foco.
Hipérbola: se denomina hipérbola al lugar geométrico de todos los puntos del plano para los cuales el valor
absoluto de las diferencias de sus distancias a dos puntos fijos, denominados focos, es constante y menor que la
distancia entre los focos.
Formas paramétricas de las cónicas.
Forma paramétrica de la circunferencia:
Forma paramétrica de la elipse:

Forma paramétrica de la hipérbola:


Forma paramétrica de la parábola:

UNIDAD 7: Espacios vectoriales.


Espacios vectoriales:
La cuaterna (𝑉; +; 𝐾; . ) Tiene estructura de espacio vectorial si, siendo 𝑢→ , 𝑣 → 𝑦 𝑤 → vectores cualesquiera del
conjunto V y  y  escalares del cuerpo K, se cumplen los siguientes axiomas:
1. Ley de composición interna: si 𝑢→ 𝑦 𝑣 → son vectores de V, entonces (𝑢→ + 𝑣 → ) está en V.
2. Propiedad conmutativa: si 𝑢→ 𝑦 𝑣 → son vectores de V, entonces 𝑢→ + 𝑣 → = 𝑣 → + 𝑢→ .
3. Propiedad asociativa: si 𝑢→ , 𝑣 → 𝑦 𝑤 → son vectores de V, entonces 𝑢→ + (𝑣 → + 𝑤 → ) =
(𝑢→ + 𝑣 → ) + 𝑤 → .
4. Existencia de elemento neutro: existe un vector en V, denominado vector nulo, tal que para
cualquier vector 𝑢→ , de V: 0→ + 𝑢→ = 𝑢→ + 0→ = 𝑢→ .
5. Existencia de elemento inverso aditivo: para todo vector 𝑢→ de V existe un vector − 𝑢→ en V,
denominado opuesto de 𝑢→ , tal que 𝑢→ + (−𝑢→ ) = (−𝑢→ ) + 𝑢→ = 0→ .
6. Ley de composición externa: si  es cualquier número real y 𝑢→ cualquier vector de V,
entonces (. 𝑢→ ) está en V.
7. Propiedad distributiva del producto de un escalar por un vector con respecto a la suma de
vectores: si  es cualquier escalar, y 𝑢→ 𝑦 𝑣 → son vectores de V, (𝑢→ + 𝑣 → ) = . 𝑢→ + . 𝑣 → .
8. Propiedad distributiva del producto de un escalar por un vector con respecto a la suma de
escalares: si  y  son cualquier par de escalares y 𝑢→ es cualquier vector de V, entonces (+).𝑢→ =
. 𝑢→ + . 𝑢→.
9. Asociatividad mixta: si  y  son cualquier par de escalares y 𝑢→ es cualquier vector de V,
entonces . (. 𝑢→ ) = (. ). 𝑢→ = . (. 𝑢→ ).
10. Identidad: si 𝑢→ es cualquier vector de V, entonces 1. 𝑢→ = 𝑢→ .

Propiedades de los espacios vectoriales:


Sean (V;+;R;.) un espacio vectorial, 𝑢→ un vector de V, y  un número real, entonces:
1. 0. 𝑢→ = 0→ .
2. . 0→ = 0→ .
3. (−). 𝑢→ = −(. 𝑢→ ).
Subespacios vectoriales:

Operaciones entre Subespacios vectoriales:


Propiedad: sea (V;+;R;.) un espacio vectorial.
La intersección de dos Subespacios vectoriales es un subespacio vectorial del espacio vectorial (V;+;R;.).

Propiedad: sea (V;+;R;.) un espacio vectorial.


La suma de dos subespacios vectoriales es un subespacio vectorial del espacio vectorial (V;+;R;.).
La definición de suma directa equivale a la siguiente:

Combinación lineal:

Sistemas generadores:

Propiedad: sean un espacio vectorial (V;+;R;.) y el conjunto de vectores 𝐴 = (𝑣1 → ; 𝑣2 → ; … ; 𝑣𝑛 → )∁ V. el conjunto


gen (A) = gen{𝑣1 → ; 𝑣2 → ; … ; 𝑣𝑛 → } es un subespacio vectorial del espacio vectorial (V;+;R;.).
Entendemos por gen (A) al conjunto de todas las combinaciones lineales posibles con elementos de A.
Independencia lineal y dependencia lineal.
Propiedades:
Sea un espacio vectorial (V;+;K;.).
1. {𝑣 → } es linealmente independiente si, y sólo sí, 𝑣 → no es el vector nulo.
2. Si el vector nulo pertenece al conjunto de vectores 𝐴 = (𝑣1 → ; 𝑣2 → ; … ; 𝑣𝑛 → ), entonces el
conjunto A es linealmente dependiente.
3. Un conjunto de vectores 𝐴 = (𝑣1 → ; 𝑣2 → ; … ; 𝑣𝑛 → ) es linealmente dependiente si, y sólo si,
algún vector de A es combinación lineal de los vectores restantes.
4. Un conjunto e vectores 𝐴 = (𝑣1 → ; 𝑣2 → ; … ; 𝑣𝑛 → ) es linealmente independiente si, y sólo si,
ningún vector de A es combinación lineal de los vectores restantes.
5. Si 𝐴 = (𝑣1 → ; 𝑣2 → ; … ; 𝑣𝑛 → ) es linealmente independiente, entonces todo subconjunto no vacío
de A es linealmente independiente.
6. Si 𝐴 = (𝑣1 → ; 𝑣2 → ; … ; 𝑣𝑛 → ) es linealmente independiente, entonces toda combinación lineal es
única.
Base de un espacio vectorial:
Sea un espacio vectorial (V;+;R;.) y un conjunto finito de vectores
𝐵 = (𝑣1 → ; 𝑣2 → ; … ; 𝑣𝑛 → )∁ V.
El conjunto de vectores B es una base del espacio vectorial (V;+;K;.) si, y sólo si, se cumplen las siguientes
condiciones:
1. B es un conjunto linealmente independiente en V.
2. B es un sistema de generadores de V.
Teorema: si 𝐵 = (𝑣1 → ; 𝑣2 → ; … ; 𝑣𝑛 → ) es una base de un espacio vectorial (V;+;K;.), entonces todo vector 𝑣 → de
V se puede expresar en forma única como 𝑣 → = 𝛼1 𝑣1 → ; 𝛼2 𝑣2 → ; … ; 𝛼𝑛 𝑣𝑛 → .
Coordenadas de un vector respecto a una base:
Propiedad 7: sea 𝐵 = (𝑣1 → ; 𝑣2 → ; … ; 𝑣𝑛 → ) una base del espacio vectorial (V;+;r;.), sean 𝑢→ 𝑦 𝑤 → dos vectores
del espacio vectorial.
Entonces:
[𝛼𝑢→ + 𝛽𝑤 → ]𝐵= 𝛼[𝑢→ ]𝐵 + 𝛽[𝑤 → ]𝐵 ∀𝛼, ∀𝛽 𝜖 𝑅.
Propiedad 8: sean 𝐵 = (𝑣1 → ; 𝑣2 → ; … ; 𝑣𝑛 → ) una base del espacio vectorial (V;+;R;.) y {𝑢→1 ; 𝑢→ 2 ; … ; 𝑢→ 𝑘 } la
colección de vectores de V.
Entonces la colección {𝑢→1 ; 𝑢→ 2 ; … ; 𝑢→ 𝑘 } es linealmente independiente en V si, y sólo si,
{[𝑢→1 ]𝐵 ; [𝑢→ 2 ]𝐵 ; … ; [𝑢→ 𝑘 ]𝐵 es linealmente independiente en 𝑅 𝑛𝑥1.
Matriz de cambio de base:


Propiedad 9: Sean un espacio vectorial (V;+;R;.) y las bases 𝐵 = {𝑣1 → ; 𝑣2 → ; … ; 𝑣𝑛 → } y 𝐵′ = {𝑣1 ; 𝑣2 → ; … ; 𝑣𝑛 → }.
Entonces la matriz de pasaje 𝑃𝐵→𝐵′ es una matriz no singular, es decir, admite inversa.

Propiedad 10: Sean un espacio vectorial (V;+;R;.) y las bases 𝐵 = {𝑣1 → ; 𝑣2 → ; … ; 𝑣𝑛 → } y 𝐵′ = {𝑣1 ; 𝑣2 → ; … ; 𝑣𝑛 → }.
La matriz (𝑃𝐵→𝐵′ )−1 es la matriz de pasaje de la base B’ a la base B, es decir, (𝑃𝐵→𝐵′ )−1 = 𝑃𝐵→𝐵′ .
Y por lo tanto, si [𝑤 → ]𝐵 = 𝑃𝐵→𝐵′ . [𝑤 → ]𝐵 , entonces [𝑤 → ]𝐵 = (𝑃𝐵→𝐵′ )−1 . [𝑤 → ]𝐵 , siendo 𝑃𝐵→𝐵′ y𝑃𝐵′ →𝐵 inversas
entre sí.
Teorema: sean 𝐴 = {𝑣1 → ; 𝑣2 → ; … ; 𝑣𝑛 → } un sistema de generadores del espacio vectorial (V;+;K;.) y
{𝑢→1 ; 𝑢→ 2 ; … ; 𝑢→ 𝑠 } un conjunto linealmente independiente, entonces 𝑠 ≤ 𝑟.
Dimensión de un espacio vectorial:
Matrices, sistemas de ecuaciones lineales y espacios vectoriales:
Espacio fila, espacio columna, rango de una matriz:

Teorema: las operaciones elementales en las filas de una matriz no cambian el espacio fila de dicha matriz.
Teorema: si 𝐴 ∈ 𝑅 𝑚𝑥𝑛 𝑦 𝐵 ∈ 𝑅 𝑚𝑥𝑛 son matrices equivalentes por filas, entonces:
1. El conjunto de vectores columna de A es linealmente independiente si, y sólo si, el conjunto
de vectores columna correspondientes de B es linealmente independiente.
2. El conjunto de vectores columna de A forma una base para el espacio columna de A si, y
sólo si, el conjunto de vectores correspondientes de B forma una base para el espacio columna de B.
Teorema: sea 𝐵 ∈ 𝑅 𝑚𝑥𝑛 una forma escalonada por fila de una matriz 𝐴 ∈ 𝑅 𝑚𝑥𝑛 , entonces los vectores fila
con los números 1 principales forman una base del espacio fila de B y los vectores columna con los números 1
principales de los vectores fila forman una base para el espacio columna de B.
Teorema: sean 𝐴 ∈ 𝑅 𝑚𝑥𝑛 cualquier matriz y 𝑆𝐹 y 𝑆𝐶 los espacio fila y columna de A, respectivamente; entonces
el espacio fila y el espacio columna de A tienen la misma dimensión.
En símbolos:
Sean 𝑆𝐹 y 𝑆𝐶 los espacios fila y columna de A, respectivamente, entonces:
𝐷𝑖𝑚(𝑆𝐹 ) = 𝐷𝑖𝑚(𝑆𝐶 ).
Espacio nulo y nulidad:

Teorema: sea 𝐴 ∈ 𝑅 𝑚𝑥𝑛 una matriz de n columnas.


Entonces, el número de columnas de A es igual a la suma del rango de A y la nulidad de A.
En símbolos: 𝜌(𝐴) + (𝐴) = 𝑛.
Esto, nos permite enunciar las siguientes conclusiones:

Teorema de Rouche - Frobenius:


Sean las matrices 𝐴 ∈ 𝑅 𝑚𝑥𝑛 , 𝑋 → ∈ 𝑅 𝑛𝑥1 𝑦 𝐵→ ∈ 𝑅 𝑚𝑥1 .

UNIDAD 8: Espacios con producto interior.


Espacios con producto interior:
Se llama espacio con producto interior al objeto que consiste en un espacio vectorial (V;+;R;.) junto con un
producto interior.
Distancia:

Propiedad: para 𝐴 ≠ ∅, sean 𝑥 ∈ 𝐴, 𝑦 ∈ 𝐴 dos elementos cualesquiera de A, entonces:


𝑑(𝑥; 𝑦) ≥ 0 (∀ 𝑥 ∈ 𝐴)(∀ 𝑦 ∈ 𝐴).
Norma de un vector:

Sea un espacio con producto interior (V;<,>); entonces, se llama distancia entre los vectores 𝑢→ y 𝑣 → , indicada
mediante 𝑑(𝑢→ ; 𝑣 → ),a la norma del vector de la diferencia entre 𝑢→ − 𝑣 → .
En símbolos: 𝑑(𝑢→ ; 𝑣 → ) = ||𝑢→ − 𝑣 → ||.
Ángulo entre vectores:
Vectores ortogonales:

Teorema: teorema de Pitágoras generalizado


Sean (V;<,>) y 𝑢→ y 𝑣 → dos vectores ortogonales de (V;<,>).
2
Entonces: ||𝑢→ + 𝑣 → || = ||𝑢→ ||2 + ||𝑣 → ||2 .
Bases ortogonales y ortonormales:
Base ortogonal:

Base ortonormal:

Teorema: sea (V;<,>) un espacio con producto interno y sea 𝐵 = {𝑢1 → ; 𝑢2 → ; … ; 𝑢𝑛 → } una base de V entonces
existe una base ortonormal 𝐵′ = {𝑤1 → ; 𝑤2 → ; … ; 𝑤𝑛 → } de V.
Demostración:
Complemento ortogonal:

Proyecciones ortogonales:
UNIDAD 9: Transformaciones lineales.
Definición de transformación lineal:

Propiedades de las transformaciones lineales:


Para toda transformacion lineal 𝑇: 𝑉 → 𝑊 se verifican las siguientes propiedades:
1. La imagen del vector nulo del dominio, espacio vectorial V, es el vector nulo del codominio,
espacio vectorial W.
En símbolos: 𝑇(0→ 𝑉 ) = 0→ 𝑊 .
2. La imagen del opuesto de un vector en V es el opuesto de la imagen del vector en W.
En símbolos: 𝑇(−𝑣 → ) = −𝑇(𝑣 → ).
3. La imagen de una combinación lineal de dos vectores del dominio de V es igual a la
combinación lineal de las imágenes de los vectores en W, con los mismos escalares.
En símbolos: 𝑇(𝛼. 𝑢→ + 𝛽. 𝑣 → ) = 𝛼. 𝑇(𝑢→ ) + 𝛽. 𝑇(𝑣 → ), 𝛼 𝑦 𝛽 escalares.
4. Como generalización de la propiedad (3), se tiene que 𝑇(∑𝑛𝑖=1 𝛼𝑖 𝑣𝑖 → ) = ∑𝑛𝑖=1 𝛼𝑖 𝑇(𝑣𝑖 → ).
Teorema de existencia y unicidad:
Sean los espacios vectoriales V y W de dimensión finita.
Sea 𝐵 = (𝑣1 → ; 𝑣2 → ; … ; 𝑣𝑛 → ) una base del espacio vectorial V.
Sea 𝐴 = (𝑤1 → ; 𝑤2 → ; … ; 𝑤𝑛 → ) una colección de n vectores del espacio vectorial W.
Entonces existe una única transformación lineal 𝑇: 𝑉 → 𝑊 / 𝑇(𝑣𝑖 → ) = 𝑤𝑖 → , ∀ 𝑖 = 1, … , 𝑛.
Núcleo e imagen de una transformación lineal:
Sea una transformación lineal 𝑇: 𝑉 → 𝑊
Teorema: el núcleo de una transformación 𝑇: 𝑉 → 𝑊 es un subespacio vectorial de V.
Teorema: la imagen de una transformación lineal 𝑇: 𝑉 → 𝑊 es un subespacio vectorial de W.
Teorema de la dimensión del núcleo y de la imagen de una transformación lineal:
Propiedad 1: la imagen por una transformación lineal 𝑇: 𝑉 → 𝑊 de un conjunto de vectores linealmente
dependiente en V es un conjunto de vectores linealmente dependiente en W.
En símbolos:
Sea una transformación lineal 𝑇: 𝑉 → 𝑊.
Sea 𝐴 = (𝑣1 → ; 𝑣2 → ; … ; 𝑣𝑘 → )∁ 𝑉 un conjunto linealmente dependiente en 𝑉 → { 𝑇(𝑣1 → ); 𝑇(𝑣2 → ); … ; 𝑇(𝑣𝑘 → )}∁ 𝑊
es un conjunto de vectores linealmente dependiente en W.
Propiedad 2: la pre imagen por una transformación lineal 𝑇: 𝑉 → 𝑊 de un conjunto de vectores linealmente
independiente en W es un conjunto de vectores linealmente independiente en V.
En símbolos:
Sea una transformación lineal 𝑇: 𝑉 → 𝑊.
Sea 𝐴 = {𝑣1 → ; 𝑣2 → ; … ; 𝑣𝑘 → }∁ 𝑉 / { 𝑇(𝑣1 → ); 𝑇(𝑣2 → ); … ; 𝑇(𝑣𝑘 → )}∁ 𝑊 es un conjunto linealmente independiente →
{𝑣1 → ; 𝑣2 → ; … ; 𝑣𝑘 → } es linealmente independiente en V.
Teorema de la dimensión del núcleo y de la imagen de una transformación lineal.
Sea una trasformación lineal 𝑇: 𝑉 → 𝑊, tal que 𝐷𝑖𝑚(𝑉) = 𝑛, entonces
𝐷𝑖𝑚(𝑁𝑢(𝑇)) + 𝐷𝑖𝑚(𝐼𝑚(𝑇)) = 𝐷𝑖𝑚(𝑉).
Clasificación de transformaciones lineales:
Sea 𝑇: 𝑉 → 𝑊 una transformación lineal.
Teorema: sea la trasformación lineal 𝑇: 𝑉 → 𝑊
𝑇: 𝑉 → 𝑊𝑒𝑠 𝑚𝑜𝑛𝑜𝑚𝑜𝑟𝑓𝑖𝑠𝑚𝑜 ↔ 𝑁𝑢(𝑇) = {0→ 𝑉 }.
Teorema: sea V y W espacios vectoriales de igual dimensión: 𝐷𝑖𝑚(𝑉) = 𝐷𝑖𝑚(𝑊) = 𝑛.
Sea 𝑇: 𝑉 → 𝑊 transformación lineal → (𝑇 𝑒𝑠 𝑚𝑜𝑛𝑜𝑚𝑜𝑟𝑓𝑖𝑠𝑚𝑜 ↔ 𝑇 𝑒𝑠 𝑒𝑝𝑖𝑚𝑜𝑟𝑓𝑖𝑠𝑚𝑜).
Matriz asociada a una transformación lineal:
Matriz asociada a una composición de transformaciones lineales:
Sean las transformaciones lineales 𝑇: 𝑉 → 𝑊; 𝐺: 𝑈 → 𝑉, donde V, W y U son espacios de dimensión finita.
Resulta la composición 𝑇°𝐺: 𝑈 → 𝑊.
Sean: 𝐵1 base de U, 𝐵2 base de V, 𝐵3 base de W.
Entonces, 𝑀(𝑇°𝐺)𝐵1 𝐵3 = 𝑀(𝑇)𝐵2 𝐵3 . 𝑀(𝐺)𝐵1 𝐵3 .
Es decir, la matriz asociada a la transformación lineal compuesta en las bases 𝐵1 a 𝐵3 es igual al producto de
las matrices asociadas a cada una de las transformaciones lineales en las bases correspondientes.
Inversa de una transformación lineal:
Sea 𝑇: 𝑉 → 𝑊 un isomorfismo, es decir, una transformación lineal biyectiva; entonces existe 𝑇 −1 : 𝑉 → 𝑊, la
inversa de la transformación lineal, que también es una transformación lineal.
Sea 𝑀𝐵1 𝐵2 la matriz asociada al isomorfismo T en las bases 𝐵1 , 𝐵2 y resulta:
a) Por ser T un isomorfismo, dim(𝑉) = dim(𝑊), luego 𝑀𝐵1 𝐵2 es una matriz cuadrada.
b) 𝑀𝐵1 𝐵2 es invertible pues el conjunto imagen de T es W, por lo tanto las columnas de 𝑀𝐵1 𝐵2
son linealmente independientes y existe 𝑀−1 𝐵1 𝐵2 .
Luego, [𝑇(𝑣 → )]𝐵2 = 𝑀𝐵1 𝐵2 [𝑣 → ]𝐵1
𝑀−1 𝐵1 𝐵2 [𝑇(𝑣 → )]𝐵2 = 𝑀−1 𝐵1 𝐵2 𝑀𝐵1 𝐵2 [𝑣 → ]𝐵1 = [𝑣 → ]𝐵1
Y resulta 𝑀−1 𝐵1 𝐵2 , la matriz asociada a la transformación lineal inversa 𝑇 −1 : 𝑉 → 𝑊 en las bases 𝐵1 , 𝐵2 .
Matriz de cambio de base:

UNIDAD 10: Valores y vectores propios. Diagonalización.


Auto valores y auto vectores:

Matrices semejantes y diagonalización:


Dadas dos matrices 𝐴, 𝐵 ∈ 𝑅 𝑛𝑥𝑛 son semejantes ↔ ∃ 𝐶 ∈ 𝑅 𝑛𝑥𝑛 , no singular, tal que 𝐵 = 𝐶 −1 𝐴. 𝐶.
Llamamos transformación de semejanza a la transformación lineal: 𝑇 𝑅 𝑛𝑥𝑛 → 𝑅 𝑛𝑥𝑛 tal que:
∀ 𝐴 ∈ 𝑅 𝑛𝑥𝑛 : 𝑇(𝐴) = 𝐶 −1 𝐴. 𝐶 = 𝐵
Teorema: sean A y B dos matrices de 𝑅 𝑛𝑥𝑛 semejantes, entonces tienen los mismos auto valores.
Teorema: si A ∈ 𝑅 𝑛𝑥𝑛 es una matriz triangular (triangular superior, triangular inferior o diagonal), entonces los
auto valores de A son los elementos d la diagonal principal.
Teorema: una matriz A ∈ 𝑅 𝑛𝑥𝑛 es invertible ↔  = 0 no es un autovalor de A.
Teorema: sea A ∈ 𝑅 𝑛𝑥𝑛 →(A es diagonalizable si, y sólo si, tiene n autovectores linealmente independientes).
Condiciones generales para que una matriz sea diagonalizable.
Teorema: si A ∈ 𝑅 𝑛𝑥𝑛 tiene n autovalores distintos → A es diagonalizable.

Teorema: una matriz A ∈ 𝑅 𝑛𝑥𝑛 es diagonalizable si las dimensiones de cada espacio invariante coinciden con
la multiplicidad de cada autovalor.
Diagonalización ortogonal de una matriz:
Decimos que si una matriz A ∈ 𝑅 𝑛𝑥𝑛 es diagonalizable ortogonalmente ↔ ∃ 𝑃 ∈ 𝑅 𝑛𝑥𝑛 , ortogonal, tal que
𝑃−1 𝐴𝑃 = 𝐷, siendo D una matriz diagonal.
Teoremas:
1. Sea A ∈ 𝑅 𝑛𝑥𝑛 una matriz simétrica → sus autovalores son números reales.
2. Sea A ∈ 𝑅 𝑛𝑥𝑛 una matriz simétrica tal que 𝑖 , 𝑗 son autovalores distintos → 𝑣 → 𝑖 . 𝑣 → 2 =
0 𝑝𝑎𝑟𝑎 𝑖, 𝑗 = 1,2, … ,0 𝑦 𝑖 ≠ 𝑗.
Es decir, los autovectores correspondientes a autovalores distintos son ortogonales.
3. Sea A ∈ 𝑅 𝑛𝑥𝑛 una matriz simétrica → tiene n autovectores ortonormales ∈ 𝑅 𝑛 .
4. Una matriz es diagonalizable ortogonalmente, ↔ A es simétrica.
5. A ∈ 𝑅 𝑛𝑥𝑛 es simétrica → A es diagonalizable ortogonalmente → A tiene un conjunto de
autovectores ortonormales. E

También podría gustarte