Documentos de Académico
Documentos de Profesional
Documentos de Cultura
UNIDAD 1: Matrices.
Matriz: dados m y n enteros positivos, una matriz A de m x n es un arreglo rectangular de escalares dispuestos en
m renglones y n columnas.
Los m.n números del arreglo se denominan elementos de la matriz, y un elemento genérico de A se simboliza con
𝑎𝑖𝑗 (elemento ubicado en el i – ésimo renglón o fila y en la j – ésima columna). Se utilizan paréntesis o corchetes
para encerrar a los m.n elementos de la matriz; y en general, se emplean letras mayúsculas para designar a las
matrices.
En símbolos:
𝑎11 ⋯ 𝑎1𝑛
𝐴𝑚𝑥𝑛 =( ⋮ ⋱ ⋮ ), o 𝐴𝑚𝑥𝑛 = (𝑎𝑖𝑗 )𝑚𝑥𝑛 𝑐𝑜𝑛 1 ≤ 𝑖 ≤ 𝑚, 1 ≤ 𝑗 ≤ 𝑛.
𝑎𝑚1 ⋯ 𝑎𝑚𝑛
Tamaño u orden de una matriz: una matriz que tiene m filas y n columnas es de tamaño u orden m x n.
Matriz fila: si una matriz es de tamaño 1 x n, se denomina matriz fila o vector fila.
Matriz columna: si una matriz es de tamaño m x 1, se denomina matriz columna o vector columna.
Matriz cuadrada: una matriz 𝐴𝑚𝑥𝑛 es cuadrada si m = n. En este caso, se dice que el tamaño de A es n.
Matriz identidad: se denomina matriz identidad y se simboliza con I, a la matriz cuadrada tal que:
𝑎𝑖𝑗 = 1 si i = j.
𝑎𝑖𝑗 = 0 si i ≠ j.
Matriz nula: se denomina matriz nula y se simboliza con 0, a la matriz tal que para todo i y para todo j, se cumple
que 𝑎𝑖𝑗 = 0.
Igualdad de matrices: dos matrices A y B son iguales si tienen el mismo tamaño y si 𝑎𝑖𝑗 = b, para todo i = 1,…,m y
para todo j = 1,…,n, es decir cuando los elementos correspondientes son iguales.
Matriz triangular superior: una matriz triangular es superior cuando A es cuadrada, o sea 𝐴 ∈ 𝑅 𝑛𝑥𝑚 y además 𝑎𝑖𝑗 =
0 cuando i > j. Si i < j es triangular inferior.
Matriz diagonal: una matriz cuadrada es diagonal cuando todos los elementos fuera de la diagonal son ceros.
𝐵 = (𝑏𝑖𝑗 ) ∈ 𝑅 𝑡𝑥𝑡 .
𝐴 ∈ 𝑅 𝑛𝑥𝑚 𝑦 𝑎𝑖𝑗 = 0 si i ≠ j.
Operaciones con matrices:
Suma de matrices: sean A = (𝑎𝑖𝑗 )𝑚𝑥𝑛 y B = (𝑏𝑖𝑗 )𝑚𝑥𝑛 , entonces la suma de A y B es la matriz C = (𝑐𝑖𝑗 )𝑚𝑥𝑛 tal que
para todo i y para todo j 𝐶𝑖𝑗 = 𝑎𝑖𝑗 + 𝑏𝑖𝑗 .
En símbolos:
𝑎11 ⋯ 𝑎1𝑛 𝑏11 ⋯ 𝑏1𝑛
𝐴=( ⋮ ⋱ ⋮ )y𝐵=( ⋮ ⋱ ⋮ )
𝑎1𝑚 ⋯ 𝑎𝑚𝑛 𝑏1𝑚 ⋯ 𝑏𝑚𝑛
𝑎11 + 𝑏11 ⋯ 𝑎1𝑛 + 𝑏1𝑛
Entonces C = A + B =( ⋮ ⋱ ⋮ ).
𝑎1𝑚 + 𝑏1𝑚 ⋯ 𝑎𝑚𝑛 + 𝑏𝑚𝑛
Multiplicación por escalar: sean 𝜏 𝜖 𝑅 y A = (𝑎𝑖𝑗 )𝑚𝑥𝑛 . Entonces la matriz B = 𝜏. 𝐴 se obtiene al multiplicar cada
componente de A por el escalar 𝜏. Esto es, B = (𝑏𝑖𝑗 )𝑚𝑥𝑛 / ∀𝑖; ∀𝑗: 𝑏𝑖𝑗 = 𝜏. 𝑎𝑖𝑗 .
𝑎11 ⋯ 𝑎1𝑛 𝜏. 𝑎11 ⋯ 𝜏. 𝑎1𝑛
En símbolos, si 𝐴 = ( ⋮ ⋱ ⋮ ) → 𝜏. 𝐴 = ( ⋮ ⋱ ⋮ )
𝑎1𝑚 ⋯ 𝑎𝑚𝑛 𝜏. 𝑎1𝑚 ⋯ 𝜏. 𝑎𝑚𝑛
Producto de matrices: dadas A = (𝑎𝑖𝑗 )𝑚𝑥𝑛 y B = (𝑏𝑖𝑗 )𝑚𝑥𝑛 , entonces el producto de A y B es una matriz: C=
(𝑐𝑖𝑗 )𝑚𝑥𝑛 𝑡𝑎𝑙 𝑞𝑢𝑒 ∀𝑖; ∀𝑗: 𝑐𝑖𝑗 = ∑𝑖𝑘=1 𝑎𝑖𝑘 . 𝑏𝑗𝑘 .
En otras palabras, cada elemento 𝑐𝑖𝑗 de la matriz producto se obtiene al realizar el producto punto del vector fila i
- ésima de A y el j – ésimo vector de B.
Para poder realizar el producto A.B, la cantidad de columnas de A debe ser igual a la cantidad de filas de B. La
matriz producto tiene tantas filas como A y tantas columnas como B.
Propiedades de las operaciones matriciales:
Las propiedades de las operaciones matriciales definidas son suma, multiplicación por un escalar y producto.
Sean 𝜏, 𝜏1 𝑦 𝜏2 escalares, y A, B y C matrices (en todos los casos se supone que su tamaño permite realizar las
operaciones). 0 es la matriz nula.
1. A + B = B + A. Ley conmutativa para la suma.
2. (A + B) + C = A + (B + C). Ley Asociativa para la suma.
3. 𝜏. (A + B) = 𝜏.A + 𝜏.B. Ley distributiva para la suma.
4. (𝜏1 + 𝜏2 ) . A = 𝜏1 . 𝐴 + 𝜏2 . 𝐴. Ley distributiva para la suma.
5. A + 0 = A. Existencia de elemento neutro para la suma.
6. A + (- A) = 0. Existencia de elemento inverso aditivo u opuesto en la suma.
7. 1. A = A Existencia de elemento neutro para la multiplicación por escalar.
8. 𝜏. A = 0 ↔ 𝜏 = 0 A = 0.
9. 𝐴. 𝐼𝑛 = 𝐼𝑛 . A = A, siendo 𝐴𝑛𝑥𝑛 . Existencia de elemento neutro para la multiplicación.
10. (𝐴 + 𝐵). C = A.C +B.C. Ley distributiva para la multiplicación.
11. A. (B + C) = A.B + A.C. Ley distributiva para la multiplicación.
12. (A.B).C = A. (B.C). Ley asociativa para la multiplicación de matrices.
13. (𝜏1 + 𝜏2 ).A = 𝜏1 . ( 𝜏2 . 𝐴). Ley asociativa para la multiplicación por un escalar.
14. 𝜏. (A.B) = (𝜏. 𝐴).B = A. ( 𝜏. 𝐵) Ley asociativa para la multiplicación por un escalar.
15. A.0 = 0.A = 0, siendo 𝐴𝑛𝑥𝑛 . Existencia de elemento absorbente en multiplicación de matrices.
16. Existen matrices no nulas (A ≠ 0, B ≠ 0) tal que A.B = 0. Existencia de divisores propios del cero.
17. B = C → A.B = A.C multiplicación a la izquierda.
B = C → B.A = C.A multiplicación a la derecha.
Sin embargo el producto entre matrices no goza de la propiedad cancelativa: A.B = A.C pero B ≠ C. B.A = C.A
pero B ≠ C.
Potencia de una matriz: la potencia de una matriz se define en términos de la multiplicación de la matriz consigo
misma un número finito de veces.
Si A es una matriz cuadrada, es posible realizar el producto A.A….A. Para simbolizar esta matriz se usa la
misma notación exponencial que para todos los números, esto es 𝐴𝑛 = A.A…A.
Transpuesta de una matriz: sea una matriz 𝐴𝑛𝑥𝑛 , se dice que 𝐵𝑛𝑥𝑛 es la matriz transpuesta de A ↔ ∀𝑖; ∀𝑗: 𝑎𝑖𝑗 =
𝑏𝑖𝑗 . La matriz transpuesta de A se simboliza con 𝐴𝑇 o A’.
Una matriz es simétrica si coincide con su transpuesta, y anti simétrica si coincide con la matriz opuesta de su
transpuesta.
A es simétrica si y solo si A = 𝐴𝑇 .
A es anti simétrica si y solo si A = - 𝐴𝑇 .
Inversa de una matriz: sean A y B dos matrices de n x n. Se dice que B es inversa de A si y solo sí A.B = B.A
= I. Si B existe, se dice que A es invertible o no singular y se denota con 𝐴−1 .
Entonces A. 𝐴−1 = 𝐴−1.A = I.
Si una matriz tiene inversa, ésta es única.
Propiedades de la transposición e inversión de matrices:
1. (A + B)T = AT + B T
2. (τ. A)T = τ. A−T
T
3. (AT ) = A
4. (A. B)T = AT . B T
5. (A−1 )−1 = A
6. A−1 . B −1 = (𝐴. 𝐵)−1
7. (𝐴𝑇 )−1 = (𝐴−1 )𝑇
1
8. (τ. A)−1 = 𝜏 . A−1 , 𝜏 ≠ 0
Regla de Laplace:
Teorema 1: sea 𝐴 = (𝑎𝑖𝑗 )una matriz de orden n x n, |A| desarrollado por los elementos de la fila k – ésima es
la suma de los productos entre cada elemento de la fila por su respectivo cofactor.
Fila k – ésima.
Entonces, |𝐴| = ∑𝑛𝑖=1 𝑎𝑘𝑖 . 𝐶𝑘𝑖 representa el desarrollo de |A| por la fila k – ésima.
De manera análoga, expandiendo por la columna h – ésima:
Columna h – ésima.
Entonces, |𝐴| = ∑𝑛𝑖=1 𝑎𝑖ℎ . 𝐶𝑖ℎ representa el desarrollo de |A| por la columna h – ésima.
Propiedades de los determinantes:
1. Sea 𝐴 ∈ 𝑅 𝑛𝑥𝑛 .
El determinante de A es igual al de su transpuesta.
En símbolos: |𝐴𝑇 | = |𝐴| *demostración.
2. Sea 𝐴 ∈ 𝑅 𝑛𝑥𝑛 .
Si la matriz A tiene una línea (fila o columna) de ceros, entonces su determinante es nulo.
*demostración.
3. Sea 𝐴 ∈ 𝑅 𝑛𝑥𝑛 .
Sea 𝐵 ∈ 𝑅 𝑛𝑥𝑛 la matriz que se obtiene por multiplicar una fila o columna de la matriz A por un escalar k (k ∈ 𝑅),
entonces el dterminante de la matriz B es un múltiplo del determinante de la matriz A.
En símbolos: |B| = k |A| *demostración.
Corolario: Sean 𝐴 ∈ 𝑅 𝑛𝑥𝑛 𝑦 𝑘 ∈ 𝑅, entonces |k.A| = kn |A|.
4. Sea 𝐴 ∈ 𝑅 𝑛𝑥𝑛 .
Si en la matriz A se intercambian dos líneas (filas o columnas), el determinante asociado a dicha matriz cambia de
signo. *demostración.
Corolario: Sea 𝐴 ∈ 𝑅 𝑛𝑥𝑛 .
Si la matriz A tiene dos líneas (filas o columnas) iguales, entonces su determinante es nulo.
5. Sea 𝐴 ∈ 𝑅 𝑛𝑥𝑛 .
Si a una línea (fila o columna) de una matriz cuadrada A se le suma un múltiplo escalar de otra línea, el determinante
de la matriz no cambia.
6. Sea 𝐴 ∈ 𝑅 𝑛𝑥𝑛 𝑦 𝐵 ∈ 𝑅 𝑛𝑥𝑛 .
El determinante del producto entre las matrices A y B es igual al producto entre sus respectivos determinante.
En símbolos: |AB| = |A|.|B|.
7. Lema: Sea 𝐴 ∈ 𝑅 𝑛𝑥𝑛 :
- Existe A-1 si, y solo si |A| ≠ 0.
- Si A es regular |A-1| = |A|-1.
- Si h ∈ 𝑁, entonces |Ah| = |A|h.
Observación: sabemos que |AB| = |A| |B| cuando 𝐴 ∈ 𝑅 𝑛𝑥𝑛 𝑦 𝐵 ∈ 𝑅 𝑛𝑥𝑛 ; sin embargo no sucede lo mismo para la
suma de matrices cuadradas. Esto es, en general, |A + B| ≠ |A| + |B|.
8. Sea 𝐴 ∈ 𝑅 𝑛𝑥𝑛 .
Si los elementos de una línea (fila o columna) de A son suma de m términos, entonces el determinante asociado
puede descomponerse en la suma de m determinantes.
Resumen de los efectos sobre el determinante de una matriz cuadrada cuando se aplican operaciones elementales
sobre sus líneas:
Sea 𝐴 ∈ 𝑅 𝑛𝑥𝑛 .
- Si se permutan dos filas (columnas) de A, el determinante de A cambia de signo.
- Si una fila (columna) de A se multiplica por k, el determinante de A también se multiplica por k (k ≠ 0).
- Si a una fila (columna) de A se le suma el múltiplo escalar de otra fila (columna), el determinante de A no
varía.
Matriz adjunta: Sea 𝐴 ∈ 𝑅 𝑛𝑥𝑛 . Se llama matriz adjunta de A a la matriz que se obtiene por transponer la matriz A
y reemplazar cada elemento de A’ por su correspondiente cofactor. Se simboliza: adj (A).
UNIDAD 3: Sistemas de ecuaciones lineales:
Un conjunto finito de m ecuaciones lineales con n incógnitas (𝑥1 , 𝑥2 , … , 𝑥𝑛 ) se denoina sistema de ecuaciones
lineales (s.e.l.) y se simboliza como: 𝑆𝑚𝑥𝑛 .
Al conjunto ordenado de números (𝛼1 , 𝛼2 , … , 𝛼𝑛 ) que verifica simultáneamente todas las ecuaciones se
denomina solución del sistema lineal. Al conjunto de todas las soluciones se le conoce como conjunto solución o
solucio general del sistema lineal.
En símbolos:
𝑎11 . 𝑥1 + 𝑎12 . 𝑥2 + ⋯ + 𝑎1𝑛 . 𝑥𝑛 = 𝑏1
𝑆𝑚𝑥𝑛 = { …………………………………
𝑎𝑚1 . 𝑥1 +. 𝑎𝑚2 . 𝑥2 + ⋯ + 𝑎𝑚𝑛 . 𝑥𝑛 = 𝑏𝑚
Solución de un sistema de ecuaciones lineales:
Se dice que un sistema es compatible o consistente si tiene al menos una solución, y que es incompatible o
inconsistente si carece de soluciones. Cuando un sistema compatible admite más de una solución se denomina
compatible indeterminado, y si tiene sólo una solución será compatible terminado.
Sistemas de ecuaciones equivalentes: se dice que dos sistemas son equivalentes si tienen el mismo conjunto
solución.
Teorema 1: toda operación elemental realizada sobre un sistema de ecuaciones lineales, lo transforma en un
sistema equivalente. Por lo tanto, para obtener la solución de un sistema de ecuaciones lineales podemos
transformarlo en sucesivos sistemas equivalentes utilizando operaciones elementales.
Matrices relacionadas con un sistema de ecuaciones lineales: dados m y n enteros positivos, una matriz A de
m x n, es un arreglo rectangular de escalares dispuestos en m renglones y n columnas. Los m.n números del
arreglo se denominan elementos de la matriz y un elemento genérico de A se simboliza con 𝑎𝑖𝑗 (elemento ubicado
en el i – ésimo renglón o fila y en la j – ésima columna). Se utilizan paréntesis o corchetes para encerrar a los m.n
elementos de la matriz, y en general, se utilizan letras mayúsculas para designar a las matrices.
En símbolos:
𝑎11 ⋯ 𝑎1𝑛
𝐴=( ⋮ ⋱ ⋮ )
𝑎𝑚1 ⋯ 𝑎𝑚𝑛
Al sistema de m ecuaciones y n incógnitas
𝑎11 . 𝑥1 + 𝑎12 . 𝑥2 + ⋯ + 𝑎1𝑛 . 𝑥𝑛 = 𝑏1
{ …………………………………
𝑎𝑚1 . 𝑥1 +. 𝑎𝑚2 . 𝑥2 + ⋯ + 𝑎𝑚𝑛 . 𝑥𝑛 = 𝑏𝑚
Se le asocian dos matrices denominadas matriz de los coeficientes A y matriz ampliada A|B
Se dice que un sistema de ecuaciones lineales es homogéneo si todos los términos independientes
son cero. Simbólicamente:
Sistemas paramétricos:
Producto escalar por un vector: sean 𝑣 → un vector y 𝜏 un número real, entonces el producto del vector 𝑣 → por
el escalar 𝜏, simbolizado mediante 𝜏. 𝑣 → , es un vector con las siguientes características:
El modulo del vector 𝜏. 𝑣 → es || 𝜏. 𝑣 → || = | 𝜏|.||𝑣 → ||, donde:
||𝜏. 𝑣 → || < ||𝑣 → || 𝑠𝑖 |𝜏| < 1
{ ||𝜏. 𝑣 → || > ||𝑣 → ||𝑠𝑖 |𝜏| > 1
||𝜏. 𝑣 → || = ||𝑣 → ||𝑠𝑖 𝜏 = 1 𝜏 = −1
La dirección de 𝜏. 𝑣 → coincide con la dirección de 𝑣 → cuando 𝜏 ≠ 0 𝑦 𝑣 → ≠ 0→ ; esto es, la dirección permanece
invariante. Y la dirección de 𝜏. 𝑣 → es no determinada cuando 𝜏 = 0 𝑜 𝑣 → = 0, o ambos igual a 0.
El sentido de 𝜏. 𝑣 → coincide con el sentido de 𝑣 → 𝑠𝑖 𝜏 > 0, y es opuesto a 𝑣 → cuando 𝜏 < 0.
Propiedades del producto de un vector por un escalar:
1. Ley de composición externa: el producto de un vector por un escalar es un vector, es decir:
→ →
𝜏. 𝑣 = 𝑢 .
2. Asociatividad mixta: 𝜏1 (𝜏2 . 𝑣 → ) = (𝜏1 . 𝜏2 )𝑣 → = 𝜏2 (𝜏1 . 𝑣 → ).
3. Propiedad distributiva del producto de un vector por un escalar con respecto a la suma de
vectores: 𝜏(𝑢→ + 𝑣 → ) = 𝜏. 𝑢→ + 𝜏. 𝑣 → .
4. Propiedad distributiva del producto de un vector por un escalar con respecto a la suma de
escalares: (𝜏1 + 𝜏2 ). 𝑣 → = 𝜏1 . 𝑣 → + 𝜏2 . 𝑣 → .
5. El escalar 1 es neutro para el producto de un vector por un escalar: 1. 𝑣 → = 𝑣 → .
Observación: al vector 𝜏. 𝑣 → se le llama múltiplo escalar del vector 𝑣 → .
(*) Demostración.
Vectores en sistemas de coordenadas:
Vectores en el espacio bidimensional R2: para ubicar puntos en el espacio bidimensional R2, se utiliza un
sistema de referencia cartesiano Oxy. En éste cada punto P(x;y) queda identificado, mediante un par ordenado de
números reales: la abscisa x y la ordenada y.
La expresión del vector posición del punto P(x,y) ∈ R2 en función de sus coordenadas es 𝑝→ = 𝑂𝑃→ = (𝑥, 𝑦).
La expresión canónica del vector posición del punto P(x,y) ∈ R2 es 𝑝→ = 𝑥𝑖 + 𝑦𝑗.
Sean los vectores 𝑣 → = (𝑣𝑥 ; 𝑣𝑦 ) 𝑦 𝑢→ = (𝑢𝑥 ; 𝑢𝑦 ) dos vectores del plano expresados según sus coordenadas y
𝜏 𝜖 𝑅.
Igualdad: 𝑣 → = 𝑢→ ↔ 𝑣𝑥 = 𝑢𝑥 ˄ 𝑣𝑦 = 𝑢𝑦 .
Suma: 𝑣 → + 𝑢→ = (𝑣𝑥 + 𝑢𝑥 ; 𝑣𝑦 + 𝑢𝑦 ).
Resta: 𝑣 → − 𝑢→ = (𝑣𝑥 − 𝑢𝑥 ; 𝑣𝑦 − 𝑢𝑦 ).
Producto de un vector por un escalar: 𝜏. 𝑣 → = 𝜏. (𝑣𝑥 ; 𝑣𝑦 ) = (𝜏. 𝑣𝑥 ; 𝜏. 𝑣𝑦 ).
Vectores en el espacio tridimensional R3:
Todo punto P(x;y;z) ∈ R3 tiene asociado un vector posición 𝑝→ . La expresión en coordenadas del vector
posición 𝑝→ es 𝑝→ = 𝑂𝑃→ = (𝑥, 𝑦, 𝑧).
Vectores paralelos:
Teorema 4: en R2 y R3, dos vectores no nulos son paralelos si y solo si un vector es múltiplo escalar del otro.
En símbolos: 𝑣 → // 𝑤 → ↔ ∃ 𝜏 𝜖 𝑅: 𝑣 → = 𝜏𝑤 → , 𝑠𝑖𝑒𝑛𝑑𝑜 𝑣 → ≠ 0 𝑦 𝑤 → ≠ 0.
Demostración:
Para demostrar el teorema 4, se necesita probar que
a) Si 𝑣 → = 𝜏. 𝑤 → → 𝑣 → // 𝑤 →
b) Si 𝑣 → // 𝑤 → → 𝑣 → = 𝜏. 𝑤 →
Producto vectorial: el producto vectorial entre dos vectores 𝑢→ 𝑦 𝑣 → del espacio R3, distintos del vector nulo y
no paralelos, se indica mediante 𝑢→ 𝑥 𝑣 → y tiene por resultado un vector 𝑤 → con las siguientes características:
Dirección: la dirección del vector 𝑤 → = 𝑢→ 𝑥 𝑣 → es perpendicular a la dirección del vector 𝑢→ y a la del vector
𝑣 →.
Por lo tanto, 𝑤 → = 𝑢→ 𝑥 𝑣 → es perpendicular al plano que contiene los vectores 𝑢→ 𝑦 𝑣 → .
Sentido: sea 𝜃 el ángulo entre 𝑢→ 𝑦 𝑣 → , si suponemos que los dedos de la mano derecha se mueven siguiendo
el giro del vector 𝑢→ según el ángulo 𝜃 hasta coincidir con el vector 𝑣 → , entonces el pulgar de la mano derecha
indicará el sentido del vector 𝑤 → = 𝑢→ 𝑥 𝑣 → . Se dice entonces que la terna (𝑢→ ; 𝑣 → ; 𝑢→ 𝑥 𝑣 → ) es directa, es decir,
igualmente orientada que la terna (𝑖; 𝑗; 𝑘).
En este caso, el giro va en sentido levógiro, es decir, anti horario; en contraposición al sentido dextrógiro u
horario.
Módulo: el módulo del vector 𝑤 → = 𝑢→ 𝑥 𝑣 → es ||𝑤 → || = ||𝑢→ 𝑥 𝑣 → || = ||𝑢→ ||. ||𝑣 → ||𝑠𝑒𝑛 𝜃, (siendo 𝜃 el ángulo
entre 𝑢→ 𝑦 𝑣 → ).
Producto mixto: dados tres vectores 𝑢→ , 𝑣 → 𝑦 𝑤 → del espacio R3, se llama producto mixto al número real que
se obtiene al multiplicar 𝑢→ . ( 𝑣 → 𝑥 𝑤 → ).
Fórmula del producto mixto entre vectores en función de sus coordenadas:
Una manera apropiada de calcular el producto mixto 𝑢→ . ( 𝑣 → 𝑥 𝑤 → ) entre tres vectores de R3 es efectuando
primero el producto vectorial y luego el producto escalar.
Regla de resolución del producto mixto aplicando determinantes:
Sean los vectores 𝑢→ = 𝑢1 . 𝑖 + 𝑢2 . 𝑗 + 𝑢3 . 𝑘, 𝑣 → = 𝑣1 . 𝑖 + 𝑣2 . 𝑗 + 𝑣3 . 𝑘 y 𝑤 → = 𝑤1 . 𝑖 + 𝑤2 . 𝑗 + 𝑤3 . 𝑘, entonces el
producto mixto es
𝑢1 𝑢2 𝑢3
𝑣 𝑣3 𝑣1 𝑣3 𝑣1 𝑣2
→ →
𝑢 .( 𝑣 𝑥 𝑤 →)
= ( 𝑣1 𝑣2 𝑣3 ) = ( 2
𝑤2 𝑤3 ) . 𝑢1 − (𝑤1 𝑤3 ) . 𝑢2 + (𝑤1 𝑤2 ) . 𝑢3
𝑤1 𝑤2 𝑤3
Interpretación geométrica del valor absoluto del producto mixto:
Cuando se consideran los vectores 𝑢→ , 𝑣 → 𝑦 𝑤 → del espacio R3 con origen común en O, sus longitudes
determinan tres de las aristas de un paralelepípedo cuyo volumen es el valor absoluto del producto mixto entre
𝑢→ , 𝑣 → 𝑦 𝑤 → .
Es decir,
Volumen del paralelepípedo: |𝑢→ . ( 𝑣 → 𝑥 𝑤 → )|
Teorema: la distancia del punto 𝑃1 (𝑥1 ; 𝑦1 , 𝑧1 ) al plano 𝑝𝑙𝜋: 𝐴𝑥 − 𝐵𝑦 + 𝐶𝑧 − 𝐷 = 0 esta dada por la fórmula:
|𝐴𝑥1 + 𝐵𝑦1 + 𝐶𝑧1 + 𝐷|
𝑑𝑖𝑠𝑡(𝑃1 , 𝑝𝑙, 𝜋) =
√𝐴2 + 𝐵2 + 𝐶 2
Familia o haz de planos: el conjunto de los planos que pasan por una recta r se denomina familia o haz de
planos.
RECTAS EN R3
Ecuacion de la recta que pasa por un punto y es paralela a un vector.
Ecuacion paramétrica vectorial de la recta en R3:
La ecuación paramétrica vectorial de la recta que pasa por el punto 𝑃0 (𝑥0 ; 𝑦0 ; 𝑧0 ) y es paralela al vector 𝑑→ =
(𝑑1 ; 𝑑2 ; 𝑑3 ), distinto al vector nulo, es:
𝑟: (𝑥; 𝑦; 𝑧) = (𝑥0 ; 𝑦0 ; 𝑧0 ) + 𝜏(𝑑1 ; 𝑑2 ; 𝑑3 ), 𝑐𝑜𝑛 𝜏 ∈ 𝑅.
Ecuación paramétrica cartesiana de la recta en R3:
La medida del ángulo que forman la recta 𝑟: (𝑥; 𝑦; 𝑧) = (𝑥0 ; 𝑦0 ; 𝑧0 ) + 𝜏. (𝑑1 ; 𝑑2 ; 𝑑3 ), 𝑐𝑜𝑛 𝜏 ∈ 𝑅 y el plano 𝛼: 𝐴𝑥 +
𝐵𝑦 + 𝐶𝑧 + 𝐷 = 0 se obtiene con la fórmula:
𝑑→ . 𝑛→ |𝐴. 𝑑1 + 𝐵. 𝑑2 + 𝐶. 𝑑3 |
𝜑 = (𝑟; 𝑝𝑙𝛼) = 𝑎𝑟𝑐𝑠𝑒𝑛 ( ) = 𝑎𝑟𝑐𝑠𝑒𝑛
||𝑑→ ||. ||𝑛→ ||
√𝐴2 + 𝐵2 + 𝐶 2 √𝑑1 2 + 𝑑2 2 + 𝑑3 2
Posiciones relativas de dos rectas en el espacio:
Dos rectas en R3 se denominan coplanares si existe un plano que, simultáneamente, las incluya. En caso
contrario se denominan rectas alabeadas.
Rectas concurrentes o incidentes en un punto:
Rectas paralelas:
Rectas perpendiculares:
Rectas alabeadas: dos rectas de R3 se denominan alabeadas si no existe un plano que las contenga
simultáneamente.
Planos proyectantes de una recta:
Se define como planos proyectantes de una recta, a lo sumo, a tres de los infinitos planos que contienen a la
recta, tales que cada plano resulta ser perpendicular a un plano coordenado.
UNIDAD 6: Cónicas.
Lugar geométrico de R2.
Dada una ecuación E(x;y)=0, el conjunto de todos los puntos de R2 cuyas coordenadas las satisfacen se
denomina lugar geométrico o gráfica de la ecuación, y se simboliza con lg.
Circunferencia: se denomina circunferencia al lugar geométrico formado por todos los putos P del plano que
equidistan de un punto fijo C de ese plano, llamado centro. La distancia entre C y P s conoce como radio, r, y no
debe ser nula.
Elipse: se denomina elipse al lugar geométrico formado por todos los puntos del plano para los cuales se
cumple que la suma de sus distancias a dos puntos fijos de ese plano, denominados focos, permanece constante
y es mayor que la distancia entre los focos.
Ecuación ordinaria de la elipse:
2 2
𝑥′ 𝑦′
La elipse con centro en el origen y semiejes a y b, referida al sistema X’ Y’ tiene por ecuación a 𝑎2
+ 𝑏2
= 1.
Combinación lineal:
Sistemas generadores:
→
Propiedad 9: Sean un espacio vectorial (V;+;R;.) y las bases 𝐵 = {𝑣1 → ; 𝑣2 → ; … ; 𝑣𝑛 → } y 𝐵′ = {𝑣1 ; 𝑣2 → ; … ; 𝑣𝑛 → }.
Entonces la matriz de pasaje 𝑃𝐵→𝐵′ es una matriz no singular, es decir, admite inversa.
→
Propiedad 10: Sean un espacio vectorial (V;+;R;.) y las bases 𝐵 = {𝑣1 → ; 𝑣2 → ; … ; 𝑣𝑛 → } y 𝐵′ = {𝑣1 ; 𝑣2 → ; … ; 𝑣𝑛 → }.
La matriz (𝑃𝐵→𝐵′ )−1 es la matriz de pasaje de la base B’ a la base B, es decir, (𝑃𝐵→𝐵′ )−1 = 𝑃𝐵→𝐵′ .
Y por lo tanto, si [𝑤 → ]𝐵 = 𝑃𝐵→𝐵′ . [𝑤 → ]𝐵 , entonces [𝑤 → ]𝐵 = (𝑃𝐵→𝐵′ )−1 . [𝑤 → ]𝐵 , siendo 𝑃𝐵→𝐵′ y𝑃𝐵′ →𝐵 inversas
entre sí.
Teorema: sean 𝐴 = {𝑣1 → ; 𝑣2 → ; … ; 𝑣𝑛 → } un sistema de generadores del espacio vectorial (V;+;K;.) y
{𝑢→1 ; 𝑢→ 2 ; … ; 𝑢→ 𝑠 } un conjunto linealmente independiente, entonces 𝑠 ≤ 𝑟.
Dimensión de un espacio vectorial:
Matrices, sistemas de ecuaciones lineales y espacios vectoriales:
Espacio fila, espacio columna, rango de una matriz:
Teorema: las operaciones elementales en las filas de una matriz no cambian el espacio fila de dicha matriz.
Teorema: si 𝐴 ∈ 𝑅 𝑚𝑥𝑛 𝑦 𝐵 ∈ 𝑅 𝑚𝑥𝑛 son matrices equivalentes por filas, entonces:
1. El conjunto de vectores columna de A es linealmente independiente si, y sólo si, el conjunto
de vectores columna correspondientes de B es linealmente independiente.
2. El conjunto de vectores columna de A forma una base para el espacio columna de A si, y
sólo si, el conjunto de vectores correspondientes de B forma una base para el espacio columna de B.
Teorema: sea 𝐵 ∈ 𝑅 𝑚𝑥𝑛 una forma escalonada por fila de una matriz 𝐴 ∈ 𝑅 𝑚𝑥𝑛 , entonces los vectores fila
con los números 1 principales forman una base del espacio fila de B y los vectores columna con los números 1
principales de los vectores fila forman una base para el espacio columna de B.
Teorema: sean 𝐴 ∈ 𝑅 𝑚𝑥𝑛 cualquier matriz y 𝑆𝐹 y 𝑆𝐶 los espacio fila y columna de A, respectivamente; entonces
el espacio fila y el espacio columna de A tienen la misma dimensión.
En símbolos:
Sean 𝑆𝐹 y 𝑆𝐶 los espacios fila y columna de A, respectivamente, entonces:
𝐷𝑖𝑚(𝑆𝐹 ) = 𝐷𝑖𝑚(𝑆𝐶 ).
Espacio nulo y nulidad:
Sea un espacio con producto interior (V;<,>); entonces, se llama distancia entre los vectores 𝑢→ y 𝑣 → , indicada
mediante 𝑑(𝑢→ ; 𝑣 → ),a la norma del vector de la diferencia entre 𝑢→ − 𝑣 → .
En símbolos: 𝑑(𝑢→ ; 𝑣 → ) = ||𝑢→ − 𝑣 → ||.
Ángulo entre vectores:
Vectores ortogonales:
Base ortonormal:
Teorema: sea (V;<,>) un espacio con producto interno y sea 𝐵 = {𝑢1 → ; 𝑢2 → ; … ; 𝑢𝑛 → } una base de V entonces
existe una base ortonormal 𝐵′ = {𝑤1 → ; 𝑤2 → ; … ; 𝑤𝑛 → } de V.
Demostración:
Complemento ortogonal:
Proyecciones ortogonales:
UNIDAD 9: Transformaciones lineales.
Definición de transformación lineal:
Teorema: una matriz A ∈ 𝑅 𝑛𝑥𝑛 es diagonalizable si las dimensiones de cada espacio invariante coinciden con
la multiplicidad de cada autovalor.
Diagonalización ortogonal de una matriz:
Decimos que si una matriz A ∈ 𝑅 𝑛𝑥𝑛 es diagonalizable ortogonalmente ↔ ∃ 𝑃 ∈ 𝑅 𝑛𝑥𝑛 , ortogonal, tal que
𝑃−1 𝐴𝑃 = 𝐷, siendo D una matriz diagonal.
Teoremas:
1. Sea A ∈ 𝑅 𝑛𝑥𝑛 una matriz simétrica → sus autovalores son números reales.
2. Sea A ∈ 𝑅 𝑛𝑥𝑛 una matriz simétrica tal que 𝑖 , 𝑗 son autovalores distintos → 𝑣 → 𝑖 . 𝑣 → 2 =
0 𝑝𝑎𝑟𝑎 𝑖, 𝑗 = 1,2, … ,0 𝑦 𝑖 ≠ 𝑗.
Es decir, los autovectores correspondientes a autovalores distintos son ortogonales.
3. Sea A ∈ 𝑅 𝑛𝑥𝑛 una matriz simétrica → tiene n autovectores ortonormales ∈ 𝑅 𝑛 .
4. Una matriz es diagonalizable ortogonalmente, ↔ A es simétrica.
5. A ∈ 𝑅 𝑛𝑥𝑛 es simétrica → A es diagonalizable ortogonalmente → A tiene un conjunto de
autovectores ortonormales. E