Documentos de Académico
Documentos de Profesional
Documentos de Cultura
𝑎𝑐 + 𝑏𝑑 𝑏𝑐 − 𝑎𝑑
+ 𝑖
𝑐 2 + 𝑑2 𝑐 2 + 𝑑2
En forma trigonométrica
𝑧1 𝜑
= (𝑐𝑜𝑠(𝜃 − 𝛼) + 𝑖𝑠𝑒𝑛(𝜃 − 𝛼))
𝑧2 𝑟
Representación
en forma
trigonométrica 𝑟 = |𝑍| = √𝑎2 + 𝑏 2
𝑏
𝛼 = 𝑎𝑟𝑐𝑡𝑔 ( )
𝑎
Koppito
En conclusión, todo complejo tiene n raices distintas con módulo 𝑛√𝜑 y argumentos
obtenidos según:
𝜃 + 2𝑘𝜋
∀𝑘 ∈ [0; 𝑛 − 1] / 𝑘 ∈ 𝑁
𝑛
VECTORES
MATRICES
Koppito
Equivalencia por Se dice que dos matrices son equivalentes por filas cuando ambas matrices tienene la
filas misma matriz reducida por filas. Se llega a la matriz reducida mediante operaciones
elementales de filas.
Obtención de la 𝑥 𝑥 𝑥 1 0 0
matriz inversa [𝑥 𝑥 𝑥 ] [0 1 0]
𝑥 𝑥 𝑥 0 0 1
𝐴𝑝𝑙𝑖𝑐𝑎𝑚𝑜𝑠 𝑜𝑝𝑒𝑟𝑎𝑐𝑖𝑜𝑛𝑒𝑠 𝑒𝑙𝑒𝑚𝑒𝑛𝑡𝑎𝑙𝑒𝑠 𝑑𝑒 𝑓𝑖𝑙𝑎
1 0 0 𝑥 𝑥 𝑥 −1
[0 1 0] [𝑥 𝑥 𝑥 ]
0 0 1 𝑥 𝑥 𝑥
Justificación:
𝐸𝑘 … 𝐸2 𝐸1 . 𝐴 = 𝐼
𝐸𝑘 … 𝐸2 𝐸1 . 𝐴. 𝐴−1 = 𝐼 . 𝐴−1
𝐸𝑘 … 𝐸2 𝐸1 . 𝐼 = 𝐴−1
Propiedades de la 1) La matriz inversa existe y es única
matriz inversa 2) (A-1)-1 = A, es decir, la inversa de la inversa es la matriz inicial.
3) (A*B)-1 = A-1 * B-1
4) |A-1| = 1/|A|
Condiciones de La unica condición para que exista la matriz inversa es que la determinante sea distinta de
existencia de la 0.
matriz inversa
DETERMINANTES
SISTEMAS DE ECUACIONES
Koppito
Cantidad de La cantidad de incógnitas determina la cantidad mínima de ecuaciones para que el sistema
incógnitas sea compatible determinado.
Método de Gauss Se triangula la matriz adjunta:
𝑎11 𝑎12 𝑎13 𝑘1
[ 0 𝑎22 𝑎23 ] = [𝑘2 ] Luego, se reemplazan los valores para resolver las incógnitas
0 0 𝑎33 𝑘3
Método de 𝑎11 𝑎12 𝑎13 𝑘1
Gauss-Jordan [𝑎21 𝑎22 𝑎23 ] = [𝑘2 ]
𝑎31 𝑎32 𝑎33 𝑘3
1 0 0 𝑙1
[0 1 0] = [𝑙2 ] Se lleva a la matriz reducida por filas
0 0 1 𝑙3
RECTAS
Formas de ̅̅̅̅
𝑶𝑷 = ̅̅̅̅̅̅
𝑶𝑷𝟏 + ̅̅̅̅̅̅
𝑷𝟏 𝑷
representar la ̅̅̅̅̅̅ ⃗⃗
𝑷𝟏 𝑷 = 𝒌. 𝒂
ecuación de una
recta
Koppito
Familia o haz de La totalidad de los rrectas que satisfacen una única condición geométrica se llama familia o
rectas haz de rectas.
Rectas paralelas
y = mx + k
Donde:
m = Amplitud, todas las rectas tienen la misma amplitud
k = Escalar que diferencia a todas las rectas
Rectas concurrentes
y – y1 = k (x – x1)
Donde:
x1 e y1 son las coordenadas del punto
k es la pendiente que puede tener cualquier valor real
Formas de Vectorial:
representar (𝑥, 𝑦, 𝑧) = (𝑥1 , 𝑦1 , 𝑧1 ) + 𝛽. (𝑎𝑥 , 𝑎𝑦 , 𝑎𝑧 )
rectas en R3
Paramétrica:
𝑥 = 𝑥1 + 𝛽 𝑎𝑥
{𝑦 = 𝑦1 + 𝛽 𝑎𝑦
𝑧 = 𝑧1 + 𝛽 𝑎𝑧
Simétrica:
𝒙 − 𝒙𝟏 𝒚 − 𝒚 𝟏 𝒛 − 𝒛𝟏
= =
𝒂𝒙 𝒂𝒚 𝒂𝒛
Forma normal de Se considera una recta R determinada por el punto P 1(x1;y1) y la dirección normal dada por
la recta el vector n (A;B), con sentido radial (desde el origen del sistema de coordenadas). Este
vector forma un ángulo w con el semiejepositivo de las abscisas. El punto P 1(x1;y1) con el
punto genérico P(x,y), conforman el vector P1P perpendicular al vector n.
[Insertar gráfico bien piolón acá]
Teniendo en cuenta esta condición, podemos escribir, que el producto escalar de ambos
vectores es igual a cero, o sea:
𝑛̅ ̅̅̅̅̅ ̅̅̅̅̅
𝑃1 𝑃 = 0 → {𝑛̅ = 𝐴𝑖̅ + 𝐵𝑗̅}; {𝑃 1 𝑃 = (𝑥 − 𝑥1 )𝑖̅ + (𝑦 − 𝑦1 )𝑗̅}
Y reemplazando resulta:
(𝐴𝑖̅ + 𝐵𝑗̅). [(𝑥 − 𝑥1 )𝑖̅ + (𝑦 − 𝑦1 )𝑗̅] = 0
Resolviendo el producto escalar indicado:
𝐴(𝑥 − 𝑥1 ) + 𝐵(𝑦 − 𝑦1 ) = 0
𝐴𝑥 − 𝐵𝑦 − (𝐴𝑥1 + 𝐵𝑦1 ) = 0
Dividiendo esta última expresión por el modelo del vector n, tendremos:
𝐴𝑥 𝐵𝑦 𝐴𝑥1 𝐵𝑦1
− −( + )=0
|𝑛| |𝑛| |𝑛| |𝑛|
Y como:
Koppito
𝐴 𝐵
= cos(𝜔) ; = 𝑠𝑒𝑛(𝜔)
|𝑛| |𝑛|
Resulta:
𝑥 cos(𝜔) + 𝑦𝑠𝑒𝑛(𝜔) − (𝑥1 cos(𝜔) + 𝑦1 𝑠𝑒𝑛(𝜔)) = 0
Nos queda finalmente:
𝑥1 cos(𝜔) + 𝑦1 𝑠𝑒𝑛(𝜔) = 𝑝
PLANOS
𝑛̅ ∗ ̅̅̅̅̅
𝑃1 𝑃 = 0
(𝐴𝑖̅ + 𝐵𝑗̅ + 𝐶𝑘). [(𝑥 − 𝑥1 )𝑖̅ + (𝑦 − 𝑦1 )𝑗̅ + (𝑧 − 𝑧1 )𝑘̅ ] = 0
̅
𝐴(𝑥 − 𝑥1 ) + 𝐵(𝑦 − 𝑦1 ) + 𝐶(𝑧 − 𝑧1 ) = 0
𝐴𝑥 + 𝐵𝑦 + 𝐶𝑧 − (𝐴𝑥1 + 𝐵𝑦1 + 𝐶𝑧1 ) = 0
𝐴𝑥 + 𝐵𝑦 + 𝐶𝑧 + 𝐷 = 0
Esta forma de la ecucación nos permite calcular la distancia desde el plano hasta un punto
Ecuación normal
determinado. Consiuderamos para ello un plano determinado por el punto P1(x 1,y1,z1) y la
o hessiana de un
plano dirección de su normal n(A,B,C). Supongamos que a este vector normalo lo trasladamos al
origen de sistema de coordenadas.
La unión del punto P1 con el punto genérico P determina un vector P1P, de tal manera que
la condición de perpendicularidad, determina la ecucación vectorial del plano.
Ahora, si dividimos la ecuación vectorial del plano por el módulo del vectorn, tenemos:
𝐴 𝐵 𝐶
(𝑥 − 𝑥1 ) + (𝑦 − 𝑦1 ) + (𝑧 − 𝑧1 ) = 0
|𝑛| |𝑛| |𝑛|
Y como sabemos:
𝐴 𝐵 𝐶
= cos(∝) ; = cos(𝛽) ; = cos(𝛾)
|𝑛| |𝑛| |𝑛|
Resolviendo:
𝑥. cos(∝) + 𝑦𝑐𝑜𝑠(𝛽) + 𝑧𝑐𝑜𝑠(𝛾) − (𝑥1 cos(∝) + 𝑦1 cos(𝛽) + 𝑧1 cos(𝛾)) = 0
En forma general, la forma normal o hessiana del plano toma la siguiente forma:
𝑛̅
. ̅̅̅̅̅
𝑃𝑃=0
|𝑛̅| 1
Koppito
CONICAS
CIRCULO
Definición Es el lugar geométrico de un punto que se mueve en un plano de tal forma que se conserva
siempre una distancia constante de un punto fijo de ese plano. El punto fijo se llama centro
y la distancia constante se llama radio.
Teorema Por definición de circunferencia, el punto “P” debe satisfacer la condición geométrica:
̅̅̅̅| = 𝑟
|𝐶𝑃
Entonces, expresamos la distancia “r” entre los puntos “P” y “C”. Mediante el teorema de
Pitágoras:
𝑟 = √(𝑥 − ℎ)2 + (𝑦 − 𝑘)2
𝑟 2 = (𝑥 − ℎ )2 + (𝑦 − 𝑘)2
ELIPSE
Definición Es el lugar geométrico del punto tal que la suma de las distancias hacia dos puntos fijos
llamados Focos es igual a una constante mayor que la distancia entre los dos puntos.
Teorema Sea P(x, y ) un punto genérico perteneciente a la elipse, debe satisfacer la siguiente
condición:
̅̅̅̅̅| = 2𝑎
̅̅̅̅ | + |𝐹´𝑃
|𝑃𝐹
√(𝑐 − 𝑥)2 + 𝑦 2 + √(𝑐 + 𝑥)2 + 𝑦 2 = 2𝑎
√(𝑐 − 𝑥)2 + 𝑦 2 = 2𝑎 − √(𝑐 + 𝑥)2 + 𝑦 2
2 2
(√(𝑐 − 𝑥)2 + 𝑦 2 ) = (2𝑎 − √(𝑐 + 𝑥)2 + 𝑦 2 )
Koppito
(𝑐 − 𝑥)2 + 𝑦 2 = 4𝑎2 − 4𝑎√(𝑥 + 𝑐)2 + 𝑦 2 + (𝑥 + 𝑐)2 + 𝑦 2
𝑐 − 2𝑐𝑥 + 𝑥 2 + 𝑦 2 = 4𝑎2 − 4𝑎√(𝑥 + 𝑐)2 + 𝑦 2 + 𝑥 2 + 2𝑐𝑥 + 𝑐 2 + 𝑦 2
2
Agrupando convenientemente:
𝑎2 (𝑎2 − 𝑐 2 ) = 𝑥 2 (𝑎2 − 𝑐 2 ) + 𝑎2 𝑦 2 ; 𝑏 2 = 𝑎2 − 𝑐 2
𝑎2 𝑏 2 = 𝑏 2 𝑥 2 + 𝑎2 𝑦 2 → 𝑏 2 𝑥 2 + 𝑎2 𝑦 2 = 𝑎2 𝑏 2
𝑥 2 𝑦2
+ =1
𝑎2 𝑏 2
HIPÉRBOLA
Definición Es el lugar geométrico de un punto que se mueve en un plano de tal forma que el valor
absoluto de la diferencia de sus distancias a dos puntos fijos del plano, llamados focos, es
siempre igual a una cantidad constante, positiva y menor que la distancia entre los focos.
La definición de la hipérbola excluye el caso en el que el punto móvilse mueva sobre la
recta que pasa por los focos. Los focos y el punto medio de este segmento no pueden
pertenecer al lugar geométrico.
Teorema ̅̅̅̅ | − |𝐹
||𝑃𝐹 ̅̅̅̅̅
′ 𝑃 || = 2𝑎
16((𝑐 2 − 𝑎2 )𝑥 2 − 𝑎2 𝑦 2 ) = 16(𝑎2 (𝑐 2 − 𝑎2 ))
(𝑐 2 − 𝑎2 )𝑥 2 − 𝑎2 𝑦 2 = 𝑎2 (𝑐 2 − 𝑎2 )
PARÁBOLA
Definición Es el lugar geométrico de un punto que se mueve en un plano de tal manera que su
distancia a una recta fija, situada en el plano, es siempre igual a su distancia a un punto fijo
del plano, llamado foco, que no pertenece a la recta.
Koppito
Teorema ̅̅̅̅ | = |𝑃𝐷
|𝑃𝐹 ̅̅̅̅ |
√(𝑝 − 𝑥) + 𝑦 2 = 𝑥 + 𝑝
2
2
(√(𝑝 − 𝑥)2 + 𝑦 2 ) = (𝑥 + 𝑝)𝟐
𝑝2 − 2𝑝𝑥 + 𝑥 2 + 𝑦 2 = 𝑥 2 + 2𝑝𝑥 + 𝑝2
𝑦 2 = 4𝑝𝑥
𝑦 = ±2√𝑝𝑥
CUADRICAS
ESPACIOS VECTORIALES
Definición Un espacio vectorial “V” es un conjunto de objetos, denominados vectores, junto con dos
operaciones llamadas adición o suma y multiplicación por un escalar y que satisfacen los
dies axiomas de los espacios vectoriales.
Axiomas 1) Si ‘u’ y ‘v’ son objetos que pertenecen al espacio vectorial ‘V’, entonces ‘u + v’
tambien pertenece a ‘V’. (Propiedad de cerradura ante la adición vectorial).
2) Si ‘u’ y ‘v’ son objetos que pertenecen al espacio vectorial ‘V’, entonces ‘u + v’ = ‘v
+ u’. (Ley de la conmutatividad de la adición vectorial).
3) Si ‘u’ y ‘v’ son objetos que pertenecen al espacio vectorial ‘V’, entonces: (u + v) +
w = u + (v + w).(Ley de asociatividad de la adición vectorial).
4) Existe un vector 𝑜̅ (vector cero) que pertenece al espacio vectorial ‘V’, de tal
manera que para todo ‘u’ que también pertenece a ‘V’, se cumple: (u + 𝑜̅ ) = (𝑜̅ + u)
= u. (Ley de identidad aditiva o elemento neutro).
5) Para cada vector ‘u’ que pertenece a ‘V’, existe un vector ‘-u’ que tambien
pertenece a ‘V’, tal que: u + (-u) = (-u) + u = 𝑜̅ . (Ley del inverso aditivo).
6) Si ‘u’ es un vector que pertenece al espacio vectorial ‘V’ y ‘k’ es un escalar,
entonces ku también pertenece al espacio vectorial ‘V’. (Ley de cerradura ante la
multiplicación por un escalar).
7) Si ‘u’ y ‘v’ pertenecen al espacio vectorial ‘V’ y ‘k’ es un escalar, entonces k(u+v) =
ku + kv también pertenecen al espacio vectorial ‘V’. (Ley de Distribución).
8) Si ‘u’ es un vector que pertenece al espacio vectorial ‘V’ y ‘k’ y’l’ son escalares,
entonces k (l u) = (k l) u = ku + lu. (Propiedad distributiva respecto a la suma de
escalares).
9) Si ‘u’ es un vector que pertenece al espacio vectorial ‘V’ y ‘k’ y ‘l’ son escalares,
entonces k (l u ) = (k l) u. (Propiedad asociativa respecto al producto de
escalares).
10) Para todo vector ‘u’ que pertenece al espacio vectorial ‘V’, se cumple: 1 u = u. (Ley
de identidad multiplicativa).
SUBESPACIO VECTORIAL
Definición Un subconjunto no vacio ‘W’ de un espacio vectorial ‘V’ es un subespacio de ‘V’ si ‘W’ es un
espacio vectorial bajo las operaciones de adición y multiplicación por un escalar definidas
sobre ‘V’.
Koppito
Dimensión Todas las bases de un mismo espacio vectorial tienen el mismo número de vectores y ese
número se llama dimensión del espacio vectorial.
Conjunto Dado un espacio vectorial V, se llama sistema generador de V a un conjunto de vectores,
generador de pertenecientes a V, a partir del cual se puede generar el espacio vectorial V completo. En
espacio vectorial este caso, el espacio vectorial V se denomina conjunto generado o espacio generado.
No confundir este concepto con el de base, ya que si bien toda base es un sistema
generador, la implicación inversa no siempre es cierta. Mientras que una base ha de ser
obligatoriamente un sistema lineal, es decir, todos sus elementos han de ser linealmente
independientes, un sistema generador puede ser ligado, es decir, linealmente
dependiente.
CAMBIO DE BASE
Definición Un espacio vectorial “V” es un conjunto de objetos, denominados vectores, junto con dos
operaciones llamadas adición o suma y multiplicación por un escalar y que satisfacen los
dies axiomas de los espacios vectoriales.
Definición Un producto interior sobre un espacio vectorial ‘V’ es una función que asocia un número
real <u, v> con cada pareja de vectores u y v en V., de tal manera que se satisfacen los
axiomas siguientes para todos los vectores u,v y w que pertenecen a V y todos los escalares
k.
Axiomas 1) <u, v> = <v,u> (Axioma de simetría)
2) <u + v, w> = <u,w> + <v,w> (Axioma de aditividad)
3) <ku, v> = k <u,v> (Axioma de homogeneidad)
4) <v, v> ≥ 0, y <v,v> = 0 si y sólo si v = 0 (Axioma de positividad)
Desigualdad de Si u y v son vectores diferentes de cero en un espacio vectorial V, entonces:
Cauchy-Schwartz
u.v = ||u||.||v||.cos(0), en donde 0 es el ángulo entre u y v.
Si se elevan al cuadrado los dos miemvros de esta expresión y se aplican las relaciones
||u||2 = u . u; ||v||2 = v.v; y cos (0) ≤ 1, se obtiene la desigualdad:
<u, v>2 ≤ <u,u> <v,v>
Conocida como la desigualdad de Cauchy-schwartz y expresada por un teorema que dice:
“Si u y v son vectores en un espacio de productos interiores V, entonces:
<u,v>2 ≤ <u,u> <v,v>
Longitud y ángulo Si v es un espacio de productos interiores, entonces el modulo de un vector u se denota
por [u] y se define por:
||u|| = <u,u>1/2
Distancia La distancia entre dos vectores en un espacio vectorial esta dada por la siguiente ecuación;
d(u, v) = ||u – v ||
Koppito
Teorema 2 Si V es un espacio de productos interiores, entonces la norma ||u|| = <u,u> 1/2 y la
distancia d(u, v) = ||u-v|| satisfacen todas las propiedades que se listan a continuación:
Propiedades Básicas
De Longitud De Distancia
||u|| ≥ 0 d(u, v) ≥ 0
||u|| = 0 ↔ u = 0 d(u, v) = 0 ↔ u = v
||k .u|| = |k| .||u|| d(u, v) = d(v,u)
||u + v|| ≤ ||u|| + ||v|| d(u, v) ≤ d(u, w) + d(w, v)
Y como sabemos que los vectores son ortogonales entre sí, el producto interno entre u y v
debe ser igual a 0, por ende:
||u+v||2 = ||u||2 + ||v||2
Normalización de Si v es un vector diferente de 0 en un espeacio de productos interiores, entonces por la
un vector tercera propiedad básica relativa a la longitud (||kv|| = |k| ||v||), el vector (1/||v||).v
tiene modulo 1, dado que:
1 1
|| 𝑣̅ || = . ||𝑣|| = 1
||𝑣|| ||𝑣||
Koppito
Teorema 7 – Todo espacio de productos interiores diferentes de ceroy de dimensión finita tiene una
Proceso de Gram- base ortonormal.
Schmidt
Demostración:
Sea V cualquier espacio de productos interiores diferente de cero y con dimensión n y
supóngase que S = {V1,V2,V3…Vn} es cualquier base para V. La sucesión siguiente de pasos
produce una base ortonormal {V1,V2,V3…Vn} para V.
Paso 1) Sea v1=u1/||u1||. El vector v1 tiene modulo 1.
Paso 2) Para construir un vector v2 de norma uno y que además sea ortogonal a v1, se
calcula la componente de u2 ortogonal al espacio W1 generado por v1 y a continuación se
normaliza, es decir:
𝑢2 − 𝑝𝑟𝑜𝑦𝑤1 𝑢2 𝑢2 −< 𝑢2 , 𝑣1 > 𝑣1
𝑣2 = =
||𝑢2 − 𝑝𝑟𝑜𝑦𝑤1 𝑢2 || ||𝑢2 −< 𝑢2 , 𝑣1 > 𝑣1 ||
Paso 3) Para construir un vector v3 de norma uno y que sea ortogonal tanto a v1 y v2 se
calcula la componente de u3 ortogonal al espacio W2 generado por los vectores v1 y v2 y
luego se normaliza, es decir:
𝑢3 − 𝑝𝑟𝑜𝑦𝑤2 𝑢3 𝑢3 −< 𝑢3 , 𝑣1 > 𝑣1 −< 𝑢3 , 𝑣2 > 𝑣2
𝑣2 = =
||𝑢3 − 𝑝𝑟𝑜𝑦𝑤2 𝑢3 || ||𝑢3 −< 𝑢3 , 𝑣1 > 𝑣1 −< 𝑢3 , 𝑣2 > 𝑣2 ||
Paso 4) Continuando de esta manera, se obtiene un conjunto ortonormal de vectores
{v1,v2,…vn}. Supuesto que V es de dimensión n y todo conjunto ortonormal es linealmente
independiente, el conjunto {v1,v2,…vn} es una base ortonormal para V.
Teorema 8 Si p es la martiz de transición desde una base ortonormal hacia otra base ortonormal, para
un espacio de productos interiores, entonces:
p-1=pT
Teorema 9 Si A es una matriz de orden nxn, entonces las proposiciones que siguen son equivalentes:
a) La matriz A es ortogonal.
b) Los vectores renglón de la matriz A forman un conjunto ortonormal en R n, con el
producto euclideano interior.
c) Los vectores columna de la matriz A forman un conjunto ortonormal en R n, con el
producto euclideano interior.
Definición Si la expresión F: V->W es una función del espacio vectorial ‘V’ hacia el espacio vectorial
‘W’, entonces ‘F’ es una transformación lineal si se cumple:
1) F(u+v) = F(u)+F(v) para todos los vectores u y v que pertenecen a V
2) F(ku) = k F(u) para todos los vectores u en V y todos los escalares ‘k’
Koppito
Núcleo Si la expresión T:V->W representa una transformación lineal, entonces el conjunto de
vectores en V que T aplica hacia 0 se conoce como núcloe, kernel o espacio nulo de T. Este
espacio se indica por ker(T) o se denota por N(T)
Imagen Si la expresión T:V->W representa una transformación lineal, entonces el conjunto de
todos los vectores en W que son imagens bajo T de al menos algún vector que pertenece a
V, se conoce como imagen o recorrido de T.
Teorema 2 Si la expresión T:V->W es una transformación lineal, entonces:
a) El núcleo de T es un subespacio de V.
b) El recorrido de T es un subespacio de W.
Rango y Nulidad Si la expresión T:V->W es una transformación lineal, entonces la dimensión del recorrido
de T se conoce como rango de T y la dimensión del núcleo, se denomina nulidad de T
Teorema de la Si la expresión T: V->W es una transformación lineal desde un espacio vectorial V con una
dimensión dimensión n hacia un espacio vectorial W, entonces:
(rango de T)+(nulidad de T) = n
Teorema 3 Si A es una matriz de orden m x n, entonces la dimensión del espacio de soluciones de AX =
0 es:
N – rango de A
Definición Se puede demostrar que si V y W son espacios vectoriales con dimensión finita, entonces,
cualquier transformación lineal T:V->W se puede considerar como una transformación
lineal.
La idea fundamental es elegir bases para los espacios vectoriales V y W y trabajar con las
matrices de coordenada s relativas a estas bases, en lugar de con los vectores. Supongase
que V tiene dimensión n y que W tiene dimensión m. Si se eligen las bases B y B´ para V y
W, respectivamente, entonces, para cada vector en Rn y la matriz de coordenadas
[T(x)]B´será algun vector en Rm. Por lo tanto, en el proceso de aplicar x en T(x), la
transformación lineal T genera una aplicación de Rn a Rm, enviando [x]B hacia [T(x)]B´.
Semejanza Sea la expresión T:V->V un operador lineal sobre un espacio vectorial de dimensión finita V.
Si A es la matriz de la transformación T con respecto a una base B, y A es la matriz de la
misma transformación T con respecto a una base B, entonces:
A’ = P-1.A.P
Koppito
Otra definición Sea A una matriz de orden n x n con elementos reales.
El numero x recibe el nombre de valor característico de la matriz A si existe algún vector v
diferente de cero en el conjunto de los números complejos (Cn -> Reales + Imaginarios) tal
que:
Av = x.v
Se dice que el vector, distinto de cero, es un vector característico de la matriz A
correspondiente al valor característico x.
Propiedades Una matriz simétrica tiene todos sus valores propios reales
Los valores propios de una matriz, son los recíprocos de los valores propios de la
matriz inversa.
Cuando un valor propio es cero, el vector propio correspondiente es nulo.
Los valores propios de una matriz son iguales a los de la matriz transpuesta.
Los valores propios de una matriz triangular, o diagonal, son los elementos de la
diagonal principal.
La suma de los valores propios de una matriz cualquiera, es igual a la traza de esa
matriz.
Si una matriz se multiplica por una constante, los valores propios resultarán
multiplicados por dicha constante, pero los vectores propios no cambian
Los vectores propios de autoespacios diferentes de una matriz simétrica son
siempre ortogonales entre sí.
Koppito