Está en la página 1de 19

Tabla de contenido

CAPITULO III.............................................................................................................................2
ESPACIOS VECTORIALES...................................................................................................2
PROPIEDADES DE LOS ESPACIOS VECTORIALES.....................................................5
DEMOSTRACIONES:........................................................................................................5
SUBESPACIOS VECTORIALES...........................................................................................7
COMBINACIÓN LINEAL......................................................................................................7
SISTEMAS DE GENERADORES..........................................................................................8
DEPENDENCIA E INDEPENDENCIA LINEAL...............................................................8
BASE DE UN ESPACIO VECTORIAL...............................................................................8
DIMENSIÓN...........................................................................................................................8
BASE DE UN SUBESPACIO.................................................................................................9
COORDENADAS DE UN VECTOR EN UNA BASE........................................................9
OPERACIONES CON SUBESPACIOS..................................................................................9
CONJUNTO ORTOGONAL Y ORTONORMAL DE VECTORES.................................9
COMPLEMENTO ORTOGONAL DE UN SUBESPACIO.............................................10
ESPACIO FILA Y ESPACIO COLUMNA DE UNA MATRIZ......................................10
MÉTODO DE ORTAGONALIZACION DE GRAM SCHMIDT.........................................10
Ejemplos de subespacio..........................................................................................................12
Capitulo v...................................................................................................................................13
VALORES Y VECTORES PROPIOS...................................................................................13
POLINOMIO CARACTERÍSTICO...................................................................................13
GRADO DE MULTIPLICIDAD DE LOS VALORES PROPIOS........................................14
MATRIZ DIAGONALIZABLE.............................................................................................14
TEOREMA........................................................................................................................14
DIAGONALIZACIÓN DE MATRICES SIMÉTRICAS.......................................................15
DIAGONALIZACIÓN DE LAS FORMAS CUADRÁTICAS..............................................17
SECCIONES CÓNICAS....................................................................................................17
1) Cónicas irreducibles. Son:..............................................................................................17
2) Cónicas reducibles o degeneradas. Son:.........................................................................18
CAPITULO III
ESPACIOS VECTORIALES
Un espacio vectorial real V es un conjunto de objetos, llamados vectores, junto con dos
operaciones llamadas suma vectorial y multiplicación por un escalar que satisfacen los 10
axiomas enumerados a continuación:

A.1
∀ v 1 ,v 2 ∈V [ v 1 ⊕ v 2 ∈V ] Ley de la cerradura

A.2
∀ v 1 ,v 2 ∈V [ v 1 ⊕ v 2=v 2 ⊕v 1 ] Ley conmutativa

A.3
∀ v 1 ,v 2 ∈V [ ( v 1 ⊕ v 2 ) ⊕ v 3 =v 1 ⊕ ( v 2 ⊕ v 3 ) ] Ley asociativa

A.4 ∃0∈V ,∀v ∈V [ v ⊕0=v ] Ley de existencia del neutro

[ v⊕v=0 ]
¿ ¿

A.5 ∀v∈V ,∃v∈V Ley del inverso

M.1 ∀α ∈ ℜ,∀ v∈ V [ α ⊗v ∈V ] Ley de la cerradura

M.2 ∀ α ∈ ℜ,∀ v 1 ,v 2 ∈V [
α ⊗ ( v 1 ⊕ v2 )=α ⊗ v 1 ⊕ α ⊗ v 2 ]
Ley distributiva con respecto a
la suma de vectores

M.3 ∀α ,β ∈ℜ,∀ v∈V [ ( α ⊕ β ) ⊗ v=α ⊗v ⊕β ⊗v ] Ley distributiva con respecto a


la suma de escalares

M.4 ∀ α ,β ∈ ℜ, ∀ v∈ V [ α ⊗ ( β ⊗ v )=( αβ ) ⊗ v=β ⊗ ( α ⊗v ) ] Ley asociativa con respecto


a la multiplicación

M.5
∀ v 1 ∈V [ 1⊗ v=v ] Neutro del producto escalar

 Es suficiente que no se cumpla uno de estos diez axiomas para que el conjunto no sea
espacio vectorial.
 Si los escalares son reales el conjunto se llama ESPACIO VECTORIAL REAL.

EJEMPLOS:
+
V =ℜ ={ x / x> 0 }

x ⊕ y=xy v 1 =x ; x >0
α ⊗ x=x α v 2 = y ; y >0
A.1
∀ v 1 ,v 2 ∈V [ v 1 ⊕ v 2 ∈V ]

x ⊕ y=xy Si x > 0 ¿ y > 0 ⇒ xy > 0

A.2
∀ v 1 ,v 2 ∈V [ v 1 ⊕ v 2=v 2 ⊕ v 1 ]

x⊕ y= y⊕ x
xy= yx
xy=xy

A.3
∀ v 1 , v 2 ∈V [ ( v 1 ⊕ v 2 ) ⊕ v 3 =v 1 ⊕ ( v 2 ⊕ v 3 ) ]

( x ⊕ y ) ⊕ z=x ⊕ ( y ⊕ z )
xy ⊕ z=x⊕ yz
xyz=xyz

A.4 ∃0∈V ,∀v ∈V [ vÅ 0=0 Åv ]

x ⊕ 0=x
x 0=x
x
0= =1
x
0=1

A.5 ∀ v∈V ,∃v ∈V [ vÅ v=v Åv ]

x ⊕ x=0
x x=1
1
x=
x
M.1 ∀ α ∈ ℜ, ∀ v∈ V [ α ⊗v ∈V ]

α ⊗ x=x α
x>0 ⇒ x n >0 ⇒ xn ∈V

M.2 ∀ α ∈ ℜ, ∀ v 1 , v 2 ∈V [ α ⊗ ( v 1 ⊕ v2 )=α ⊗ v 1 ⊕ α ⊗ v 2 ]

α ⊗ ( x ⊕ y ) =α ⊗ x ⊕ α ⊗ y
α ⊗ ( xy )=x α ⊕ y α
( xy )α=x α ⊕ y α
( xy )α=( x α y α )
( xy )α=( xy )α

M.3 ∀ α , β ∈ ℜ, ∀ v ∈ V [ ( α ⊕ β ) ⊗ v=α ⊗ v ⊕ β ⊗v ]

( α ⊕ β ) ⊗ v=α ⊗v ⊕ β ⊗v
x α ⊕ β =x α ⊕ y β
x α ⊕ β =x α ⊕ β

M.4 ∀ α , β ∈ ℜ, ∀ v ∈ V [ α ⊗ ( β ⊗ v )=( αβ ) ⊗ v=β ⊗ ( α ⊗ v ) ]

α ⊗ ( β ⊗ x )= ( αβ ) ⊗ x
α ⊗ ( x β )=x αβ
( x β )α =x αβ
x αβ =x αβ
M.5
∀ v 1 ∈V [ 1⊗ v=v ]
1⊗ x=x
x 1 =x
 Por tanto (V, ⊗,⊕ ) Es un espacio vectorial.

V = {( x , y , z ) ∈ ℜ3 / x=t +1 , y =2t , z=t−1 }

v 1 ={ x 1 , y 1 , z1 } = {t 1 +1 , 2 t 1 , t 1 −1 }
v 2 ={ x 2 , y 2 , z 2 }= {t 2 +1 , 2t 2 , t 2 −1 }

A.1
∀ v 1 ,v 2 ∈V [ v 1 ⊕ v 2 ∈V ]

( x1 ¿) ( y1 ¿) ¿ ¿ ¿
¿
v 1 ⊕ v 2 ∉V Por tanto V no es un espacio vectorial.

PROPIEDADES DE LOS ESPACIOS VECTORIALES


Si V junto con las operaciones de ⊕ y ⊗ es un espacio vectorial, entonces:
1. El vector nulo es único.
2. El inverso de cada elemento es único.

DEMOSTRACIONES:
1) Suponemos que existen dos vectores nulos.

{ x⊕ 01=x ¿ ¿¿¿ ¿
¿
¿ ¿ ¿ ¿
x ⊕ x ⊕ 01=x ⊕ x ⊕02
01 ⊕01 =0 2 ⊕ 02

01 =02
2) Sea xÎv Ù x̄ , ȳ inverso de x

{ xÅ x̄=0̄¿¿¿¿ ¿
TEOREMA
¿
Si (V, ⊗,⊕ ) es un espacio vectorial, entonces:

1.−vÎVleft[0Äv={overline {0} right]} {}# size12{ . -vÎV[−1Äv=-v]


3.−αΠleft[αÄ{overline {0} ={overline {0} right]} {}# size12{4 . -αÎÂ,vÎVleft[left(-αright)Ä{overline {v} =αÄvright]} {}# size12{5 . -u,v wÎV[uÅv=uÅw⇒v=w]
6.−αÎÂ,vÎV[αÄv=0⇒α=0Úv=0]
DEMOSTRACIONES:

Sea (V, ⊗,⊕ ) un espacio vectorial

0⊗v=0
v ⊕ ( 0 ⊗v )= (1⊗v ) ⊕ ( 0 ⊗v )
v⊕ 0=( 1+0 ) ⊗ v
v=( 1⊗ v )
v=v
Sea (V, ⊗,⊕ ) un espacio vectorial

−1⊗ v=v
v ⊕ (−1⊗ v )=( 1⊗v ) ⊕ (−1⊗ v )
v ⊕v= (1−1 ) ⊗ v
0=0⊗v
0=0
Sea (V, ⊗,⊕ ) un espacio vectorial ∀ u, v, w ∈V [ u⊕ v=u⊕w ⇒ v=w ]

u ⊕ v=u ⊕w
u ⊕ ( u⊕ v )=u ⊕ ( u ⊕w )
( u ⊕u ) ⊕ v=( u ⊕u ) ⊕w
0 ⊕ v=0 ⊕w
v =w
SUBESPACIOS VECTORIALES
Un conjunto S no vacío e incluído en V siendo ¿¿un espacio vectorial, S es un
subespacio de V si se cumplen las siguientes condiciones:

 S ⊂V
 S≠∅
 x, y ∈S⇒x+ y∈S
 α ∈ ℜ∧x ∈ S ⇒ α⋅x ∈ S

Únicos subespacios de ℜ : { ( 0,0 ) } , ℜ ,rectas que pasen por el origen


2 2

Únicos subespacios de ℜ : { ( 0,0,0 ) } , ℜ , rectas que pasen por el origen, planos que pasen por
3 3

el origen.

COMBINACIÓN LINEAL
Sea ¿¿ espacio vectorial y sean
v 1 , v 2 ,..., v r ∈V ; w es combinación lineal de
v 1 , v 2 ,..., v r si w=α 1 v 1 + α 2 v 2 +⋯+α r v r con α 1 , α 2 ,⋯, α r ∈ ℜ .

Si
α 1=α 2 =⋯=α r =0 la C.L. es la trivial y se obtiene el vector nulo.
SISTEMAS DE GENERADORES
Sea ¿¿ e.v. y sean 1 2
v , v ,..., v ∈V
r ; los vectores 1 2
v , v ,..., v
r forman un sistema de
generadores de V o generan a V si todo vector de V puede exprearse como C.L. de ellos.

Definición: ∀ w∈ V ,∃α 1 , α 2 ,⋯, α r ∈ ℜ/w=α 1 v 1 + α 2 v2 +⋯+α r v r

Propiedad: Si el sistema { 1 2 r } incluido en V es generador de V y uno de los vectores


v , v ,⋯, v
que lo forman es C.L. de los otros, entonces el subsistema que resulta al suprimir ese vector
también es generador de V.

DEPENDENCIA E INDEPENDENCIA LINEAL


La ecuación
α 1 v 1 + α 2 v 2 +⋯+α r v r =0̄ tiene siempre solución trivial

 Si la trivial es la única solución entonces los vectores son linealmente independientes.


 Si además tiene otras soluciones, los vectores son linealmente dependientes.

Observaciones y propiedades:
 Todo sistema que contenga al vector nulo es L.D.
 Todo sistema con un único vector no nulo es L.I.

El sistema { 1 2 r } es L.D. si y solo si algunos de los vectores del sistema es


v , v ,⋯, v

C.L. de los restantes.
 Si un sistema tiene dos vectores no nulos, si uno es múltiplo del otro son L.D.; caso
contrario son L.I.
2 3
 En ℜ y ℜ dos vectores L.D. son paralelos.

BASE DE UN ESPACIO VECTORIAL


B={ v 1 , v 2 ,⋯, v n }
es base de V ⇔ B es S.G. de V ^ B es L.I.
 Si se comprueba cualquiera de las dos condiciones ya se puede decir que es base.

n
Llamamos bases canónicas de ℜ a por ejemplo:

 {( 1,0 ) , ( 0,1 ) } en ℜ2
 { ( 1,0,0 ) , ( 0,1,0 ) , ( 0,0,1 ) } en ℜ3

DIMENSIÓN
 Todo espacio vectorial de dimensión finita que no se reduzca al vector nulo admite por
lo menos una base.
 Si V es un e.v. de dimensión finita, todas sus bases tienen el mismo número n de
vectores que se llama dimensión de V y se nota: dim V =n
 Se define dim { 0̄ }=0
n m×n
 dim ℜ =n dim ℜ =m⋅n dim Pn =n+1

Observaciones: sea dim V =n


 Todo sistema con más de n vectores de V, son L.D.
 Todo sistema con menos de n vectores de V, no generan a V.
 Todo sistema de n vectores L.I., forman una base de V.
 Todo S.G. de V con n vectores, forman una base de V

Propiedad: Sea dim V =n y sea un conjunto de r vectores (r<n) L.I., el conjunto puede
extenderse a una base de V agregándole (n-r) vectores, formando de esta manera un conjunto
L.I. de n vectores de V.

BASE DE UN SUBESPACIO
B es base de un subespacio S si B es un conjunto L.I. y forma un S.G. de S.

Si dim V =n y S subespacio de V, entonces dim S≤n y si dim S=n ⇔ S=V

COORDENADAS DE UN VECTOR EN UNA BASE


si B= {u1 , u2 ,⋯,u n } base de V ∧v ∈V ⇒∃! α 1 , α 2 ,⋯, α n ∈ ℜ/ v=α 1 u1 + α 2 u2 +⋯+α n un

()
α1
[ v ] B= α 2

αn
Se nota:
OPERACIONES CON SUBESPACIOS
Intersección:

S ∩S = x ∈ V / x ∈ S1 ∧x ∈ S 2 }
2 {
 Sean S1 y S2 subespacios de V, entonces: 1 es un
subespacio de V denominado subespacio intersección.

Suma:
 Sean S1 y S2 subespacios de V, entonces
S 1 + S2 = {x ∈V / x=x 1 + x 2 con x1 ∈ S 1∧x 2 ∈ S 2 }
es un subespacio de V llamado
subespacio suma.
Propiedades:


S 1 ⊕ S 2 =S ⇔ S 1 + S2 =S ∧ S 1∩S 2= { 0̄ } (suma directa)
dim ( S1 +S 2 ) =dim S1 + dim S 2 −dim ( S1 ∩S2 )

CONJUNTO ORTOGONAL Y ORTONORMAL DE VECTORES
Un conjunto de vectores de un espacio vectorial es un conjunto ortogonal si todos los pares de
vectores del conjunto son ortogonales entre si (producto escalar = 0).
Un conjunto ortogonal en el que cada vector tiene norma 1 es ortonormal.

Propiedades:
 Todo conjunto ortogonal de vectores no nulos de un espacio vectorial V es un conjunto
L.I.
 Todo e.v. V que no sea el nulo y que tenga dimensión finita tiene una base ortonormal.

COMPLEMENTO ORTOGONAL DE UN SUBESPACIO


Sea S subespacio de V:
Se llama complemento ortogonal de S al conjunto formado por todos los vectores de V que son
ortogonales a todos los vectores de S:
¿
S ={ x ∈V /x⋅y =0 ∀ y ∈ S }

Propiedades:

 S ¿ es un subespacio de V
¿
 Si dim V =n⇒ dim S+dim S =dim V
¿
 S ⊕S =V

ESPACIO FILA Y ESPACIO COLUMNA DE UNA MATRIZ


n
Se llama espacio fila de A al subespacio de ℜ generado por los vectores fila de A. Se llama
n
espacio columna de A al subespacio de ℜ generado por los vectores columna de A.

Se llama rango fila de A a la dimensión de Sf ( A )

Se llama rango columna de A a la dimensión de Sc ( A )


El rango fila y el rango columna de una matriz son iguales. Se llama rango de una matriz a su
rango fila y a su rango columna.

MÉTODO DE ORTAGONALIZACION DE GRAM SCHMIDT


Consideremos dos vectores x1 , y x2 en el plano XY linealmente Independientes, a partir de estos
vectores construyamos los vectores e1 y e2, ortogonales.
Supongamos x1= e1, y e1 como componente de e 2 perpendicular a x1, en consecuencia
e 2=x 2−∝12 e 1, gráficamente es

X2 X2 e 2=x 2−∝12 e 1
e2

X1=e1
∝12 e 1 E1
En donde debemos de encontrar ∝1,2 de tal manera que e 1 , , e2 =0 es decir:

e 2 . e 1=0=x 2 e 1−∝12 e 1 . e 1,
Consecuentemente se tiene que
x 1 . e1
∝12= ,
e1 . e1
De esta manera e2 se encuentra en función de x 1 y x2, y sean ortogonalizado dichos
vectores.
Ejemplo.
Ortogonalizar x1 =[4,6]t y . x2 =[8,0]t
Hacemos
Primero: consideramos el primer vector
t
e 1=[ 4,6 ] , y e 2=x 2−∝1,2 e1,

Segundo: determinamos

[ 4,6 ]t . [ 8,0 ] t 32 32 9
∝1,2= = = =
[ 4,6 ] . [ 4,6 ] 16+36 52 13
t t

Tercero: determinamos el segundo vector ortogonal.

[ ][ ] [ ]
t t t
9
t
e 2=[ 8,0 ] − [ 4,6 ]t =[ 8,0 ] t − 36 , 54 = 8− 36 , −54 = 68 , −54
13 13 13 13 13 13 13
Gráficamente

4 –
3 –
2 --
1-


1 2 3 4 5
-1
6

-2
--
-3
-
-4
-
Para un conjunto de { x 1 , x 2 , x 3 , … , x n } n vectores Linealmente Independientes de n
componentes. A partir de ellos se puede construir un conjunto de {e 1 , e2 , e3 , … , en }
ortogonal de la siguiente manera.
Primero: consideramos el primer vector
e 1=x 1,

Segundo:
e i+1=x i +1−∝1, i+1 e1−…−∝i ,i +1 e i , para 1 ≤i ≤ n−1,

Tercero:
x i+1 . e1 x i+1 . e2 x i+1 . ei
∝1 ,i+1 = ,∝2 ,i+ 1= , …. , ∝i ,i+1= ,
e1 . e1 e2 . e2 ei . ei

Ejemplos de subespacio

Ejemplo 1

Podemos afirmar que R3R3 es un espacio vectorial.


Los espacios Rn, con n≥1n≥1, son los ejemplos principales de espacios vectoriales. La intuición
geométrica desarrollada para R3R3 nos ayudará a entender y visualizar muchos conceptos de
esta unidad.
Los vectores de Rn  son n-uplas de números reales, o sea:
Rn= {(x1,x2,…,xn), conxi∈R}Rn={(x1,x2,…,xn), conxi∈R}
En Rn, la suma de vectores y el producto por un escalar se definen así:
Sean u=(u1,u2,…,un) y v=(v1,v2,…vn)∈Rn u=(u1,u2,…,un) y v=(v1,v2,…vn)∈Rn
u+v= (u1+v1,u2+v2,…,un+vn)∈Rn u+v=(u1+v1,u2+v2,…,un+vn)∈Rn
αv= (αv1,αv2,…,αvn)∈Rn αv=(αv1,αv2,…,αvn)∈Rn
Puede comprobarse que las operaciones definidas verifican los axiomas de espacio vectorial.

Ejemplo 2
Consideremos el conjunto W={(x,y)∈R2|x2–y2=0}W={(x,y)∈R2|x2–y2=0}. ¿Es un subespacio
de R2R2?
x2–y2=0⇔y=x∨x=–yx2–y2=0⇔y=x∨x=–y
Se cumple (a) pues (0,0) ∈ W(0,0)∈W
No se cumple (b) porque la suma de dos vectores de WW puede no estar en WW, por ejemplo:
(1,1)+(1,–1)=(2,0)∉W(1,1)+(1,–1)=(2,0)∉W
Entonces WW no es un subespacio de R2R2.
CAPITULO V
VALORES Y VECTORES PROPIOS
Sea A una matriz cuadrada de orden n. Se dice que  es un valor propio de A si existe un vector

tal que: . En este caso a se le llama vector propio asociado a .

Tomando , y como un vector columna, , se tiene:

POLINOMIO CARACTERÍSTICO

Tenemos que:

donde In es la matriz identidad de orden n, y 0 es la matriz nula de dimensión nx1. Es decir:

(*)

Operando podemos obtener un sistema lineal homogéneo con incógnitas x1, x2, …, xn.
Para que este sistema tenga soluciones distintas de la trivial, debe ser nulo el determinante

de la matriz de coeficientes, es decir: .

Entonces  es un valor propio de A cuando .


A se le llama polinomio característico de A, y sus raíces son los
valores propios de A.
GRADO DE MULTIPLICIDAD DE LOS VALORES PROPIOS
Se dice que  es un valor propio simple de A si es una raíz simple de P(). Y  es un valor
propio de multiplicidad m(), si  es una raíz de multiplicidad m() de P().
MATRIZ DIAGONALIZABLE

Una matriz cuadrada A se dice que es diagonalizable si existe una matriz invertible P,
llamada matriz de paso, tal que: , siendo D una matriz diagonal.
Cuando A es diagonalizable, la matriz D es la que tiene en su diagonal los valores
propios de A, repetidos tantas veces como indique su grado de multiplicidad.
Y la matriz de paso P es la que tiene por columnas a los vectores propios asociados a los
valores propios de A.

TEOREMA
Sea A una matriz cuadrada de orden n. Entonces, A es diagonalizable sí y sólo si todas las
raíces del polinomio característico son reales, y además, la multiplicidad de cada valor propio
coincide con el valor de
Es decir:

Se puede probar que: si las raíces de P() son todas simples A será siempre
diagonalizable.

Cuando P() tiene alguna raíz múltiple, hay que verificar también la condición 2.
CÁLCULO DE LA MATRIZ DIAGONAL Y DE LA MATRIZ DE PASO

PASO1. Calculamos el polinomio característico , y lo igualamos a


cero, obteniendo sus raíces 1, 2, …, r que son los valores propios de A.

PASO 2. Comprobamos las dos condiciones para que A sea diagonalizable:


Cuando se verifiquen las condiciones anteriores, A es diagonalizable, y la matriz diagonal
es:

PASO 3. Para calcular la matriz de paso P, se calculan los vectores propios asociados a
los valores propios de A. Para ello, se resuelve para cada i el sistema (*) de la página 1.
Si el conjunto de soluciones tiene un solo grado de libertad, se le da al parámetro un valor
cualquiera particular y se consigue el vector propio asociado.
Si el conjunto de soluciones tiene varios grados de libertad, se obtienen soluciones
particulares seleccionando los vectores linealmente independientes que generan las ecuaciones
paramétricas.
La matriz de paso P será entonces la que tiene por columnas a estos vectores propios.

DIAGONALIZACIÓN DE MATRICES SIMÉTRICAS.

1) Para toda matriz simétrica A, existe una matriz P del mismo orden y ortogonal (P -1 = P t ) tal
que D = P -1.A . P
y D es diagonal.
2) Dada A simétrica de orden n existe un conjunto de n vectores propios ortonormales, que
constituyen una base
ortonormal de Rn.

Consecuencia: toda matriz simétrica es diagonalizable.

Procedimiento:
1) Hallar los subespacios característicos de A y una base en cada uno de ellos.
2) Unir las bases para obtener una base B´ de Rn .
3) Ortonormalizar esta base B´.
4) Formar una matriz P cuyas columnas son los n vectores del item (3).
5) Obtener D.

Ejemplo. Diagonalizar A =
(34 49 )
1)
(3−λ4 4 x
)( ) ( )
. =
9−λ y
0
0
⇒|
3−λ 4
4 9− λ
|=0 ⇒ λ1 =1 ∨ λ2 =11

Para

( )
x
λ1 =1 : 2
4 ( 8 )() ()
4 . x = 0 ⇒ 2 x+ 4 y=0 ⇒ y=− 1 x ⇒ x =
y 0 2 y
1
− x
2
y ()
⇒ x = μ 1 2 ⇒ B1 = 2
−1 −1 () ( ) {( )}
Para

λ2=11 : (−84 −24 ) .( xy ) = (00 ) ⇒ −8 x +4 y=0 ⇒ y= 2 x ⇒ ( xy ) = (2xx) ⇒ ( xy) = μ (12) ⇒ B = {(12)}


2 2

2) B´=
2
,
−1 2
1
{( ) ( )} 3) B´ ortonormalizada es:

{( ) ( )}
2 1
√5 , √5
1 2

√5 √5

( )
2 1
√5 √5

4) P =

1
√5
2
√5 5) D =
( )
1 0
0 11

Cuando diagonalizamos una matriz simétrica por este procedimiento, estamos cambiando una
base ortonormal (canónica) por otra base ortonormal, cosa que en R 2 se visualiza así:
A los fines prácticos, “ordenamos” los autovalores de la base ortonormal de manera que |P|=1
para que los ejes sólo roten.

DIAGONALIZACIÓN DE LAS FORMAS CUADRÁTICAS.

SECCIONES CÓNICAS.

Hasta el momento hemos trabajado con ecuaciones lineales.

Consideremos ahora, una superficie cónica circular seccionada por un plano. La intersección es
una cónica:

Si el plano no pasa por el vértice de la superficie cónica, las figuras se denominan cónicas
irreducibles.

Si en cambio, el plano pasa por el vértice de la superficie cónica se obtienen las denominadas
cónicas reducibles o degeneradas

1) Cónicas irreducibles. Son:

π paralelo a una sola π corta a todas π corta a todas π paralelo a dos


generatiz las generatrices. las generatrices generatrices

π ⊥¿¿ eje

2) Cónicas reducibles o degeneradas. Son:

a) Dos rectas reales (que son dos generatrices).

b) Una recta (cuando  es tangente a la


superficie cónica.)

c) Dos rectas imaginarias ( sólo interseca a la


superficie en el vértice.)

También podría gustarte