Está en la página 1de 52

UNIVERSIDAD NACIONAL AUTÓNOMA DE MÉXICO

FACULTAD DE INGENIERÍA

APUNTES DE ÁLGEBRA LINEAL

SEMESTRE 2011-1

PROF. ING. ALICIA PINEDA RAMÍREZ


Apuntes de Álgebra Lineal

ÁLGEBRA LÍNEAL

MÉTODO DE EVALUACIÓN

 La exención se otorgará a los alumnos que acrediten el curso con calificación aprobatoria
mínima de seis (6).
 Para poder presentar los exámenes correspondientes a cada parte del curso, el alumno deberá
entregar las series correspondientes a los capítulos que comprenda cada examen. Esta serie
tiene un valor del 10% + la calificación del examen.
 Se dejarán tareas por clase, su promedio tendrá un valor del 25%, NO SE ACEPTAN TAREAS
ATRASADAS.
 Lectura de dos libros en el semestre, para evaluarlos se necesita calificación APROBATORIA.
 En caso de no quedar exentos se tendrá la posibilidad de presentar los dos exámenes finales,
siempre y cuando su asistencia a clases sea del 70%. El primer final será promediado con
parciales y con el promedio de las calificaciones de las tareas que se dejen a lo largo del curso.
Para este promedio se considerarán los siguientes porcentajes.

Examen final 50%

Exámenes parciales 40%

Tareas 10%

ESCALA DE CALIFICACIONES
0.0 – 5.9 --- 5

6.0 – 6.4 --- 6

6.5

6.6 – 7.4 --- 7

7.5

7.6 – 8.4 --- 8

8.5

8.6 – 9.4 --- 9

9.5

9.6 – 10 --- 10

2
Apuntes de Álgebra Lineal

En caso de no aprobar el primer examen final, la calificación correspondiente será la obtenida en


el segundo examen final.

Los oyentes serán evaluados con el segundo examen final colegiado.

FECHAS DE EXAMENES PARCIALES Y FINALES:

1er. Parcial: 11 al 18 de septiembre

2do. Parcial: 15 al 23 de octubre

3er. Parcial: 10 al 13 de noviembre.

4to. Parcial: 27 de noviembre al 1 de diciembre.

FINALES

1er. Final: 2 Diciembre 10:00 hrs.

2do. Final: 9 Diciembre 10:00 hrs.

3
Apuntes de Álgebra Lineal

BIBLIOGRAFÍA

1. Lay, David C.
Álgebra Lineal y sus Aplicaciones, 2da. Edición, Prentice Hall, 2001

2. Nakos. George y Joyner, David


Álgebra Lineal con Aplicaciones, Thomson Editores, 1999

3. Solar G., Eduardo y Speziale, Leda


Apuntes de Álgebra Lineal, Editorial Limusa, 1996

4. Bell, E.T.
Historia de la Matemáticas, 2da. Edición, Fondo de Cultura Económica, 1995

5. Anton H.
Introducción al Álgebra Lineal, Edit. Limusa, 2003

6. Godínez C, Héctor y Herrera C., Abel


Álgebra Lineal, teoría y ejercicios, Facultad de Ingeniería 1987

CAPÍTULOS:
I. Introducción al álgebra lineal
II. Espacios Vectoriales
III. Transformaciones lineales
IV. Espacios con Producto Interno
V. Operadores lineales en espacios con producto interno

Álgebra Lineal: es la parte de la matemática que estudia los espacios vectoriales y los conceptos
relacionados con ellos (matrices, espacios y formas algebraicas), así como las aplicaciones a la
teoría de sistemas de ecuaciones lineales y al comportamiento algebraico de las funciones.

4
Apuntes de Álgebra Lineal

CAPITULO 2

“ESPACIOS VECTORIALES”

2.1 Definición de espacio vectorial. Propiedades elementales de los espacios vectoriales.


Subespacios. Isomorfismos entre espacios vectoriales.

ESPACIO VECTORIAL.
En este capítulo se analizaran conjuntos en los cuales exista una relación entre sus elementos, de
manera que se establezca el concepto de dependencia lineal.

En forma genérica, a los elementos de un espacio vectorial se les llama “vectores”, por lo que, en
este contexto, la palabra vector adquiere un significado más amplio.

DEFINICIÓN

En primera instancia se definirá lo que es un espacio vectorial, para tal efecto se considerará un
conjunto U y un campo K, cuyos elementos se conocen como vectores y escalares
respectivamente.

Para poder llegar a definir la estructura de espacio vectorial se requiere, además de las siguientes
operaciones:

1) Suma de vectores

2) Multiplicación de un vector por un escalar.

Regla de correspondencia (criterio)

(a, b) + (c, d) = (a+d, b+c)

(a, b) = (a,b)

Si estas operaciones cumplen con las siguientes propiedades, entonces se tendrá un espacio
vectorial.

I. La suma forma un grupo abeliano con el conjunto U


II. Se debe cumplir la cerradura de la multiplicación de un vector por un escalar.
III. Existe la distributividad tanto para la suma de vectores por un escalar, como para la suma de
escalares por un vector.

5
Apuntes de Álgebra Lineal

IV. Se cumple la homogeneidad para el producto de escalares por un vector.


V. Existe el escalar idéntico.

Analíticamente lo anterior queda representado de la siguiente manera.

I. (U, +) Grupo Abeliano


 a, b, c  U

1) Cerradura: U

2) Conmutatividad.

ab  ba
3) Asociatividad:

)+

4) Elemento idéntico.

a U
 e U e  a  a  e  a
5) Elemento inverso.
a U
 i U ai  i a e

El elemento inverso no es único.

II. Cerradura para la multiplicación por un escalar.

III. Distributividades.

 a, b  U y ,   K

IV. Homogeneidad.
K

9) (αβ)

6
Apuntes de Álgebra Lineal

V. Escalar idéntico.
a  U ;   K
10 )  a  a

EJEMPLO:

EJEMPLO:

EJEMPLO:

Espacio Nulo:

Contiene al vector nulo, ejemplo en polinomios: P= (0x2+0x+0)= 0


EJEMPLO:

PROPIEDADES ELEMENTALES DE LOS ESPACIOS VECTORIALES.

De los diez postulados que integran la definición de espacio vectorial, los primeros cinco se refiere
únicamente a la adición, y establecen que el sistema (V, +) es un grupo abeliano; por lo tanto, se
pueden enunciar las siguientes propiedades, las cuales son comunes a todos los espacios
vectoriales.

TEOREMA. Si V es un espacio vectorial sobre K, entonces


i) u , v , w V : u  v  u  w  v  w
ii ) El vector 0  e es único y es tal que: v  0  v ; v V
iii ) El vector i es único y es tal que: v  i  0
iv ) La ecuación u  x  v tiene solución única en V
v) v V :  ( v )  v
vi ) u , v V :  (u  v )  u  ( v )

Continuando con los postulados de la multiplicación por un escalar se establecen otras


propiedades que, junto con las anteriores, rigen los procedimientos algebraicos en un espacio
vectorial.

7
Apuntes de Álgebra Lineal

TEOREMA:

Sea V un espacio vectorial sobre K.

SUBESPACIO.

Es posible que un espacio vectorial tenga subconjuntos que sean, por sí mismos, espacios
vectoriales.

Subespacio vectorial.

Dado un espacio vectorial A y un subconjunto B de A, si B es también un espacio vectorial respecto


a las operaciones definidas en A, decimos entonces que B es un subespacio vectorial de A.

Todo espacio vectorial es subespacio del mismo.

Para facilitar la verificación de que un conjunto es subespacio vectorial o no, se dispone del
siguiente teorema.

Teorema: Dado un subconjunto B de un espacio vectorial A, se tiene que si:

1) El conjunto B es cerrado para la suma de dos elementos cualesquiera del conjunto y

2) El conjunto B es cerrado para la multiplicación de uno de sus elementos por un escalar.

Entonces B es un subespacio vectorial de A.

Es decir que bastará con verificar la “cerradura” de B con respecto a la adición y a la multiplicación
por un escalar definidas en A para concluir que B es subespacio de A.

8
Apuntes de Álgebra Lineal

EJEMPLO:

NOTA: Condición necesaria que un conjunto contenga el vector cero para que sea subespacio,
pero dicha condición no es suficiente.

EJEMPLOS:

ISORMORFISMOS ENTRE ESPACIOS VECTORIALES.

El concepto de isomorfismo es de relevante importancia en las matemáticas, especialmente desde


el punto de vista de sus aplicaciones. El término “isomorfo”, etimológicamente significa “de igual
forma”, se emplea en el álgebra para denotar la idea de que dos sistemas son tan parecidos que
pueden considerarse, en esencia, como el mismo.

EJEMPLO.

Los espacios vectoriales del tipo Rn tienen una gran aplicación en el estudio mismo de los espacios
vectoriales. Es probablemente que la aplicación más útil resulte el teorema que estable que los
espacios vectoriales de la misma dimensión, son isomorfos. Es decir, todos los espacios vectoriales
de la misma dimensión son algebraicamente hablando, iguales. De esta manera al estudiar un
espacio vectorial V, de dimensión n, emplearemos el isomorfismo para trabajar con vectores del
espacio vectorial Rn y el resultado lo aplicaremos al espacio V.

9
Apuntes de Álgebra Lineal

DEFINICIÓN.
Sean U y V dos espacios vectoriales. Se dice que la función I:UV es un isomorfismo de U a V, si I
es biyectiva (inyectiva y suprayectiva) y además cumple con las siguientes condiciones.

Los espacios vectoriales isomorfos sólo difieren en la naturaleza de sus elementos, sus
propiedades algebraicas son idénticas.

Si U y V son espacios vectoriales isomorfos bajo el isomorfismo I, entonces para el vector a del
espacio U, existe un único vector v en el espacio V, tal que I(u)=v y recíprocamente, para cada
vector de V del espacio V, existe un único vector u del espacio U tal que I(v)=u
De acuerdo con lo anterior podemos establecer los siguientes teoremas:

Teorema 1: Si V es un espacio vectorial real de dimensión n, entonces v es isomorfo a Rn.


Teorema 2: Todo espacio vectorial V es isomorfo a si mismo
Teorema 3: Si un espacio vectorial V es isomorfo a otro espacio W, entonces W es isomorfo a V
Teorema 4: Dos espacios vectoriales de igual dimensión son isomorfos.

EJEMPLO.

2.2 Combinación Lineal. Dependencia Lineal. Conjunto generador. Base y dimensión de un espacio
vectorial. Coordenadas de un vector respecto a una base ordenada. Matriz de transición.

COMBINACIÓN LINEAL.

Dado un espacio vectorial:

Se define como combinación lineal de ellos a la expresión:

Donde i K (campo del espacio vectorial (V)).


1v1   2v 2   3v 3 ... nv n

10
Apuntes de Álgebra Lineal

EJEMPLO:

EJEMPLO:

DEPENDENCIA LINEAL.

Sea el conjunto de vectores:

Decimos que el conjunto V es linealmente dependiente, si existen escalares no todos nulos, que
satisfagan la ecuación:
1v 1   2v 2   3v 3 ... nv n  0
Ecuación de dependencia lineal

Si la única solución a dicha ecuación es 1=2=3=...=n=0, entonces decimos que el conjunto V es


linealmente independiente.

Ejemplo: (1,0,0), (0,1,0), (0,0,1)

De acuerdo con lo anterior se tienen los siguientes dos teoremas:

Teorema 1: Todo conjunto de vectores que contenga al vector cero 0 es linealmente dependiente.

(1,0), (0,1), (0,0)

Teorema 2: Todo subconjunto de un conjunto de vectores linealmente independientes es a su vez


linealmente independiente.

(1,0), (0,1)

NOTA: Un conjunto formado por dos o más vectores es linealmente dependiente cuando al menos
uno de ellos es una combinación lineal de los otros vectores del conjunto.

En caso contrario; cuando ninguno de los vectores es combinación lineal de los restantes, el
conjunto es linealmente independiente.

EJEMPLO:

EJEMPLO:

CONJUNTO GENERADOR DE UN ESPACIO VECTORIAL.

Cuando todos los vectores de un espacio vectorial pueden obtenerse mediante combinaciones
lineales de un conjunto finito de vectores de dicho espacio, se dice que dicho conjunto es
generador del espacio vectorial.

11
Apuntes de Álgebra Lineal

De acuerdo con lo anterior, el concepto de conjunto generador se puede definir formalmente de


la siguiente manera:

Definición: Sea V un espacio vectorial sobre un campo K y sea


Un conjunto de vectores de V. Se dice que G es generador del espacio vectorial V, si para todo
vector x V existen escalares 1, 2, 3,..., n tal que:

x  1v1   2v 2   3v 3 ... nv n

Todo conjunto de vectores no vacío genera un espacio vectorial y para un espacio vectorial el
conjunto generador no es único.
El conjunto de todas las combinaciones lineales de un conjunto de vectores de un espacio vectorial
V es un subespacio de V.

EJEMPLO:

BASE Y DIMENSIÓN DE UN ESPACIO VECTORIAL:


Se define como base de un espacio vectorial V, a cualquier conjunto B de vectores de V tal que:
1) Los elementos de B son linealmente independientes
2) Cualquier vector de V puede expresarse como una combinación lineal de los elementos
B.

De acuerdo con las condiciones establecidas, existen varias bases en un espacio vectorial, la
relación que existe entre bases, consiste en el número de elementos que las constituyen, ya que
dicho número es el mismo para cualquier base.

Base canónica:
La base canónica de Rn es el conjunto

Donde

Todas las bases de un espacio vectorial de n elementos tienen el mismo número de elementos o
menor.

12
Apuntes de Álgebra Lineal

EJEMPLO:

Dimensión:
La dimensión de un espacio vectorial se define como la cantidad de elementos de cualquiera de
sus bases.

Teoremas:
- Sea V un espacio vectorial sobre K. Si se dice que V es de
Dimensión n. Dim V = n, en particular si entonces dim V = 0.
- Sea V un espacio vectorial sobre K. Si es una base de V, entonces
cualquier conjunto de vectores de V con más de n elementos es linealmente dependiente.
- Si V es un subespacio vectorial de dimensión n, cualquier conjunto linealmente independiente
formado por n vectores de V es una base de dicho espacio.
- Si V es un espacio vectorial de dimensión n y W es un subespacio de V entonces
dimW  n . Si dim W = n entonces W=V

EJEMPLOS.

COORDENADAS DE UN VECTOR RESPECTO A UNA BASE:

Dada la base: de un espacio vectorial, en donde un vector


cualquiera a de dicho espacio está dado por:

a  1b1   2b2   3 b3 ... n bn

A los escalares 1, 2, 3,..., n, les llamaremos las coordenadas de a en la base B, y al arreglo
le llamaremos vector de coordenadas de a respecto a la base B.

Tratándose de bases, el orden de sus elementos es importante.


- El vector de coordenadas respecto a una base dada es único para cada vector del espacio.
- El vector de coordenadas de un vector perteneciente a un espacio, cambia al cambiar la base
de referencia.

EJEMPLO:

13
Apuntes de Álgebra Lineal

EJEMPLO:

MATRIZ DE TRANSICIÓN:
El cambio de coordenadas de una base a otra puede efectuarse multiplicando una matriz por un
vector. Esta matriz se conoce como matriz de transición o matriz de cambio de base.
Para obtener esta matriz se procede de la siguiente forma:

B
Dos bases de un espacio vectorial,
M
W
la matriz de transición está formada por la
disposición en columnas de los vectores de coordenadas de los elementos de la base B con
respecto a la base W, esto es:

De tal forma que, si conocemos el vector y deseamos obtener el vector de


coordenadas de , entonces será suficiente con desarrollar el siguiente producto

EJEMPLO:
Toda matriz de transición de una base A a otra B, es no singular y su inversa es la matriz de B a A.
Conviene hacer notar que toda matriz de transición tiene inversa y además que:
Si se conoce la matriz de transición de una base V, a una base W, entonces la inversa de esa matriz
resulta ser:

14
Apuntes de Álgebra Lineal

EJEMPLO:

2.3 Espacio renglón, espacio columna y rango de una matriz.


Espacios vectoriales generados por los renglones y las columnas de una matriz.
Dada una matriz A de orden nxn, se tiene que tanto sus renglones como sus columnas pueden
definir un espacio vectorial, por ejemplo:

Se pueden formar espacios vectoriales con los renglones y las columnas de la matriz A, además, se
puede presentar el hecho de aplicar transformaciones elementales a la matriz original y así
obtener matrices equivalentes.

Lo que se hace con renglones se puede hacer con columnas y hacer operaciones simultáneas.

De la misma forma en que se obtienen espacios vectoriales iguales con los renglones de una
matriz (aplicando transformaciones elementales), se pueden obtener espacios vectoriales iguales
considerando las columnas de dicha matriz.

15
Apuntes de Álgebra Lineal

Por lo tanto la aplicación de transformaciones elementales sobre las líneas de una matriz conduce
a espacios vectoriales iguales a los espacios de las líneas originales. De esta manera es factible
obtener la base y dimensión de un espacio vectorial, reduciendo una matriz determinada, a la
forma escalonada.

Forma canónica escalonada.


La aplicación sucesiva de transformaciones elementales se efectúa hasta obtener una “forma
canónica escalonada”.

Se dice que una matriz es una forma canónica escalonada, cuando además de ser una matriz
escalonada, el primer elemento distinto de cero de cada renglón es uno y dicho elemento es el
único diferente de cero en la columna en que se encuentra.

Ejemplo:

 Para una matriz dada a existe una y sólo una forma canónica escalonada que es equivalente a
la matriz A.
 Los renglones no nulos de una forma canónica escalonada constituyen una base de su espacio
renglón.

La última propiedad es válida también para una matriz escalonada cualquiera, pero en el caso de
una forma canónica aún más evidente.

EJEMPLO:
Teorema:
La relación que guardan los espacios renglón y columna de una matriz es que la dimensión de
estos es la misma.
Para cualquier matriz A se tiene que: L (AR)  L(AC), dim L(AR)=dim L(AC)

EJEMPLO:
RANGO:
Se llama rango de una matriz A, y se denota con R(A) al número:
R(A)=dim L(AR) = dim L(AC)

16
Apuntes de Álgebra Lineal

El rango de una matriz representa el número máximo de renglones (y de columnas) linealmente


independientes que contiene la matriz.

EJEMPLO.

2.4 El espacio vectorial de las funciones continuas de variable real. Subespacios de dimensión
finita. La dependencia lineal de funciones. Criterio del Wronskiano.

ESPACIO VECTORIAL DE FUNCIONES:


El conjunto de las funciones reales de variable real constituyen un espacio vectorial con las
operaciones de adición y multiplicación por un escalar definidas en el curso de Cálculo Diferencial
integral.
(f+g) (x) = f(x) + g(x)
(f) (x) = f(x)
SUBESPACIOS DE FUNCIONES:
El espacio F de las funciones continuas de variable real, no puede ser generado por un conjunto
infinito de vectores, y se dice por ello que es de dimensión finita.
Subespacios de dimensión finita son:
- Polinomios de grado menor o igual que n, funciones definidas en un intervalo, funciones
continúas en un intervalo.
- Conjunto de las soluciones de la ecuación diferencial y”+ay’+by=0

Si tenemos f1, f2, f3,...,fn 1f1+2f2+3f3+ ... + nfn = 0

 1f1(x)+2f2(x)+3f3(x)+ ... + nfn(x) = 0



Esta expresión representa un número finito de ecuaciones una para cada número real x. Cómo no
es posible generar a todas las funciones continuas de variable real con un conjunto de un número
finito de elementos, se considera que la dimensión del espacio es finita.

DEPENDENCIA LINEAL DE FUNCIONES:


Si representamos con F al conjunto de todas las funciones continuas de variable real, dado que F
es un espacio vectorial sobre R, es claro entonces que los conceptos de combinación lineal son
aplicables tanto a los elementos de F, como a cualquiera de sus subespacios.

17
Apuntes de Álgebra Lineal

EJEMPLO:

WRONSKIANO.
Dado el conjunto de funciones:

f1, f2, f3, ..., fn se define como Wronskiano al determinante:

f1 f2 f3  fn
f1 f2 f3  fn
W  f1 f2 f3  fn
  
f1b g
n 1 ( n 1) ( n 1) ( n 1)
f2 f3  fn

Se tiene que el conjunto de funciones f1, f2, f3, ..., fn será linealmente independiente si existe al
menos un valor de la variable para el cual W0.
En caso de que el determinante W=0 se tiene incertidumbre sobre la dependencia o
independencia del conjunto, por lo que se tendrá que recurrir, en este caso a la ecuación de
dependencia lineal.

EJEMPLO:

EJEMPLO:

EJEMPLO:

18
Apuntes de Álgebra Lineal

CAPITULO 3
“TRANSFORMACIONES LINEALES”

3.1 Definición de transformación. Dominio, codominio, núcleo y recorrido de una transformación.

DEFINICIÓN DE TRANSFORMACIÓN:
Como sabemos una función f de A en B (donde A y B son conjuntos no vacíos cualesquiera) es una
regla o criterio que asocia a cada elemento de A, uno y solo un, elemento de B, lo cual denotamos
mediante f: AB; existen también funciones entre espacios vectoriales que en forma similar
denotamos por: T:UV, donde U y V son espacios vectoriales sobre el mismo campo K y T es la
regla de correspondencia que asigna a cada vector de U uno y solo un vector de V, al que
llamaremos “imagen de u” y representamos como T(u).

A este tipo de funciones le daremos el nombre de transformaciones:

u T(u)

Dominio Codominio

Y a los espacios U y V se llaman, respectivamente, dominio y codominio de la transformación.

Al conjunto formado por todos los vectores que son imagen de algún vector del dominio, se le
conoce como el recorrido de la transformación.
Lo representamos con T (U), esto es:

19
Apuntes de Álgebra Lineal

U V

u v=T(u)
T

El núcleo de una transformación es el conjunto de vectores cuya imagen es el vector cero. Dicho
conjunto lo representamos con: N (T), esto es:

U V

N(T)
0
u1

u2

Sea T:UV una transformación tenemos que:


Dominio: Es el conjunto U de vectores sobre los cuales actúa la transformación:
U V
T
( x,y,z) (x,y)

T(x,y,z) = (x,y)

Los espacios vectoriales U= R3 y V= R2 son el dominio y codominio de la transformación.

Como se puede observar, el recorrido de una transformación es un subconjunto del codominio y el


núcleo es un subconjunto del dominio.

EJEMPLO.

20
Apuntes de Álgebra Lineal

3.2 Definición de transformación lineal. Los subespacios núcleo y recorrido de una transformación
lineal. Caso de dimensión finita: relación entre las dimensiones del dominio, recorrido y núcleo de
una transformación lineal.

TRANSFORMACIÓN LINEAL:
Antes de continuar con la descripción de conjuntos que caracteriza a una transformación se dará
la definición correspondiente a transformación lineal.
Una transformación T:UV donde U y V son espacios vectoriales, es lineal, si y solo si, satisface las
siguientes propiedades:
1) Superposición: La transformación de una suma es igual a la suma de las transformaciones:

2) Homogeneidad: La transformación de un vector multiplicado por un escalar es igual al producto


del escalar por la transformación del vector.

EJEMPLO:

LOS SUBESPACIOS NÚCLEO Y RECORRIDO DE UNA TRANSFORMACIÓN LINEAL.


Como ya hemos visto, el recorrido de una transformación es un subconjunto del codominio y el
núcleo es un subconjunto del dominio. Si la transformación es lineal dichos subconjuntos son
además subespacios.

TEOREMA:

Si T: MV es una transformación lineal entonces: T (M) es un subespacio de V y N (T) es un


subespacio de M.
Como T (M) es un subcojunto de V, se prueba que T (M) es cerrado para la adición y multiplicación
por un escalar.

21
Apuntes de Álgebra Lineal

Sea v1 y v2 vectores de T (M), existen dos vectores w1, w2  M tales que:

Se tiene que: como T es lineal entonces:

Multiplicación por un escalar.


como T es lineal,
Es un subespacio vectorial de M.

Obtención del recorrido de una transformación lineal.


Para determinar el recorrido de una transformación lineal específica podemos aprovechar la
siguiente propiedad:

Sea T:VW una transformación lineal. Si es una base de V, entonces el


conjunto es un generador de T(V).

Sea una base de V. Si w es un vector cualquiera de T(V), entonces existe


un vector v  V tal que:

Como B es una base de V:

v  1v1   2v 2   3v 3 ... nv n

en consecuencia G= T(v1), T(v2), T(v3), ..., T(vn) es un conjunto generador de T(V)


Si G es linealmente independiente entonces es una base de T(V) y si es linealmente dependiente
puede obtenerse una base de T(V) a partir de este.

EJEMPLO:

22
Apuntes de Álgebra Lineal

TEOREMA de dimensiones: Sea U un espacio vectorial y sea T:UV una transformación lineal, se
tiene que:
Dim U = Dim T(U) + Dim N(T)
Donde U = dominio de la transformación
T(U) = Recorrido de la transformación
N(T) = Núcleo de la transformación

Esto sucede siempre que se trabaja con espacios de dimensión finita, U es un espacio vectorial de
dimensión finita.

EJEMPLO:

EJEMPLO:

3.3 Matriz asociada a una transformación lineal con dominio y codominio de dimensión finita.

MATRIZ ASOCIADA A UNA TRANSFORMACIÓN LINEAL.


Existe una forma alternativa para obtener imágenes de una transformación lineal, la cual está
basada en el concepto de matriz asociada a una transformación.

Esta matriz se obtiene por la disposición en columnas de las imágenes de los elementos de una
base canónica del dominio. De esta forma, la imagen de un vector está dada por el producto de la
matriz asociada y el vector dado en forma de columna.

U V

u T(u)

Esto es posible de esta forma, siempre y cuando tanto el dominio como el codominio sean
espacios del tipo Rn.

EJEMPLO:

23
Apuntes de Álgebra Lineal

Las ideas anteriores pueden generalizarse al caso de espacios vectoriales cualesquiera,


simplemente, reemplazando los vectores imagen por sus respectivos vectores de coordenadas.
T
U V V

U y V cualquier espacio vectorial.

De acuerdo con esto la matriz asociada a la transformación referida a dos bases cualesquiera A y B
respectivamente se representa de la siguiente forma:

U V
T

A B
A es base del dominio
B es base del codominio

De esta forma se tiene que las columnas de dicha matriz son los vectores de coordenadas, en la
base B, de las imágenes de los elementos que integran la base A.

T: R3  R2
R3 T R2

24
Apuntes de Álgebra Lineal

Imágenes:

TEOREMA: Si T:V W es una transformación lineal, existe una y solo una matriz:

Donde A y B son bases de V y W respectivamente.


 En toda transformación es posible obtener su matriz asociada.

De acuerdo con este teorema la matriz nos permite calcular la imagen de un vector
cualquiera v del dominio, mediante el siguiente procedimiento, que podríamos considerar
indirecto.
1) Determinar las coordenadas de v en la base A, ( v)A.
2) Multiplicar la matriz por el vector ( )vA.
3) Obtener el vector a partir de sus coordenadas en la base B.

25
Apuntes de Álgebra Lineal

Esquematizando:
Aplicando la regla
de correspondencia
v

Cálculo Obtención
de 1 3 de la
1
coordenadas imagen
2
1
Multiplicando por
la matriz.

EJEMPLO:
TEOREMA: En una transformación lineal, la dimensión del recorrido es igual a la dimensión o
rango de la matriz asociada referida a dicha transformación.

T: V W R(M(T)) = dim T(V)


R(MAB (T))= dim T(V)

EJEMPLO:

3.4 Álgebra de las transformaciones lineales: definición y propiedades de la adición, la


multiplicación por un escalar y la composición de transformaciones.

ALGEBRA DE TRANSFORMACIONES:
Así como se tiene operaciones con funciones también se tienen operaciones con
transformaciones.

Entre otras se tienen las siguientes:

26
Apuntes de Álgebra Lineal

1) Igualdad: Sean S y T dos transformaciones de V en W. Se dice que S y T son iguales, lo cual se


denota mediante S=T, cuando S( v)=T( v)  v V.

2) Adición: Dadas dos transformaciones cuyo dominio es el mismo T:U V y


S:UV. Se tiene como resultado de esta operación: (T+S) u= T( u) + S( u);  u  U. En términos de
matrices asociadas se tiene que: M(T + S) = M(T) + M(S).

3) Multiplicación por un escalar: Dada una transformación T:UV y un escalar  que pertenece al
campo de definición, se define esta operación de la siguiente forma:

( T)u=  T(u)  u  U.
En términos de matrices asociadas se tiene: M(T) =  M(T)

4) Composición: Dadas las transformaciones T:UV y R:VW, se define a la transformación


S:UW como el resultado de la composición entre las transformaciones R y T, esto es: S(u ) = [RT] u
, desarrollando tenemos que
S(u )=R[T(u )],  u  U, gráficamente:

U T V R W
R
T(u)
u R[T(u)]

S( u )=R[T( u )],
Para que esta operación pueda ser realizada debe existir intersección entre el recorrido de T y el
dominio de R.
La relación entre matrices asociadas está dada por:

M(RT)=M(R)M(T) o MRT=MRMT

Estas operaciones también se aplican a matrices asociadas con diferentes bases:

NOTA: Si R y T son transformaciones lineales, entonces R+T y R también son lineales.

27
Apuntes de Álgebra Lineal

TEOREMA: El resultado de efectuar las operaciones anteriores con transformaciones lineales es


una transformación lineal.

EJEMPLOS:

PROPIEDADES DE LAS OPERACIONES CON TRANSFORMACIONES:


1) Conmutatividad de la adición: S+T=T+S
2) Asociatividad de la adición: (S+T) + R = S+ (T+R)

3) Homogeneidad del producto por escalares: (T) = ()T


4) Asociatividad de la composición: (ST)R = S(TR)

5) Homogeneidad en la composición: (ST) = (S) T = S(T)


6) Distributividad de la composición sobre de la adición: S(T+R)=(ST)+(SR)
7) Distributividad entre el producto por un escalar y la adición:

a) (+)T = T + T

b) (T+R)= T + R

3.5 La inversa de una transformación lineal.

TRANSFORMACIÓN INVERSA:
Dada una transformación lineal T:VW existe una transformación inversa T-1:WV, si y solo si, la
transformación original es biyectiva, esto es:
1) Dim V = Dim W
2) Dim N(T) = 0
En términos de matrices asociadas tenemos que:
T MT

T-1 MT-1=(MT)-1

EJEMPLO:

28
Apuntes de Álgebra Lineal

EJEMPLO:

Propiedades de la transformación inversa:


Si F:UV y T:VW son dos transformaciones biyectivas, y  es un escalar del campo sobre el que
están definidos V y W entonces:
i) T-1 es única
ii) (T-1)-1 = T

iii) (TF)-1 = F-1  T-1

iv) (T)-1 = -1 T-1 ; si 0

TEOREMA: Sea T: VW una transformación lineal. Si T-1 existe entonces es una transformación
lineal.

TEOREMA: Sean T:VW una transformación lineal, V un espacio de dimensión finita y A, B bases
de V y W respectivamente.
i) T-1 existe si y solo si es no es singular
ii) Si T-1 existe, entonces

EJEMPLO:

3.6 Efectos geométricos de las transformaciones lineales.


La transformación T(x, y, z) = (x, y) su interpretación geométrica es (x,y,z) representa un segmento
dirigido cualquiera del espacio cartesiano tridimensional, T transforma dicho segmento en su
proyección sobre el plano X-Y.

Otro tipo de efectos geométricos de la transformación son la traslación, escalamiento, y rotación.


Al tener la siguiente transformación:
T(x) =Ix+b= x+b si b ≠ 0, esta transformación es no lineal, a esta transformación se le llama
traslación por b.

Una traslación por un vector b ≠ 0 desplaza a una figura sumando b a todos sus puntos. Una
transformación afín es una transformación lineal seguida de una traslación.

29
Apuntes de Álgebra Lineal

El escalamiento consiste en simplemente multiplicar la transformación por un escalar, para


agrandar o empequeñecer la imagen. T(x) = αx, todo dependerá del valor del escalar.

3.7 Definición de operador lineal. Definición y propiedades de valores y vectores característicos de


un operador lineal. Definición de espacios característicos. Caso de dimensión finita: polinomio
característico, obtención de valores y vectores característicos.

OPERADOR LINEAL:
Son transformaciones de un espacio vectorial en sí mismo, esto es, transformaciones del tipo:

T: VV
A las que se les conoce con el nombre de “operadores”

VALORES Y VECTORES CARACTERÍSTICOS.


Para este tipo de transformaciones puede haber vectores que no se modifiquen al aplicar la
transformación, o cuya modificación consista únicamente en quedar multiplicados por un escalar.

T(v) = v donde  es un escalar


Los vectores no cambian de dirección, sino cambian de tamaño:
T(x,y) = (2x+y, 6x+y) v1=(1,2) T(v1)=(4,8)= 4(1,2)=4v1

A tales vectores se les llama “vectores caracter sticos” del operador T y a los escalares se les
conoce como “valores caracter sticos” de dicho operador. “ay-guen” (egienvalor)
Del ejemplo, 4 es un valor característico, y (1,2) es el vector característico.

Se excluye al vector cero como vector característico. Esto se debe a la conveniencia de que todo
vector característico corresponda a un solo valor característico. Empero, esta definición permite al
escalar cero ser un valor característico.

Algunos ejemplos:
Para la transformación identidad:

I:VV, todos los vectores no nulos de V son vectores característicos


correspondientes al valor 1 puesto que I(v)=v=1v;  v  V.

30
Apuntes de Álgebra Lineal

Para la transformación cero:


O:VV, todos los vectores no nulos de V son vectores característicos
correspondientes al valor 0, puesto que: O(v)=0=0V;  v  V

Para el operador derivación definido por:


D(f)=f’, en el espacio de las funciones reales de variables real, sus valores
característicos son aquellas funciones f no nulas tales que: f’=f para algún R. Esta es una
ecuación diferencial cuyas soluciones están dadas por la expresión:

f(x)= cex
PROPIEDADES DE LOS VALORES Y VECTORES CARACTERÍSTICOS.

1) Los vectores característicos asociados a valores característicos distintos son linealmente


independientes.

2) El escalar  es único

3) Si v es un vector asociado a un valor característico , entonces v es también un vector


característico,  k (campo de definición) con   0.

4) Si u y v son vectores característicos asociados a  y u  -v entonces u+v es un vector


característico asociado a .

ESPACIO CARACTERÍSTICO:
Es claro que todos los vectores de un espacio vectorial se transforman en vectores del mismo
espacio al aplicarles la transformación.

Si v V entonces T(v)  V.
Si al conjunto de vectores característicos le agregamos el vector nulo, entonces dicho conjunto
define un espacio vectorial al cual llamaremos espacio característico:

E()=vvV, T(v)=v v=0

OBTENCIÓN DE VALORES Y VECTORES CARACTERÍSTICOS:


En un espacio de dimensión finita, el problema de obtener los valores y vectores característicos de
un operador lineal puede resolverse con ayuda de los determinantes y los sistemas de ecuaciones
lineales, mediante el procedimiento que se presenta a continuación.

Dado un operador lineal T que T: UU para el cual se tiene que T(u)=u; uU, donde

u  0,  es un escalar.

31
Apuntes de Álgebra Lineal

Se define a u como un vector característico del operador T y al escalar  como un valor


característico de dicho operador.
Para obtener tales elementos, se tiene que:
T(u) = u ....... (1)
Considerando:
MT=A ...... (2)
T(u) = A u ...... (3)

De 1 y 3 tenemos que:

 I u =A u; donde I es la matriz identidad.


De donde:
Au - Iu=0

(A- I)u=0 ....... (4)

Si obtenemos el determinantes de A- I, esto es: DET (A- I) a esta expresión se le conoce como
“polinomio característico”, de la transformación si se iguala a cero (DET(A- I))=0 y se le llama
“ecuación característica”, la cual nos permite obtener los valores de , es decir los valores
característicos.

Para obtener los respectivos vectores característicos, asociados a los valores de , se utiliza la
ecuación (4), esto es se determina la relación entre los componentes del vector u, para los cuales
se satisface esta ecuación.

EJEMPLO:

EJEMPLO:

32
Apuntes de Álgebra Lineal

3.8 Matrices similares y sus propiedades. Diagonalización de la matriz asociada a un operador


lineal.

MATRICES SIMILARES:
Las matrices asociadas a una transformación lineal en dos bases cualesquiera, pertenecen a un
cierto tipo de matrices cuadradas llamadas similares.

La forma en que se relacionan las matrices asociadas a una transformación lineal está dada por el
siguiente teorema:

TEOREMA: Sea T:VV una transformación lineal sobre un espacio vectorial V de dimensión finita.
Si M es la matriz asociada a T referida a la base A y N es la matriz asociada a T respecto a la base B,
entonces N=P-1MP, donde P es a matriz de transición de B a A.

ó
Por consiguiente el teorema puede escribirse de la siguiente manera: “Dos matrices representan a
la misma transformación lineal T de B a B en bases diferentes, si son similares, donde V es el
espacio vectorial de dimensión finita”
Dos matrices representan al mismo operador si y solo si son similares.
Propiedades:
- Si A y B son matrices similares entonces Det A = Det B
- Dos matrices similares tienen el mismo polinomio característico y por lo tanto, los mismos
valores característicos.

EJEMPLO:

DIAGONALIZACIÓN DE UNA MATRIZ ASOCIADA A UN OPERADOR LINEAL.


Que la matriz asociada sea de forma sencilla ofrece ciertas ventajas pues, además de que permite
identificar más fácilmente la información contenida en ella, su manejo algebraico se simplifica

Entre los tipos más sencillos de matrices están las diagonales. No siempre es posible encontrar una
representación diagonal para cualquier operador. Las condiciones bajo las cuales existe tal
representación:

33
Apuntes de Álgebra Lineal

Sea V un espacio vectorial de dimensión n y T:VV un operador lineal: existe una matriz diagonal
asociada a T, referida a una base, si y solo si existe una base de V formada por vectores
característicos. En tal caso, la matriz asociada a T, referida a esta base, es una matriz diagonal
cuyos elementos dii son los valores característicos correspondientes.

Para que un operador lineal tenga representación diagonal es condición suficiente que sus valores
característicos sean diferentes, sin embargo tal condición no es necesaria.

Dicho de otra manera, la suma de la dimensión de los espacios característicos debe ser la
dimensión del dominio, de esta forma se comprueba que el operador es diagonalizable; significa
que el operador o transformación se puede representar por una matriz diagonal.

EJEMPLO:
Diagonalización: Es un procedimiento que permite modificar a una matriz cualquiera a efecto de
obtener su matriz diagonal. Para el caso de matrices asociadas a una transformación, la matriz
diagonal que representa al operador se obtiene con la expresión: D=P-1AP

Donde D es la matriz diagonal, P es una matriz formada por vectores característicos dispuestos en
forma de columna y se le llama matriz diagonalizadora, y A es una matriz asociada al operador
referida a una base cualquiera, llamada matriz diagonalizable.

TEOREMA: Una matriz A de nxn es similar a una matriz diagonal D, si y solo si existe un conjunto
linealmente independiente formado por n vectores característicos de A. En tal caso, existe una
matriz no singular P tal que: D=P-1AP

EJEMPLO:

EJEMPLO:

34
Apuntes de Álgebra Lineal

CAPITULO 4
“ESPACIOS CON PRODUCTO INTERNO”

4.1 Definición de producto interno y sus propiedades elementales

PRODUCTO INTERNO:
Se ha visto que en un espacio vectorial se tiene la posibilidad de establecer varias operaciones,
una operación muy importante es la correspondiente al producto interno entre vectores, la cual se
denota por:

Si una operación cumple con las siguientes propiedades entonces será un producto interno.
1)

Siempre y cuando el campo de definición del espacio vectorial sea el campo de los reales.
EJEMPLO:

En el caso de que el campo de definición del espacio vectorial corresponde al de los números
complejos, la definición de producto interno está dada por la verificación de las siguientes
propiedades:

35
Apuntes de Álgebra Lineal

TEOREMA.
Sea V un espacio vectorial sobre C y sea un producto interno en V, entonces,

EJEMPLO:

4.2 Definición de norma de un vector y sus propiedades, vectores unitarios. Desigualdad de


Cauchy-Schwarz. Definición de distancia entre dos vectores y sus propiedades. Definición de
ángulo entre dos vectores. Vectores ortogonales.

NORMA DE UN VECTOR
La idea de magnitud (o tamaño) de un vector se introduce formalmente en un espacio vectorial
con el concepto de norma. v

En un espacio vectorial V, el número no negativo v definido por la expresión:

Se denomina norma del vector, v sobre un producto interno definido.


La norma de un vector depende del producto interno que se haya elegido. Un mismo vector puede
tener diferentes normas.
Las propiedades que cumple la norma de un vector son las siguientes:

1) v  0 si v  0
2) v  0 si v  0
3) v   v
4) u  v  u  v
Desigualdad del triangulo
.

36
Apuntes de Álgebra Lineal

EJEMPLO:

EJEMPLO:

EJEMPLO:
VECTORES UNITARIOS:
v 1
Se dice que un vector v es unitario cuando
Para cualquier vector v de un espacio con producto interno, el vector:

TEOREMA: DESIGUALDAD DE CAUCHY – SCHWARZ

Sea V un espacio vectorial sobre C y sea () un producto interno en V; entonces:

Además, la igualdad se cumple si y solo si u y v son linealmente dependientes


Si u =0 o v =0, es inmediato que la igualdad se verifica.

EJEMPLO:

DEFINICIÓN DE DISTANCIA ENTRE VECTORES.


Empleando el concepto de norma, podemos introducir en un espacio vectorial el concepto de
distancia entre vectores:
Sea V un espacio vectorial con producto interno, y sean, u v V. Se llama distancia de

u a v y se representa con d (u , v )  v  u

37
Apuntes de Álgebra Lineal

La distancia es el conjunto de los números reales no negativos, y tiene las siguientes propiedades.

EJEMPLO:

ÁNGULO ENTRE VECTORES


El ángulo entre dos vectores de un espacio vectorial, se obtiene a partir de la siguiente expresión.

Siempre y cuando el campo de definición del espacio vectorial al cual pertenecen uy v sean los
reales R.

Si el campo de definición es complejo, entonces la expresión que me permite calcular el ángulo es:

Donde R(v|u) representa la parte real del número complejo que resulte del producto interno.
 El hecho de que dos vectores definan 90° no implica que sean ortogonales.
( u | v )=2i  0, pero la parte real es 0 entonces =90°

EJEMPLO
VECTORES ORTOGONALES.
En un espacio con producto interno, dos vectores uy vson ortogonales si:

La ortogonalidad depende de la selección del producto interno. Es posible que dos vectores sean
ortogonales con respecto a un producto interno y que al mismo tiempo no lo sean con respecto a
otro producto interno.

38
Apuntes de Álgebra Lineal

EJEMPLO.

Uno de los resultados más importantes relacionado con la ortogonalidad de dos vectores es la
generalización del llamado “Teorema de Pitágoras”, el cual se enuncia a continuación.

Sea V un espacio con producto interno y sean uy v V. Si uy v son ortogonales entonces:

2 2 2
u v  u  v

4.3 Conjuntos ortogonales y ortonormales. Independencia de un conjunto ortogonal de vectores


no nulos. Coordenadas de un vector respecpto a una base ortogonal. Proceso de ortogonalización
de Gram-Schmidt.

CONJUNTOS ORTOGONALES Y ORTONORMALES.


Se considera que un conjunto es ortogonal, cuando cada uno de sus vectores es ortogonal a los
demás elementos del conjunto, como lo establece la siguiente definición:

Sea V un espacio con producto interno y sea un conjunto de vectores de V.


Se dice que S es un conjunto ortogonal cuando:

Si además v i  1; i el conjunto S es ortonormal.

EJEMPLO:

INDEPENDENCIA LINEAL DE UN CONJUNTO ORTOGONAL DE VECTORES NO NULOS.


TEOREMA. Un conjunto ortogonal de vectores no nulos es linealmente independiente.
En el capítulo I se estableció el concepto de base de un espacio vectorial, considerando solamente
2 condiciones.
- Independencia lineal
- Conjunto generador

En este capítulo, se ampliará este concepto al combinarlo con ortogonalidad.

39
Apuntes de Álgebra Lineal

De esta manera, una base ortonormal es aquella base ortogonal en la que todos sus elementos
tienen como valor del producto interno, consigo mismo a la unidad, esto es:

Para normalizar un vector, hay que dividirlo entre su norma.


Lo anterior significa que para obtener una base ortonormal, se debe partir de una base arbitraria,
por lo cual se llegue a una base ortogonal y finalmente al dividir cada elemento por su norma
respectiva, se obtenga la correspondiente base ortonormal.
Conjunto Independiente, generador, ortogonal y unitario.

COORDENADAS DE UN VECTOR RESPECTO A UNA BASE ORTOGONAL.


Dado un vector a de un espacio vectorial, en el cual B constituye una base ortogonal,

se tiene que:

a  1v1   2v 2   3v 3 ... nv n

Para determinar la coordenada i se procede a efectuar el producto interno de la expresión


anterior, miembro a miembro, considerando como factor al vector vi de la base ortogonal, esto es:
En general el vector de coordenadas de a respecto a una base ortogonal viene dado por:

En el caso de que la base sea ortonormal, entonces el vector de coordenadas vendrá dado por:

Donde:

Es una base ortonormal.

40
Apuntes de Álgebra Lineal

EJEMPLO:
PROCESO DE ORTOGONALIZACIÓN DE GRAM-SCHMIDT
Este se utiliza para obtener bases ortogonales de un espacio vectorial, a partir de una base
cualquiera de dicho espacio.

Entonces, dada la base: de un espacio vectorial, se tiene que:

Representa una base ortogonal del espacio vectorial considerando que:

Donde r= 1,2,3,…, n-1

EJEMPLO:

EJEMPLO.

41
Apuntes de Álgebra Lineal

4.4 Complemento ortogonal. Proyección de un vector sobre un subespacio. El teorema de


proyección.
COMPLEMENTO ORTOGONAL.
Sea V un espacio con producto interno y sea S un subconjunto de V. Se dice que un vector v  V
es ortogonal al conjunto S si:

El conjunto de todos los vectores de V ortogonales a S se denota como S (complemento


ortogonal), esto es:
S es un subespacio.

EJEMPLO:

TEOREMA:
Sea V un espacio con producto interno y sea W un subespacio de V de dimensión finita. Entonces
cualquier vector v  V puede expresarse en forma única como:

v  w  w'
donde w W y w ' W 
EJEMPLO:

PROYECCIÓN DE UN VECTOR SOBRE UN SUBESPACIO.


Sea V un espacio con producto interno, W un subespacio de V de dimensión finita y
una base ortonormal de W.

42
Apuntes de Álgebra Lineal

Si v  V, el vector

EJEMPLO:

TEOREMA DE PROYECCIÓN.
Uno de los resultados de la teoría de los espacios con producto interno es el llamado teorema de
proyección (o teorema de la mejor aproximación).
Considerando el subespacio de R3 representado por el plano W de la siguiente figura, y un vector
arbitrario vR3.

Se trata de encontrar un vector w0 del plano W que sea “el más cercano” a v (o “el más
aproximado”), en el sentido de que la distancia entre v y w0 sea la menor distancia posible entre
v y cualquier vector de W.

Tal vector existe, es único y es precisamente la proyección de vsobre el plano W.


El vector w0 se conoce como la proyección de v sobre el espacio W, debido a que es la suma de las
v
proyecciones de sobre cada uno de los elementos de una base de W.

Sea V un espacio con producto interno y sea W un subespacio de V. Para cada vector v V
existe uno y sólo un vector w0 W tal que:

v  w0  v  w , w W , w  w0
Dicho vector es la proyección de sobre W.

EJEMPLO:

43
Apuntes de Álgebra Lineal

4.5 MINIMOS CUADRADOS.

Los sistemas inconsistentes surgen con frecuencia en las aplicaciones, aunque generalmente no
con una matriz de coeficientes tan grande. Cuando se necesita una solución y no existe alguna, lo
mejor que se puede hace es encontrar una solución tan cercana a la posible.

Por ejemplo al sistema no homogéneo Ax = b, se debe encontrar una x que haga Ax tan cercana a
b como sea posible.

El término de mínimos cuadrados surge del hecho de que b  Ax es la raíz cuadrada de una
suma de cuadrados.

DEFINICIÓN.
Si A es una matriz de orden mxn y b está en Rm, una solución por mínimos cuadrados de Ax=b es
~
una x  R tal que:
n

b  Ax~  b  Ax

TEOREMA:
x~
Para cualquier matriz A de mxn y cualquier vector b, hay una solución de mínimos cuadrados de
~
Ax=b. Además, si b de b sobre Col A, entonces:
es la proyección
~
Ax~  b

TEOREMA: Si las columnas de una matriz de mxn forman un conjunto ortogonal, entonces ATA es
una matriz diagonal nxn.

TEOREMA:
Si A es una matriz mxn, siempre hay x~ solución por mínimos cuadrados de Ax=b.
Además,
1. x~ es una solución por mínimos cuadrados de Ax=b si y solo si x~ es una

solución de las ecuaciones normales

44
Apuntes de Álgebra Lineal

AT Ax~  AT b

El error de mínimos cuadrados se define por:

  b  Ax~

2. A tendrá columnas linealmente independientes si y solo si ATA es invertible. En este caso, la


solución por mínimos cuadrados es única y puede calcularse con:

EJEMPLOS.

45
Apuntes de Álgebra Lineal

CAPITULO 5
“OPERADORES LINEALES EN ESPACIOS CON PRODUCTO INTERNO”

5.1 Definición y propiedades elementales del adjunto de un operador.


Existen operadores que se pueden trabajar en espacios vectoriales en el cual se encuentra
definido un producto interno.

Dentro de estos operadores y para una mejor comprensión se puede trabajar con el operador
adjunto.

DEFINICION.
Sea V un espacio con producto interno y sea un operador lineal. Un operador se dice
que es adjunto de T si:

Recordar que siempre hay una relación entre las representaciones matriciales de los operadores T
y T* cuando éstas se encuentran referidas a una base ortonormal.

Esta relación puede emplearse para obtener el adjunto de un operador dado: si A es la


representación matricial de T en una base ortonormal, entonces A* (conjugada transpuesta de A)
es la representación matricial de T* en dicha base. Por lo que se tiene el siguiente teorema:

TEOREMA
Sea V un espacio vectorial e dimensión finita con producto interno y sea B una base ortonormal de
B. Si es un operador lineal, entonces:

TEOREMA
Si V es un espacio vectorial de dimensión finita y con producto interno, entonces para cada
operador lineal existe un único adjunto T*, que también es lineal.

EJEMPLO:

46
Apuntes de Álgebra Lineal

TEOREMA: Propiedades elementales.


Sea V un espacio vectorial sobre K, con producto interno. Si S y T son operadores lineales en V y α
es un escalar de K, entonces:

5.2 Definición y propiedades elementales de operador normal.

DEFINICIÓN
Sea V un espacio con producto interno y sea un operador lineal. Se dice que T es
normal si
De esta definición se sigue de inmediato que si T es normal T* también es normal y viceversa.

TEOREMA: Propiedades elementales.


Sea V un espacio con producto interno y sea un operador normal:

Interpretando lo anterior:
1) Si es un valor característico de T entonces es un valor característico de T*
2) Todo vector característico de T es también un vector característico de T* (aunque no
necesariamente correspondiente al mismo valor que para T).
3) Para operadores normales, los vectores característicos asociados a valores distintos son
ortogonales.

EJEMPLO:

47
Apuntes de Álgebra Lineal

5.3 Definición y propiedades elementales de operadores simétricos, hermitianos, antisimétricos,


antihermitianos, ortogonales, unitarios y su representación matricial.

Operadores normales reciben nombres especiales debido a que sus características propias son de
interés para la teoría de operadores lineales. Estos operadores suelen distinguirse con diferentes
nombres cuando el espacio vectorial está definido sobre el campo de los números complejos y
cuando está definido sobre el campo de los números reales.

DEFINICIÓN:
Sea V un espacio vectorial sobre C (sobre R) con producto interno y sea un operador
lineal, se dice que:
i) T es hermitiano (simétrico) si T* = T
ii) T es antihermitiano (antisimétrico) si T* = -T
iii) T es unitario (ortogonal) si T* =

Explicándolo de un modo diferente la definición anterior queda de la siguiente manera:


Dado un espacio vectorial con un producto interno y sea un operador lineal. Se dice que
T es un operador hermitiano si cumple con la siguiente condición:

Por otro lado T es un operador antihermitiano si cumple con la siguiente condición:

Si V es un espacio vectorial con campo de definición en los reales, al operador hermitiano se le


llama operador simétrico y a los operadores antihermitianos se les llama operadores
antisimétricos.

Conclusiones con respecto a lo anterior:


- Los valores característicos de un operador hermitiano, cuando existen, son números
reales, sin embargo un operador puede tener valores característicos reales y no ser
hermitiano.
- Si T es un operador hermitiano con un producto interno, puede dejar de serlo con otro
producto interno.
- Los valores característicos de un operador antihermitiano, cuando existen, son números
imaginarios puros.
- Para operadores antisimétricos el único valor característico posible es el cero.

48
Apuntes de Álgebra Lineal

- Los valores característicos de un operador unitario, de existir, son números complejos


cuyo módulo es de tamaño uno.

La representación matricial (matriz asociada) de estos operadores corresponden a la matriz


hermitiana o antihermitiana, o bien, matriz simétrica o antisimétrica respectivamente, siempre y
cuando la base sea ortonormal.

EJEMPLO:

TEOREMA
Sea V un espacio con producto interno, B es una base ortonormal de V, un operador
lineal y A la representación matricial de T referida a la base B.

i) Hermitiano: T*=T si y solo si A* = A


ii) Antihermitiano: T* = -T si y solo si A* = -A
iii) Unitario T* = si y solo si A* =

Operadores Unitarios.
Sea V un espacio de dimensión finita sobre Complejos con producto interno, y sea un
operador lineal. Se tendrá un operador unitario respecto al producto interno definido, si para todo
se cumple que:

Si V es un espacio definido sobre los Reales es más común decir que T es un operador ortogonal,
cuando T satisface la condición anterior.

TEOREMA: Propiedades.

1.-
2.- Los valores característicos tendrán modulo 1.

La representación matricial de estos operadores corresponde a la matriz unitaria y ortogonal


respectivamente, siempre y cuando la base a la cual esté referida sea ortonormal.

49
Apuntes de Álgebra Lineal

EJEMPLO:

5.4 Teorema espectral.

Se verá el método de “descomponer” un operador normal T, expresándolo como una combinación


lineal de ciertos operadores conocidos como proyecciones ortogonales.

Recordando el teorema de proyección hay que remarcar que el resultado de este teorema era un
vector proyectado, con el teorema espectral el resultado será un operador.

DEFINICIÓN.
Sea V un espacio vectorial sobre C (sobre R), de dimensión finita y con producto interno, y sea
un operador normal (simétrico).

Si son los diferentes valores caracteristicos de T, es el espacio


característico correspondiente a es la proyección ortogonal sobre , entonces:

A la primer expresión del teorema se le conoce como “descomposición espectral” del operador T,
tal descomposición es única (salvo en el orden de los sumandos).

EJEMPLO:

5.5 Aplicación de los valores propios y los vectores propios a las formas cuadráticas:
Para esta parte del curso lo que se pretende es la aplicación de algunos conceptos estudiados en la
geometría analítica. En particular a lo referente al giro de ejes, para simplificar la identificación de
cónicas o bien la degeneración de ellas.

50
Apuntes de Álgebra Lineal

Una ecuación de la forma:


ax2 + bxy + cy2 + Dx + Ey + F = 0

donde a,b,c,D,E,F ε R, se le llama ecuación cuadrática de las variables x y y. A la expresión formada


por los 3 primeros términos de la expresión anterior se le llama forma cuadrática de las variables
x, y.
ax2 + bxy + cy2
El problema consiste en eliminar el término xy, de la ecuación cuadrática mediante un cambio de
variable de tal manera que la ecuación se reduzca a una de la siguiente forma:

αx´´2 + βy´´2 + σ = 0
A través de un giro de ejes y si es necesario una traslación de los mismos, obteniendo con esto,
una cónica con centro en el origen y sus ejes paralelos o coincidentes con los ejes coordenados.

Una forma cuadrática siempre puede ser expresada en forma matricial de la siguiente manera:
ax2 +bxy + cy2

Se observa que el término xy de la ecuación aparece debido a los elementos que no están en la
diagonal principal de la matriz A.
En cambio, si A fuese una matriz diagonal, el término xy no aparecería.

Por lo tanto para tener una ecuación sin el término xy, se debe hacer un cambio de variable que
diagonalice a la matriz A. Utilizando la ecuación: D=P-1AP, como se sabe la matriz P se forma con
los vectores característicos, sin embargo, es preferible usar vectores unitarios, ya que entonces la
matriz P es ortogonal, y por lo tanto PT=P-1.

51
Apuntes de Álgebra Lineal

Es importante tener presente que el determinante de la matriz P deberá ser igual a 1. Si dicho
determinante fuese igual a -1 basta con invertir el orden de las columnas para tener la condición
buscada.

El nuevo sistema de coordenadas x´, y´, en el cual la cónica carece del término xy, está dado por la
expresión:

Ángulo:

Ax 2  Bxy  Cy 2  Dx  Ey  F
B
tan 2 
AC

EJEMPLO.

52