Está en la página 1de 19

TEMA 1

HISTORIA DEL ÁLGEBRA.

 
La historia del álgebra comenzó en el antiguo Egipto y Babilonia, donde fueron
capaces de resolver ecuaciones lineales (ax = b) y cuadráticas (ax2 + bx = c), así
como ecuaciones indeterminadas como x2 + y2 = z2, con varias incógnitas. Los
antiguos babilonios resolvían cualquier ecuación cuadrática empleando
esencialmente los mismos métodos que hoy se enseñan.

Los matemáticos alejandrinos Herón y Diofante continuaron con la tradición de


Egipto y Babilonia, aunque el libro Las aritméticas de Diofante es de bastante más
nivel y presenta muchas soluciones sorprendentes para ecuaciones
indeterminadas difíciles. Esta antigua sabiduría sobre resolución de ecuaciones
encontró, a su vez, acogida en el mundo islámico, en donde se la llamó “ciencia
de reducción y equilibrio”. (La palabra árabe al-abr que significa `reducción', es el
origen de la palabra álgebra). En el siglo IX, el matemático al-Jwarizmi escribió
uno de los primeros libros árabes de álgebra, una presentación sistemática de la
teoría fundamental de ecuaciones, con ejemplos y demostraciones incluidas. A
finales del siglo IX, el matemático egipcio Abu Kamil enunció y demostró las leyes
fundamentales e identidades del álgebra, y resolvió problemas tan complicados
como encontrar las x, y,z que cumplen x + y + z = 10, x2 + y2 = z2, yxz = y2.

En las civilizaciones antiguas se escribían las expresiones algebraicas utilizando


abreviaturas sólo ocasionalmente; sin embargo, en la edad media, los
matemáticos árabes fueron capaces de describir cualquier potencia de la
incógnita x, y desarrollaron el álgebra fundamental de los polinomios, aunque sin
usar los símbolos modernos. Esta álgebra incluía multiplicar, dividir y extraer
raíces cuadradas de polinomios, así como el conocimiento del teorema del
binomio. El matemático, poeta y astrónomo persa Omar Khayyam mostró cómo
expresar las raíces de ecuaciones cúbicas utilizando los segmentos obtenidos por
intersección de secciones cónicas, aunque no fue capaz de encontrar una fórmula
para las raíces. La traducción al latín del Álgebra de al-Jwarizmi fue publicada en
el siglo XII. A principios del siglo XIII, el matemático italiano Leonardo Fibonacci
consiguió encontrar una aproximación cercana a la solución de la ecuación
cúbica x3 + 2x2 + cx = d. Fibonacci había viajado a países árabes, por lo que con
seguridad utilizó el método arábigo de aproximaciones sucesivas.

A principios del siglo XVI los matemáticos italianos Scipione del Ferro, Tartaglia y
Gerolamo Cardano resolvieron la ecuación cúbica general en función de las
constantes que aparecen en la ecuación. Ludovico Ferrari, alumno de Cardano,
pronto encontró la solución exacta para la ecuación de cuarto grado y, como
consecuencia, ciertos matemáticos de los siglos posteriores intentaron encontrar
la fórmula de las raíces de las ecuaciones de quinto grado y superior. Sin
embargo, a principios del siglo XIX el matemático noruego Niels Abel y el francés
Évariste Galois demostraron la inexistencia de dicha fórmula.
Un avance importante en el álgebra fue la introducción, en el siglo XVI, de
símbolos para las incógnitas y para las operaciones y potencias algebraicas.
Debido a este avance, el Libro III de laGeometría (1637), escrito por el
matemático y filósofo francés René Descartes se parece bastante a un texto
moderno de álgebra. Sin embargo, la contribución más importante de Descartes a
las matemáticas fue el descubrimiento de la geometría analítica, que reduce la
resolución de problemas geométricos a la resolución de problemas algebraicos.
Su libro de geometría contiene también los fundamentos de un curso de teoría de
ecuaciones, incluyendo lo que el propio Descartes llamó la regla de los
signos para contar el número de raíces verdaderas (positivas) y falsas (negativas)
de una ecuación. Durante el siglo XVIII se continuó trabajando en la teoría de
ecuaciones y en 1799 el matemático alemán Carl Friedrich Gauss publicó la
demostración de que toda ecuación polinómica tiene al menos una raíz en el
plano complejo (véase Número (matemáticas): Números complejos). 

En los tiempos de Gauss, el álgebra había entrado en su etapa moderna. El foco


de atención se trasladó de las ecuaciones polinómicas al estudio de la estructura
de sistemas matemáticos abstractos, cuyos axiomas estaban basados en el
comportamiento de objetos matemáticos, como los números complejos, que los
matemáticos habían encontrado al estudiar las ecuaciones polinómicas. Dos
ejemplos de dichos sistemas son los grupos y las cuaternas, que comparten
algunas de las propiedades de los sistemas numéricos, aunque también difieren
de ellos de manera sustancial. Los grupos comenzaron como sistemas de
permutaciones y combinaciones (véase Combinatoria) de las raíces de
polinomios, pero evolucionaron para llegar a ser uno de los más importantes
conceptos unificadores de las matemáticas en el siglo XIX. Los matemáticos
franceses Galois y Augustin Cauchy, el británico Arthur Cayley y los noruegos
Niels Abel y Sophus Lie hicieron importantes contribuciones a su estudio. Las
cuaternas fueron descubiertas por el matemático y astrónomo irlandés William
Rowan Hamilton, quien desarrolló la aritmética de los números complejos para las
cuaternas; mientras que los números complejos son de la forma a + bi, las
cuaternas son de la forma a + bi + cj + dk.

Después del descubrimiento de Hamilton, el matemático alemán Hermann


Grassmann empezó a investigar los vectores. A pesar de su carácter abstracto, el
físico estadounidense J. W. Gibbs encontró en el álgebra vectorial un sistema de
gran utilidad para los físicos, del mismo modo que Hamilton había hecho con las
cuaternas. La amplia influencia de este enfoque abstracto llevó a George Boole a
escribir Investigación sobre las leyes del pensamiento (1854), un tratamiento
algebraico de la lógica básica. Desde entonces, el álgebra moderna —también
llamada álgebra abstracta— ha seguido evolucionando; se han obtenido
resultados importantes y se le han encontrado aplicaciones en todas las ramas de
las matemáticas y en muchas otras ciencias.

TEMA 1.2

“Aplicaciones del Álgebra Lineal en la Ingeniería”

Introducción
Como bien lo conocemos, el Álgebra Lineal es una de las ramas de las
Matemáticas la cual se enfoca en el estudio de los vectores, sistemas de
ecuaciones lineales, las matrices y los espacios vectoriales con sus
transformaciones lineales. Por otro lado, la ingeniería es un conjunto de
conocimientos científicos y técnicas que se emplean para la formación,
perfeccionamiento e implementación de estructuras físicas y teóricas que nos
permitan resolver problemas que se presenten y afecten nuestras actividades en la
vida diaria en sociedad. En los párrafos anteriores, definí lo qué es el Álgebra Lineal
y la Ingeniería, y a partir de estas …ver más… 
En la ingeniería electrónica encontramos que la ley de Ohm menciona que en un
gráfico de I en función de V se obtiene de una recta que pasa por el origen R, y los
elementos que no cumplen con esta regla, no se les considera óhmicos. También el
álgebra lineal se encuentra involucrada en los circuitos eléctricos, específicamente
en la teoría de circuitos, en la cual se utiliza la resolución de ecuaciones de “n”
variables y “n” incógnitas al utilizar el método de nodos o de mallas. Finalmente, en
la ingeniería petrolera también tiene aplicaciones. Se emplea para calcular la
cantidad de aditivos (viscosificantes, densificantes, inhibidores, polímers, etc.) que
deben ser agregados a un lodo de perforación en respuesta a lo que sea necesario
para la formación que se desea perforar y a los diferentes problemas que ésta
presente a lo largo de esta etapa. Por otro lado, se emplea en la simulación de
yacimientos, ya que los simuladores emplean métodos numéricos para resolver los
modelos matemáticos en que son creados. La labor de los simuladores es la de
resolver la ecuación de balance de materiales por cada celda que se haya creado
en el programa.

TEMA 2

ESPACIOS VECTORIALES
 
Un espacio vectorial   V es un conjunto de vectores junto con dos operaciones, la
suma y la multiplicación por un escalar, que satisfacen las siguientes propiedades:
 
 
 
Propiedades de la suma de vectores.
 
Sean  ,  ,   vectores en  V
 
1)      La suma   es otro vector en V
 
2)       , es decir, la suma es conmutativa
 

3)       , es decir, la suma es asociativa


 

4)      Existe un vector cero en V, tal que 


 

5)      Para todo vector   existe un vector  , tal que  ,y


se denomina el inverso aditivo
 
 
 
 
Propiedades de la multiplicación por un escalar.
 
Sean   y   vectores en V, c y d constantes (escalares)
 
1)      El vector   es un vector en V
 

2)        
 

3)       . Los incisos 2 y 3 representan la propiedad


distributiva.
 

4)      
 

5)      Para todo vector  ,   , tal que  , y se


denomina el inverso aditivo
 
 
 
Ejemplo 1.
 
Como la suma y la multiplicación por un escalar de todos los vectores con dos
componentes satisfacen las 10 propiedades anteriores, decimos que   con
estas propiedades es un espacio vectorial.
 
El lector puede probar lo anterior con cualesquiera vectores  ,  ,  ,y
constantes c y d.
 
Dado que lo mismo se puede decir para vectores con tres, cuatro
o n componentes, entonces   , y  , con las propiedades
correspondientes, son espacios vectoriales.
 
 
Ejemplo 2.
 
El conjunto de puntos en   que están en la recta  , ¿es un espacio
vectorial?
 

Este conjunto de vectores lo podemos escribir de la forma  .

Sea    y  , el lector puede ahora comprobar si se


cumplen las 10 propiedades arriba mencionadas, y responder si es o no un
espacio vectorial.
 
Desde luego que si es un espacio vectorial.
 
Ejemplo 3.
 
El conjunto de puntos en   que están en la recta  , ¿es un espacio
vectorial?
 

Este conjunto de vectores lo podemos escribir de la forma  .

Sean    y    ,
En este caso, la suma
 

es un vector que no está en el conjunto   , y por tanto no se cumple


la propiedad 1 de la suma.  El conjunto dado no es espacio vectorial.
 
Ejemplo 4.
 

Considere el conjunto   de las matrices de   y las operaciones


convencionales de suma de matrices y producto de una matriz por un

escalar.   Verifica que se cumplen las 10 propiedades para que   sea


espacio vectorial.
 
Ejemplo 5.
Considera el conjunto P3    de los polinomios de grado menor o igual que

3.   Sean     

y       dos polinomios en  x de grado menor o


igual que 3.    El  polinomio cero en  P3    es      y el

inverso aditivo de     es  


.    Comprueba que  P3  es espacio vectorial.
 
Ejemplo 6.
 
Considera el conjunto F de las funciones con valores reales,  definidas en un
intervalo [a, b] en los reales.  Se puede definir el vector  suma de  f  y  g , dos
funciones en  F, en la forma convencional

                               
y para cualquier escalar  c  en los reales y cualquier  función  f  en  F se define
el producto por un escalar
                                        .
 

TEMA 3

¿Qué son las transformaciones lineales?

En primer lugar, una transformación lineal es una función. Por ser función, tiene
su dominio y su codominio, con la particularidad de que éstos son espacios
vectoriales. Tenemos dos espacios vectoriales VV y WW, y una función que va
de VV a WW. O sea una regla de asignación que transforma vectores de VV en
vectores de WW. Pero no toda función que transforme vectores de VV en
vectores de WW es una transformación lineal. Debe cumplir ciertas condiciones:
F:V→WF:V→W es una transformación lineal si y sólo si:

1. F(u+v)=F(u)+F(v)     ∀u,v∈VF(u+v)=F(u)+F(v)     ∀u,v∈V


2. F(k.v)=k.F(v)        ∀v∈V,   ∀k∈RF(k.v)=k.F(v)        ∀v∈V,   ∀k∈R
Propiedades de una transformación lineal

Propiedad 1

La imagen del vector nulo del dominio 0V0V es el vector nulo del


codominio 0w0w:
T(0V)=0wT(0V)=0w
Demostración:

T(0V)=T(0.v)=0.T(v)=0.w=0WT(0V)=T(0.v)=0.T(v)=0.w=0W
Donde hemos expresado a 0V0V como el producto del escalar 00 por cualquier
vector del espacio vectorial VV, hemos usado la segunda condición que debe
cumplir una transformación lineal, y finalmente hemos vuelto a usar la propiedad
de espacios vectoriales sobre el producto del escalar 0 por cualquier vector.
Propiedad 2

La imagen del vector –v–v es igual al opuesto de la imagen de vv:


T(–v)=–T(v)T(–v)=–T(v)
Demostración:

T(–v)=T(–1.v)=–1.T(v)=–T(v)T(–v)=T(–1.v)=–1.T(v)=–T(v)
La justificación de los pasos dados en la demostración es similar a la anterior.

Propiedad 3

Consideremos rr vectores del espacio vectorial VV:


v1,v2,…,vr∈Vv1,v2,…,vr∈V
Tomemos una combinación lineal en el dominio:

α1v1+α2v2+α3v3+...+αrvrα1v1+α2v2+α3v3+...+αrvr
Donde αi∈Rαi∈R.
Si aplicamos la transformación lineal FF de VV a WW, teniendo en cuenta las
propiedades enunciadas en la definición, resulta:
F(α1v1+α2v2+α3v3+...+αrvr)=α1F(v1)+α2F(v2)+…+αrF(vr)F(α1v1+α2v2+α3v3+...
+αrvr)=α1F(v1)+α2F(v2)+…+αrF(vr)
Es decir que una transformación lineal «transporta» combinaciones lineales
de VV a WW, conservando los escalares de la combinación lineal.
Ejemplo 1

Analizar si la siguiente función es una transformación lineal:


Resolución

Controlemos primero que el transformado del 0V0V sea el 0W0W. Ésta es una


condición necesaria: si no se cumpliera, no sería transformación lineal.
Como T((0,0,0))=(0,0)T((0,0,0))=(0,0), la función dada es «candidata» a ser
transformación lineal. Para demostrar que es una transformación lineal tenemos
que comprobar las condiciones dadas en la definición.
Condición 1: T(u+v)=T(u)+T(v)∀u,v∈VT(u+v)=T(u)+T(v)∀u,v∈V
Tomemos dos vectores de R3R3
u=(u1,u2,u3)u=(u1,u2,u3)
v=(v1,v2,v3)v=(v1,v2,v3)
Veamos si

T(u+v)=T(u)+T(v)T(u+v)=T(u)+T(v)
Primero hacemos la suma de uu y vv:

Y ahora aplicamos TT:
T(u+v)=(u1+v1+u3+v3,u2+v2–2u3–2v3)T(u+v)=(u1+v1+u3+v3,u2+v2–2u3–2v3)

T(u+v)=T(u)+T(v)T(u+v)=T(u)+T(v)
En conclusión: se cumple la primera de las condiciones.

Nos faltaría la otra propiedad.

Condición 2: T(k.v)=k.T(v)∀v∈V,∀k∈RT(k.v)=k.T(v)∀v∈V,∀k∈R
T(k.v)=T((kv1,kv2,kv3))=(kv1+kv3,kv2–
2kv3)T(k.v)=T((kv1,kv2,kv3))=(kv1+kv3,kv2–2kv3)
=k.(v1+v3,v2–2v3)=k.T(v)=k.(v1+v3,v2–2v3)=k.T(v)
Como TT cumple las dos condiciones, es una transformación lineal.
Ejemplo 2

Analizar si la siguiente función es una transformación lineal:

F:P2→R|F(p)=p(0)F:P2→R|F(p)=p(0)
Observación: con P2P2 se designa al conjunto de todos los polinomios de grado
menor o igual que dos, con el polinomio nulo.
Resolución

Entonces a un polinomio pp de grado menor o igual que dos, le aplicamos la


función FF y obtenemos un número real que proviene de evaluar el polinomio
en x=0x=0.

Por ejemplo evaluemos la transformación en x2–1x2–1:

Veamos si el vector nulo del espacio vectorial P2P2 va al 0∈R0∈R (es condición


necesaria).
El polinomio cero es:

0P2=0x2+0x+00P2=0x2+0x+0
¿Cuánto vale el polinomio nulo evaluado en 00? 00
0P2(0)=0.02+0.0+0=00P2(0)=0.02+0.0+0=0
Entonces la condición necesaria para este ejercicio se cumple,
porque F(0P2)=0F(0P2)=0
Primera condición F(u+v)=F(u)+F(v)∀u,v∈VF(u+v)=F(u)+F(v)∀u,v∈V
Para que sea transformación lineal se debe cumplir la primera condición. Veamos
qué pasa con el transformado de la suma:

(p+q)∈P2(p+q)∈P2
F(p+q)=(p+q)(0)=p(0)+q(0)F(p+q)=(p+q)(0)=p(0)+q(0)
Observación: evaluar una suma de funciones en 00, es evaluar cada una en 00 y
sumarlas. Esto no es una particularidad de los polinomios, sino que se
corresponde con la definición de suma de funciones:
Para cualquier función: (f+g)(x)=f(x)+g(x)(f+g)(x)=f(x)+g(x), para
todo xx perteneciente al dominio de ff y de gg.
Otra forma de pensar la misma propiedad. Si consideramos

p(x)=ax2+bx+cp(x)=ax2+bx+c        y        q(x)=dx2+ex+fq(x)=dx2+ex+f
p+q=(a+d)x2+(b+e)x+(c+f)p+q=(a+d)x2+(b+e)x+(c+f)
F(p+q)=c+f=F(p)+F(q)F(p+q)=c+f=F(p)+F(q)
Por los dos caminos arribamos a la misma conclusión.

Segunda condición F(k.v)=k.F(v)∀v∈V,∀k∈RF(k.v)=k.F(v)∀v∈V,∀k∈R
Veamos si se cumple la segunda condición. Para esto podemos recordar que
dada una función f(x)f(x) y un escalar kk, la función (k.f)(x)(k.f)(x) se define
como k.f(x)k.f(x). De esta forma podemos decir:

 p∈P2,k∈Rp∈P2,k∈R
 F(k.p)=(k.p)(0)=k.p(0)=k.F(p)F(k.p)=(k.p)(0)=k.p(0)=k.F(p)

Otra forma de verlo es escribir a un polinomio p∈P2p∈P2 de forma genérica y


aplicar la transformación sobre k.pk.p:
p(x)=ax2+bx+cp(x)=ax2+bx+c
F(k.p)=F(k.(ax2+bx+c))=F(k.ax2+k.bx+k.c)=k.c=k.F(p)F(k.p)=F(k.
(ax2+bx+c))=F(k.ax2+k.bx+k.c)=k.c=k.F(p)
Consideremos la transformación lineal:

T:R3→R3,T(v)=v×w0T:R3→R3,T(v)=v×w0
Siendo w0w0 un vector fijo y vv un vector cualquiera de R3R3. Veamos que se
trata de una transformación lineal.
Condición 1: T(u+v)=T(u)+T(v)∀u,v∈VT(u+v)=T(u)+T(v)∀u,v∈V

TEMA 4

Espacio vectorial con producto interno y sus propiedades

Definición. El espacio vectorial complejo V se conoce como un espacio con


producto interior si para cualquier par de vectores u y v en V, existe un único
número complejo (u, v), llamado el producto interior de u y v, tal que si u, v y w
están en V y si α  ∈ C, entonces

Propiedades

i. (v, v) ≥ 0
ii. (v, v) = 0 si y sólo si v = 0.
iii, (u, v +w) = (u, v)+ (u, w)
iv. (u + v, w) = (u, w)+(v, w)
v. (u, v) = (v, u)
vi. (αu, v) = α(u, v)
vii. (u, αv) = α(u, v)
La barra en las condiciones (v) y (vii) denota el conjugado complejo.

cambio de base, base ortonormal, proceso de ortonormalización Gram-Schmidt.

Cambio de base

El cambio de base consiste en conocidas las coordenadas de un vector respecto a


una base B, encontrar las coordenadas de dicho vector con respecto a otra
base B’.

TEOREMA 4.10 (La inversa de la matriz de transición).

Si P es la matriz de transición de una base B a una base B’ en  ,


entonces P es invertible y la matriz de transición de B’a B es .

TEOREMA 4.11 (Matriz de transición de una base B a una baseB’).

Sean y dos bases de Rn, entonces la


matriz de transición P-1 de B a B’ puede determinarse mediante eliminación de

Gauss – Jordan en la matriz  como se muestra a continuación

En la matriz  B’ representa la matriz que tiene por columnas las


componentes de los vectores de la base B’ respectivamente, de forma
similar B representa la matriz que tiene por columnas las componentes de los
vectores de la base B respectivamente.

Base ortonormal
En álgebra lineal, una base ortonormal de un espacio prehilbertiano V (es decir,
un espacio vectorial conproducto interno) o, en particular, de un espacio de
HilbertH, es un conjunto de elementos cuyo span es denso en el espacio, en el
que los elementos son mutuamenteortogonales y normales, es decir, de magnitud
unitaria. Unabase ortogonal satisface las mismas condiciones, salvo la de
magnitud unitaria; es muy sencillo transformar una base ortogonal en una base
ortonormal mediante el producto por un escalar apropiado y de hecho, esta es la
forma habitual en la que se obtiene una base ortonormal: por medio de una base
ortogonal.

Así, una base ortonormal es una base ortogonal, en la cual la norma de cada


elemento que la compone es unitaria.

Estos conceptos son importantes tanto para espacios de dimensión finita como de
dimensión infinita. Para espacios de dimensión finita, la condición de span denso
es la misma que la de 'span', como se usa en álgebra lineal.

Una base ortonormal por lo general no es una "base", es decir, en general no es


posible escribir a cada elemento del espacio como una combinación lineal de un
número finitode elementos de la base ortonormal. En el caso de dimensión
infinita, esta distinción cobra importancia: la definición dada requiere solo que el
span de una base ortonormal sea densa en el espacio vectorial, y no que iguale al
espacio entero.

Una base ortonormal de un espacio vectorial V no tiene sentido si el espacio no


posee un producto interno. UnEspacio de Banach no tendrá una base ortonormal
a no ser que sea unespacio de Hilbert.

Proceso de ortonormalización Gram – Schmidt

El proceso de ortogonalización de Gram–Schmidt de álgebra lineal es un proceso


utilizado en matemática y análisis numérico, para ortogonalizar un conjunto de
vectores en un espacio prehilbertiano, más comúnmente el espacio euclídeo Rn.
Ortogonalización en este contexto significa lo siguiente: comenzamos con
vectores v1,…, vk los cuales son linealmente independientes y queremos
encontrar mutuamente vectores ortogonales u1, …, uk los cuales generan el
mismo subespacio que los vectores v1, …, vk.

Este proceso lleva el nombre en honor a Jørgen Pedersen Gram y Erhard


Schmidt. Proceso de Gram–Schmidt Definimos el operador proyección condonde
los corchetes angulares representan el producto interior, proyecta el vector v
ortogonalmente en el vector u. Antes de ver el proceso, debemos comprender el
porqué de la definición de proyección. Si recordamos la definición de producto
escalar, tenemos para el caso del numerador, módulo de u por módulo de v por el
coseno del ángulo que forman.

En el denominador tenemos módulo de u por módulo de u, ya que el coseno sería


1. Si separamos los dos módulos de u en el denominador, vemos que a la
izquierda tenemos únicamente “módulo de v * cos (ángulo que forman)”, lo que
nos da claramente el módulo del vector proyección. Teniendo el módulo del vector
proyección lo único que debemos hacer es asignarle una dirección, cosa que
hacemos multiplicándolo por u/módulo(u), lo que es el vector de módulo 1 con
dirección u (el vector unitario).

ESPACIO VECTORIAL CON PRODUCTO INTERNO Y


SUS  PROPIEDADES

Producto Interno:
Un producto interno sobre un espacio vectorial V es una operación que asigna a cada par de vecto
v en V un número real <u, v>.
Un producto interior sobre V es una función que asocia un número real ‹u, v› con cada par de vecto
v cumple los siguientes axiomas:
Propiedades:
i. (v, v) ≥ 0
ii. (v, v) = 0 si y sólo si v = 0.
iii, (u, v +w) = (u, v)+ (u, w)
iv. (u + v, w) = (u, w)+(v, w)
v. (u, v) = (v, u)
vi. (αu, v) = α(u, v)
vii. (u, αv) = α(u, v)
Espacios con producto interior:
El producto interior euclidiano es solo uno más de los productos internos que se tiene que definir en
Para distinguir entre el producto interno normal y otros posibles productos internos se usa la siguien
notación.
u ●v = producto punto (producto interior euclidiano para Rn)
‹u, v› = producto interno general para espacio vectorial V.
Propiedades de los productos interiores:
1. ‹0, v› = ‹v, 0› = 0
2. ‹u + v, w› = ‹u, w› + ‹v, w› 3. ‹u, cv› = c‹u, v›.

TEMA 5

OPERADORES LINEALES EN ESPACIOS CON PRODUCTO INTERNO

”5.1 Definición y propiedades elementales del adjunto de un operador. Existen


operadores que se pueden trabajar en espacios vectoriales en el cual se
encuentra definido un producto interno. Dentro de estos operadores y para una
mejor comprensión se puede trabajar con el operador adjunto. DEFINICION. Sea
V un espacio con producto interno y sea un operador lineal. Un operador se dice
que es adjunto de T si: Recordar que siempre hay una relación entre las
representaciones matriciales de los operadores T y T*cuando éstas se encuentran
referidas a una base ortonormal. Esta relación puede emplearse para obtener el
adjunto de un operador dado: si A es la representación matricial de T en una base
ortonormal, entonces A* (conjugada transpuesta de A) es la representación
matricial de T* en dicha base. Por lo que se tiene el siguiente teorema: TEOREMA
Sea V un espacio vectorial e dimensión finita con producto interno y sea B una
base ortonormal de B. Si es un operador lineal, entonces: TEOREMA Si V es un
espacio vectorial de dimensión finita y con producto interno, entonces para cada
operador lineal existe un único adjunto T*, que también es lineal.

TEOREMA: Propiedades elementales. Sea V un espacio vectorial sobre K, con


producto interno. Si S y T son operadores lineales en V y α es un escalar de K,
entonces:

Definición y propiedades elementales de operador normal. DEFINICIÓN Sea V un


espacio con producto interno y sea un operador lineal. Se dice que T es normal si

De esta definición se sigue de inmediato que si T es normal T* también es normal


y viceversa. TEOREMA: Propiedades elementales. Sea V un espacio con
producto interno y sea un operador normal: Interpretando lo anterior: 1)Si es un
valor característico de T entonces es un valor característico de T* 2)Todo vector
característico de T es también un vector característico de T* (aunque no
necesariamente correspondiente al mismo valor que para T). 3)Para operadores
normales, los vectores característicos asociados a valores distintos son
ortogonales.

Definición y propiedades elementales de operadores simétricos, hermitianos,


antisimétricos, antihermitianos, ortogonales, unitarios y su representación
matricial. Operadores normales reciben nombres especiales debido a que sus
características propias son de interés para la teoría de operadores lineales. Estos
operadores suelen distinguirse con diferentes nombres cuando el espacio vectorial
está definido sobre el campo de los números complejos y cuando está definido
sobre el campo de los números reales. DEFINICIÓN: Sea V un espacio vectorial
sobre C (sobre R) con producto interno y seaun operador lineal, se dice que: i)T
es hermitiano (simétrico) si T* = T ii)T es antihermitiano (antisimétrico) si T* = -T
iii)T es unitario (ortogonal) si T* = Explicándolo de un modo diferente la definición
anterior queda de la siguiente manera: Dado un espacio vectorial con un producto
interno y sea un operador lineal. Se dice que T es un operador hermitiano si
cumple con la siguiente condición:

Producto interno Algunas nociones geom´etricas en R 2 y en R 3 pueden definirse


a partir del producto escalar. La definici´on que sigue es una generalizaci´on del
producto escalar a otros espacios vectoriales.

Definicion y ejemplos Definicion

Sea V un espacio vectorial sobre R (respectivamente C). Un producto interno


sobre V es una funci´on Φ : V × V → R (respectivamente C) que cumple: i) Para
cada α ∈ R (respectivamente C), y v, w, z ∈ V • Φ(v + w, z) = Φ(v, z) + Φ(w, z) •
Φ(α.v, z) = α. Φ(v, z) ii) Φ(v, w) = Φ(w, v) ∀ v, w ∈ V . (Notar que esta condici´on
implica que para cada v ∈ V , Φ(v, v) = Φ(v, v), es decir que Φ(v, v) ∈ R.) iii) Φ(v,
v) > 0 si v 6= 0. Notaci´on. Si Φ es un producto interno, escribiremos Φ(v, w) = hv,
wi. 190 Espacios vectoriales con producto interno

A un espacio vectorial real (respectivamente complejo) provisto de un producto


interno se lo llama un espacio eucl´ıdeo (respectivamente espacio unitario).
Observaci´on 8.3 De las condiciones i) y ii) de la definici´on de producto interno se
deduce que si Φ : V × V → R (respectivamente C) es un producto interno, para
cada α ∈ R (respectivamente C), y v, w, z ∈ V vale: Φ(v, w + z) = Φ(v, w) + Φ(v, z),
Φ(v, α.w) = α .Φ(v, w). Ejemplos. Se puede comprobar que las funciones Φ
definidas a continuaci´on son productos internos sobre los espacios vectoriales
correspondientes: • Producto interno can´onico en R n: Φ((x1, . . . , xn),(y1, . . . ,
yn)) = x1y1 + · · · + xnyn. • Producto interno can´onico en C n: Φ((x1, . . . , xn),(y1,
. . . , yn)) = x1y1 + · · · + xnyn. • Dada B ∈ C m×n, denotamos por B∗ ∈ C n×m a la
matriz transpuesta conjugada de B, es decir, a la matriz definida por (B ∗ )ij = Bji.
Se define Φ : C m×n × C m×n → C como Φ(A, B) = tr(A.B ∗ ). • Si a < b ∈ R y C[a,
b] = {f : [a, b] → R / f continua}, se define Φ : C[a, b]×C[a, b] → R como Φ(f, g) = Z
b a f(x)g(x) dx. Dado un espacio vectorial V es posible definir distintos productos
internos sobre V . En el ejemplo siguiente veremos una familia de productos
internos en R 2 . Ejemplo. Sea Φ : R 2 × R 2 → R definida por Φ((x1, x2),(y1, y2))
= x1y1 − x1y2 − x2y1 + α. x2y2 Hallar todos los valores de α ∈ R para los cuales
Φ es un producto interno. Es inmediato verificar que, para cualquier α ∈ R se
cumplen las condiciones i) y ii) de la definici´on de producto interno. Veamos para
qu´e valores de α se cumple la condici´on iii). Se tiene que Φ((x1, x2),(x1, x2)) = x
2 1 − 2x1x2 + αx2 2 = x 2 1 − 2x1x2 + x 2 2 + (α − 1)x 2 2 = (x1 − x2) 2 + (α − 1)x
2 2 De esta igualdad se deduce que Φ(v, v) > 0 ∀ v 6= 0 ⇐⇒ α > 1. En
consecuencia, Φ es un producto interno si y s´olo si α >

Sea (V,h,i) un espacio vectorial sobre R (respectivamente C) con producto interno


y sea v ∈ V . Se define la norma de v asociada a h,i (y se nota kvk) como kvk = hv,
vi 1 2 . Proposici´on 8.5 (Propiedades de la norma.) Sea (V,h,i) un espacio
vectorial con producto interno. i) Para cada v ∈ V , kvk ≥ 0, y kvk = 0 si y s´olo si v
= 0. ii) Sean α ∈ R (respectivamente C) y v ∈ V . Entonces kα.vk = |α|. kvk. iii)
Desigualdad de Cauchy-Schwartz. Si v, w ∈ V , entonces |hv, wi| ≤ kvk. kwk. iv)
Desigualdad triangular. Si v, w ∈ V , entonces kv + wk ≤ kvk + kwk. Demostraci´on.
Las propiedades i) e ii) se deducen inmediatamente de la definici´on de norma. iii)
Si w = 0, no hay nada que hacer. Supongamos entonces que w 6= 0. Se tiene que
0 ≤ D v − hv, wi kwk 2 w, v − hv, wi kwk 2 w E = D v, v − hv, wi kwk 2 w E − hv, wi
kwk 2 D w, v − hv, wi kwk 2 w E = hv, vi − hv, wi kwk 2 hv, wi − hv, wi kwk 2 hw, vi
+ hv, wi kwk 2 hv, wi kwk 2 hw, wi = kvk 2 − |hv, wi|2 kwk 2 Esto implica que |hv,
wi|2 ≤ kvk 2kwk 2 , de donde se obtiene la desigualdad buscada. iv) En primer
lugar, observamos que kv + wk 2 = hv + w, v + wi = hv, vi + hv, wi + hv, wi + hw, wi
= kvk 2 + 2 Rehv, wi + kwk 2 . (8.1) 192 Espacios vectoriales con producto interno
Entonces, teniendo en cuenta que Rehv, wi ≤ |hv, wi| y aplicando la desigualdad
de Cauchy-Schwartz, resulta que kv + wk 2 ≤ kvk 2 + 2 |hv, wi| + kwk 2 ≤ kvk 2 + 2
kvkkwk + kwk 2 = (kvk + kwk) 2 , de donde se deduce que kv + wk ≤ kvk + kwk. ¤
La desigualdad de Cauchy-Schwartz vista en ciertos espacios vectoriales con
producto interno nos permite obtener distintas propiedades: Ejemplo. Sean f, g ∈
C[a, b]. Entonces ¯ ¯ ¯ ¯ ¯ Z b a f(x)g(x) dx ¯ ¯ ¯ ¯ ¯ ≤ ÃZ b a f 2 (x) dx!1 2 ÃZ b a
g 2 (x) dx!1 2 . En general, se puede definir una norma en un espacio vectorial V
sobre R o C como una funci´on k k : V → R que cumpla las condiciones i), ii) y iv)
de la proposici´on anterior. Una norma cualquiera en este sentido puede no
provenir de un producto interno (es decir, puede no haber ning´un producto interno
tal que la norma asociada sea k k). Un ejemplo de esto es la norma infinito en R n,
definida por k(x1, . . . , xn)k∞ = max{|x1|, . . . , |xn|}. Dada una norma, se puede
decidir si proviene o no de un producto interno, ya que ´este se puede recuperar a
partir de su norma asociada: Proposici´on 8.6 (Identidades de polarizaci´on.) i)
Sea (V,h,i) un R-espacio vectorial con producto interno. Entonces para cada v, w ∈
V vale: hv, wi = 1 4 kv + wk 2 − 1 4 kv − wk 2 . ii) Sea (V,h,i) un C-espacio vectorial
con producto interno. Entonces para cada v, w ∈ V vale: hv, wi = 1 4 kv + wk 2 − 1
4 kv − wk 2 + i 4 kv + iwk 2 − i 4 kv − iwk 2 . Demostraci´on. i) Si V es un R-
espacio vectorial, entonces kv +wk 2 = kvk 2 + 2hv, wi+kwk 2 y kv −wk 2 = kvk 2 −
2hv, wi + kwk 2 . Entonces 1 4 kv + wk 2 − 1 4 kv − wk 2 = 1 2 hv, wi − ³−1 2 ´ hv,
wi = hv, wi. 8.1 Producto interno 193 ii) En forma an´aloga a lo hecho en i), usando
la identidad (8.1), resulta que si V es un C-espacio vectorial, entonces 1 4 kv + wk
2 − 1 4 kv − wk 2 = Rehv, wi. Por otro lado, kv + iwk 2 = kvk 2 + 2 Rehv, iwi + kiwk
2 = kvk 2 + 2 Imhv, wi + kwk 2 y, similarmente, kv − iwk 2 = kvk 2 − 2 Imhv, wi +
kwk 2 , lo que implica que i 4 kv + iwk 2 − i 4 kv − iwk 2 = iImhv, wi. La identidad
del enunciado se obtiene haciendo hv, wi = Rehv, wi + iImhv, wi. ¤ Una norma
cualquiera estar´a asociada a un producto interno si y s´olo si la funci´on que se
obtiene mediante estas identidades resulta un producto interno. En lo que sigue, s
´olo se considerar´an normas asociadas a productos internos.

Distancia entre vectores A partir de la definicion de norma de un vector, podemos


definir la noci´on de distancia entre dos vectores.

Sea V un R-(o C-) espacio vectorial con producto interno h,i. Se define d : V × V →
R como d(v, w) = kv − wk. Utilizando las propiedades de la norma se puede
verificar que la funci´on d satisface las siguientes propiedades: i) d(v, w) ≥ 0 ∀ v, w
∈ V . ii) d(v, w) = 0 ⇐⇒ v = w. iii) d(v, w) = d(w, v) ∀ v, w ∈ V . iv) d(v, z) ≤ d(v, w) +
d(w, z) ∀ v, w, z ∈ V . Dados vectores v, w ∈ V se dice que d(v, w) es la distancia
entre v y w. Dado un conjunto no vac´ıo cualquiera X, puede definirse una
distancia en X como cualquier funci´on d : X × X → R que cumpla las propiedades
i), ii), iii) y iv) anteriores. Hay distancias en espacios vectoriales que no provienen
de ninguna norma. En lo que sigue, s´olo trabajaremos con distancias asociadas a
normas asociadas a productos internos.

Espacios vectoriales con producto interno

Angulo entre dos vectores ´ Sea (V,h,i) un espacio eucl´ıdeo. La desigualdad de


Cauchy-Schwartz establece que para todo par de vectores v, w ∈ V se tiene que |
hv, wi| ≤ kvk.kwk. Si v, w 6= 0, resulta entonces que −1 ≤ hv, wi kvk.kwk ≤ 1. Esto
nos permite introducir la siguiente noci´on de ´angulo entre dos vectores: Definici
´on 8.8 Sea (V,h,i) un espacio eucl´ıdeo y sean v, w ∈ V no nulos. Se define el
´angulo entre v y w como el ´unico n´umero real α ∈ [0, π] tal que cos(α) = hv, wi
kvk.kwk . Observamos que si α es el ´angulo entre v y w, entonces kv + wk 2 = hv
+ w, v + wi = kvk 2 + 2hv, wi + kwk 2 = kvk 2 + 2. cos(α). kvk.kwk + kwk 2 , que es
la f´ormula conocida como teorema del coseno. 8.1.5 Matriz de un producto
interno Si V es un espacio vectorial de dimensi´on finita con un producto interno
h,i, fijada una base de V , vamos a construir una matriz asociada al producto
interno y a dicha base. Definici´on 8.9 Sea V un R-(respectivamente C-) espacio
vectorial de dimensi´on finita, sea h,i un producto interno sobre V y sea B =
{v1, . . . , vn} una base de V . Se define la matriz del producto interno h,i en la
base B como la matriz A ∈ R n×n (respectivamente A ∈ C n×n) tal que Aij = hvi , vj
i ∀ 1 ≤ i, j ≤ n. Notaci´on. Escribiremos |h,i|B para denotar la matriz del producto
interno h,i en la base B. Observaci´on 8.10 Si A es la matriz de un producto
interno, entonces Aij = Aji ∀ i, j. Sin embargo, la condici´on Aij = Aji ∀ i, j no es
suficiente para que A sea la matriz de un producto interno. Por ejemplo, A = µ 0 1
1 1 ¶ no puede ser la matriz de un producto interno en una base, ya que si v es el
primer vector de la base, ser´ıa hv, vi = 0. Ejemplo. Para el producto interno en R
2 definido por h(x1, x2),(y1, y2)i = x1y1 − x1y2 − x2y1 + α x2y2 (α > 1)

Ortogonalidad

En la base can´onica de R 2 , resulta |h,i|E = µ 1 −1 −1 α ¶ . La matriz de un


producto interno en una base B nos permite calcular el producto interno entre
cualquier par de vectores: Proposici´on 8.11 Sea V un R-(o C-) espacio vectorial
de dimensi´on finita y sea h,i un producto interno sobre V . Sea B una base de V .
Entonces, para cada v, w ∈ V , se tiene que hv, wi = (v)B. |h,i|B.(w) t B.
Demostraci´on. Sea B = {v1, . . . , vn}. Supongamos que v = Pn i=1 αivi y w = Pn
i=1 βivi . Entonces hv, wi = DXn i=1 αivi , Xn j=1 βjvj E = Xn i=1 αi D vi , Xn j=1 βjvj
E = Xn i=1 αi ³Xn j=1 βj hvi , vj i ´ . Por otro lado, teniendo en cuenta que (v)B =
(α1, . . . , αn) y (w)B = (β1, . . . , βn), resulta que (v)B. |h,i|B.(w) t B = Xn i=1 αi ³ |
h,i|B(w) t B ´ i1 = Xn i=1 αi ³Xn j=1 hvi , vj iβj ´ . Luego hv, wi = (v)B. |h,i|B.(w) t B. ¤
8.2 Ortogonalidad En esta secci´on generalizaremos la noci´on conocida de
perpendicularidad en R 2 y algunas propiedades que se basan en esta noci´on, a
espacios vectoriales con producto interno arbitrarios.

Conjuntos ortogonales y ortonormales Definici´on Sea (V,h,i) un espacio vectorial


con producto interno. Dos vectores v, w ∈ V se dicen ortogonales (o
perpendiculares) si hv, wi = 0. Observacion

También podría gustarte