Está en la página 1de 20

INSTITUTO TECNÓLOGICO DE MÉXICO

CAMPUS TAPACHULA

FUNDAMENTOS DE LA MECANICA DE MEDIOS CONTINUOS

MÉTODOS PARA EL CÁLCULO DE VALORES Y VECTORES


PROPIOS; Y GRADIENTE, DIVERGENCIA Y ROTACIONAL.

EQUIPO MORADO:
MARCO ANTONIO ESPINOSA MARTINEZ.
GABRIEL DE JESUS HERRERA SANGEADO.
DIEGO DE JESUS VALENCIA GONZALEZ.
CRISTIAN DANIEL GARCIA VELAZQUEZ.
GELASIO DAVID MEZA HERRERA.
CESAR ARTURO GARCIA MARTINEZ.
JOSE MARIO AQUIAHUATL RODRIGUEZ

DOCENTE:
ING. FRANCISCO ANTONIO ANDRADE CAMPOS

CARRERA:
INGENIERIA CIVIL
“4” SEMESTRE GRUPO “A”

TAPACHULA, CHIAPAS A 1 DE MARZO DEL 2023.


ÍNDICE

INTRODUCCIÓN.............................................................................................................................3
MÉTODOS PARA EL CÁLCULO DE VALORES Y VECTORES PROPIOS; Y
GRADIENTE, DIVERGENCIA Y ROTACIONAL.......................................................................4
CONCLUSIÓN.................................................................................................................................5
BIBLIOGRAFÍA...............................................................................................................................6
INTRODUCCIÓN

En el presente trabajo de investigación correspondiente a la primera unidad denominada


"Conceptos matemáticos "de la materia de fundamentos de la mecánica de los medios
continuos, podremos encontrar un pequeño resumen de los conocimientos y conceptos
que son necesario entender, ya que con ello podremos desarrollar de la manera más
óptima la asignatura.
Con respecto a los conceptos matemáticos, tenemos en primer lugar la notación indicial
que nos permite desarrollar los conceptos de una manera tal que sea entendible en
términos algebraicos y de vectores, por ello se han recopilado una serie de ejemplos y
conceptos básicos.
Para el tema correspondiente a operaciones con tensores, se realiza una pequeña
definición de lo que, en términos algebraicos y físicos, es un tensor. También se hace
alusión a los ejemplos más comunes de tensores que conocemos, tales como la velocidad,
la fuerza, entre otras. Dentro de esta recopilación se enfatizan algunas operaciones
fundamentales en los tensores.
En el tema de métodos para el cálculo de valores y vectores propios, como en los temas
anteriores, se abordan las definiciones correspondientes, se plantean los métodos de
solución con ejemplos prácticos y se estudia la similitud que presentan.
Otros temas tan importantes como lo son la gradiente, divergencia y rotacional, se
mencionan las definiciones, las características, las fórmulas y algunos ejemplos de cada
uno de esto, además de puntualizar sus campos de aplicación. En el caso de los Teoremas
de Green y de Stokes, antes que nada, se escribe cada uno de ellos de forma teoría con
sus respectivas notaciones matemáticas, se plantean ejemplos y se analizan sus
relaciones, esto para su mayor comprensión.
Este documento pretende abordar dentro de su compilación la mayor cantidad posible de
información precisa y entendible, esto con el afán de fundamentar los conocimientos
básicos tanto personal como grupalmente o posteriormente a quienes tengan la
oportunidad de examinar el trabajo de investigación esperando cubrir las expectativas.

3
MÉTODOS PARA EL CÁLCULO DE VALORES Y
VECTORES PROPIOS; Y GRADIENTE,
DIVERGENCIA Y ROTACIONAL.
Los vectores propios, autovectores o eigenvectores de un operador lineal son los
vectores no nulos que, cuando son transformados por el operador, dan lugar a un
múltiplo escalar de sí mismos, con lo que no cambian su dirección. Este escalar
Arecibe el nombre valor propio, autovalor, valor característico o eigenvalor. A
menudo, una transformación queda completamente determinada por sus vectores
propios y valores propios. Un espacio propio, autocaspacio o eigenespacio es el
conjunto de vectores propios con un valor propio común. Las transformaciones
lineales del espacio _ como la rotación, la reflexión, el ensanchamiento, o
cualquier combinación de las anteriores; en esta lista podrían incluirse otras
transformaciones pueden interpretarse mediante el efecto que producen en los
vectores.
Los vectores pueden visualizarse como flechas de una cierta longitud apuntando
en una dirección y sentido determinados.

 Los vectores propios de las transformaciones lineales son vectores que, o no


se ven afectados por la transformación o se ven multiplicados por un escalar, y
por tanto no varían su dirección.
 El valor propio de un vector propio es el factor de escala por el que ha sido
multiplicado.
 Un espacio propio es un espacio formado por todos los vectores propios del
mismo valor propio, además del vector nulo, que no es un vector propio.
 La multiplicidad geométrica de un valor propio es la dimensión del espacio
propio asociado.
 El espectro de una transformación en espacios vectoriales finitos es el
conjunto de todos sus valores propios.
Por ejemplo, un vector propio de una rotación en tres dimensiones es un vector
situado en el eje de rotación sobre el cual se realiza la rotación. El valor
propio correspondiente es 1 y el espacio propio contiene a todos los
vectores paralelos al eje. Como es un espacio de una dimensión, su multiplicidad
geométrica es uno. Es el único valor propio del espectro (de esta rotación) que es
un número real.

4
Formalmente, se definen los vectores propios y valores propios de la siguiente
manera: Si A: V → V es un operador lineal en un cierto espacio vectorial V, v es
un vector diferente de cero en V y c es un escalar tales que

A v =c v

Entonces decimos que v es un vector propio del operador A, y su valor propio


asociado es c. Observe que si v es un vector propio con el valor propio c entonces
cualquier múltiplo diferente de cero de v es también un vector propio con el valor
propio c. De hecho, todos los vectores propios con el valor propio asociado c junto
con 0, forman un subespacio de V, el espacio propio para el valor propio c.
Observe además que un  un espacio propio Z es un subespacio invariante de A,
es decir dado w un vector en Z, el vector Aw también pertenece a Z. espacio
propio Z es un subespacio invariante de A, es decir dado w un vector en Z, el
vector Aw también pertenece a Z.

Casos de interes espcial. Intuitivamente, para las transformaciones lineales del


espacio de dos dimensiones , los vectores propios son:

 Rotación: ningún vector propio de valores reales (existen en cambio pares


valor propio, vector propio complejos).

 Reflexión: los vectores propios son perpendiculares y paralelos al eje de


simetría, los valores propios son -1 y 1, respectivamente.

 Escalado uniforme: todos los vectores son vectores propios, y el valor


propio es el factor de escala.

 Proyección sobre una recta: los vectores propios con el valor propio 1 son
paralelos a la línea, vectores propios con el valor propio 0 son paralelos a la
dirección de la proyección.

5
Cálculo de valores propios y vectores propios de matrices. Si se quiere calcular los
valores propios de una matriz dada y ésta es pequeña, se puede calcular
simbólicamente usando el polinomio característico. Sin embargo, a menudo
resulta imposible para matrices extensas, caso en el que se debe usar un método
numérico.

Cálculo simbólico. Una herramienta importante para encontrar valores propios de


matrices cuadradas es el polinomio característico: decir que λ es un valor propio
de A es equivalente a decir que el sistema de ecuaciones lineales A v = λ v --
> A v - λ v = 0 (Factorizando por v queda) (A - λI) v = 0 (donde I es la matriz
identidad) tiene una solución no nula v (un vector propio), y de esta forma es
equivalente al determinante:

det ( A−λI )=0

La función p(λ) = det ( A−λI ) es un polinomio de λ pues los determinantes se


definen como sumas de productos. Éste es el polinomio característico de A: los
valores propios de una matriz son los ceros de su polinomio característico.

Todos los valores propios de una matriz A pueden calcularse resolviendo la

ecuación:

Si A es una matriz n × n, entonces   tiene grado n  y  A  tiene como máximo n  
valores propios.

El teorema fundamental del álgebra dice que esta ecuación tiene exactamente n  


raíces (ceros), teniendo en cuenta su multiplicidad. Todos los polinomios reales de
grado impar tienen un número real como raíz, así que para n impar toda matriz
real tiene al menos valor propio real. En el caso de las matrices reales, para n  par
e impar, los valores propios no reales son pares conjugados.

6
Encontrando vectores propios. Una vez que se conocen los valores propios λ,
los vectores propios se pueden hallar resolviendo el sistema de ecuaciones
homogéneo:

Una forma más sencilla de obtener vectores propios sin resolver un sistema de
ecuaciones lineales se basa en el teorema de Cayley-Hamilton que establece que
cada matriz cuadrada satisface su propio polinomio característico. Así,
si   son los valores propios de A se cumple que

por lo que los vectores columna de   son vectores propios


de  .

Ejemplo de matriz sin valores propios reales. Un ejemplo de matriz sin valores
propios reales es la rotación de 90 grados en el sentido de las manecillas del reloj:

Cuyo polinomio característico es   y sus valores propios son el par de


conjugados complejos i, -i. Los vectores propios asociados tampoco son reales.

Ejemplo

Considérese la matriz

que representa un operador lineal R³ → R³. Si se desea computar todos los


valores propios de A, se podría empezar determinando el polinomio característico:

7
y porque p(x) = - (x - 2)(x - 1)(x + 1) se ve que los valores propios de A son 2, 1 y
-1. El teorema de Cayley-Hamilton establece que cada matriz cuadrada satisface
su propio polinomio característico. Es decir:

Efectivamente, para el caso del valor propio 2, se puede comprobar que

De donde (1, 1, -1) es un vector propio asociado a 2.

Cálculo numérico. En la práctica, los valores propios de las matrices extensas no


se calculan usando el polinomio característico. Calcular el polinomio resulta muy
costoso, y extraer las raíces exactas de un polinomio de grado alto puede ser
difícil de calcular y expresar: el teorema de Abel-Ruffini implica que las raíces de
los polinomios de grado alto (5 o superior) no pueden expresarse usándose
simplemente raíces enésimas. Existen algoritmos eficientes para aproximar raíces
de polinomios, pero pequeños errores en la estimación de los valores propios
pueden dar lugar a errores grandes en los vectores propios. En consecuencia, los
algoritmos generales para encontrar vectores propios y valores propios
son iterativos. La manera más fácil es el método de las potencias: se escoge un
vector aleatorio   y se calcula una secuencia de vectores unitarios:

,  ,  , ...

Esta sucesión casi siempre convergerá a un vector propio correspondiente al


mayor valor propio. Este algoritmo es sencillo, pero no demasiado útil
aisladamente. Sin embargo, hay métodos más populares, como la descomposición
QR, que se basan en él.

8
Gradiente. En cálculo vectorial, el gradiente   de un campo escalar   es
un campo vectorial. El vector gradiente de   evaluado en un punto genérico   del
dominio de ,  ( ), indica la dirección en la cual el campo   varía más
rápidamente y su módulo representa el ritmo de variación de   en la dirección de
dicho vector gradiente. El gradiente se representa con el operador
diferencial nabla   seguido de la función (cuidado de no confundir el gradiente
con la divergencia, ésta última se denota con un punto de producto escalar entre

el operador nabla y el campo). También puede representarse mediante , o

usando la notación . La generalización del concepto de gradiente a


campos   vectoriales es el concepto de matriz Jacobiana.

Si se toma como campo escalar el que se asigna a cada punto del espacio una
presión P (campo escalar de 3 variables), entonces el vector gradiente en un
punto genérico del espacio indicará la dirección en la cual la presión cambiará más
rápidamente. Otro ejemplo es el de considerar el mapa de líneas de nivel de una
montaña como campo escalar que asigna a cada pareja de coordenadas
latitud/longitud un escalar altitud (campo escalar de 2 variables). En este caso el
vector gradiente en un punto genérico indicará la dirección de máxima inclinación
de la montaña. Nótese que el vector gradiente será perpendicular a las líneas de
contorno (líneas "equiescalares") del mapa. El gradiente se define como el campo
vectorial cuyas funciones coordenadas son las derivadas parciales del campo
escalar, esto es:

Esta definición se basa en que el gradiente permite calcular fácilmente las


derivadas direccionales. Definiendo en primer lugar la derivada direccional según
un vector:

9
Una forma equivalente de definir el gradiente es como el único vector que,
multiplicado por el vector unitario, da la derivada direccional del campo escalar:

Con la definición anterior, el gradiente está caracterizado de forma unívoca. El


gradiente se expresa alternativamente mediante el uso del operador nabla:

Interpretación del gradiente. De forma geométrica el gradiente es un vector que se


encuentra normal (perpendicular) a la curva de nivel en el punto que se está estudiando,
llámese ( x , y ),( x , y , z), (tiempo, temperatura), etcétera. Algunos ejemplos son:

 Considere una habitación en la cual la temperatura se define a través de un


campo escalar, de tal manera que en cualquier punto ∅ ( x , y , z), la temperatura
es ∅ ( x , y , z). Asumiremos que la temperatura no varía con respecto al tiempo.
Siendo esto así, para cada punto de la habitación, el gradiente en ese punto
nos dará la dirección en la cual se calienta más rápido. La magnitud del
gradiente nos dirá cuán rápido se calienta en esa dirección.
 Considere una montaña en la cual su altura en el punto ( x , y ) se define como
H ( x , y ) . El gradiente de H en ese punto estará en la dirección para la que hay
un mayor grado de inclinación. La magnitud del gradiente nos mostrará cuán
empinada se encuentra la pendiente.
Propiedades. El gradiente verifica que:

 Es ortogonal a las superficies equiescalares, definidas por   =cte.


 Apunta en la dirección en que la derivada direccional es máxima.
 Su módulo es igual a esta derivada direccional máxima.
 Se anula en los puntos estacionarios (máximos, mínimos y puntos de silla).
 El campo formado por el gradiente en cada punto es siempre irrotacional, esto
es,

10
Divergencia. La divergencia de un campo vectorial mide la diferencia entre el
flujo entrante y el flujo saliente de un campo vectorial sobre la superficie que rodea
a un volumen de control, por tanto, si el campo tiene "fuentes" o "sumideros" la
divergencia de dicho campo será diferente de cero.

Divergencia de un campo vectorial. La divergencia de un campo vectorial en un


punto es un campo escalar, y se define como el flujo del campo vectorial por
unidad de volumen conforme el volumen alrededor del punto tiende a cero:

Donde   es una superficie cerrada que se reduce a un punto en el límite. El


símbolo   representa el operador nabla.

Esta definición está directamente relacionada con el concepto de flujo del campo.
Como en el caso del flujo, si la divergencia en un punto es positiva, se dice que el
campo posee fuentes. Si la divergencia es negativa, se dice que tiene sumideros.
El ejemplo más característico lo dan las cargas eléctricas, que dan la divergencia
del campo eléctrico, siendo las cargas positivas manantiales y las negativas

sumideros del campo eléctrico. Se llaman fuentes escalares del campo   al

campo escalar que se obtiene a partir de la divergencia de 

La divergencia de un campo vectorial se relaciona con el flujo a través del teorema


de Gauss o teorema de la divergencia.

Coordenadas cartesianas. Cuando la definición de divergencia se aplica al


caso de un campo expresado en coordenadas cartesianas,

El resultado es sencillo:

11
Coordenadas ortogonales. Sin embargo, para un caso más general
de coordenadas ortogonales curvilíneas, como las cilíndricas o las esféricas, la
expresión se complica debido a la dependencia de los vectores de la base con la
posición. La expresión para un sistema de coordenadas ortogonales es:

Donde los   son los factores de escala del sistema de coordenadas, relacionados


con la forma del tensor métrico en dicho sistema de coordenadas. Esta fórmula

general, para el caso de coordenadas cartesianas ( ) se


reduce a la expresión anterior.

Para coordenadas cilíndricas ( ) resulta:

Para coordenadas esféricas ( ) resulta

Coordenadas generales. En sistemas de coordenadas generales, no


necesariamente ortogonales, la divergencia de un vector puede expresarse en
términos de las derivadas parciales respecto a las coordenadas y el determinante
del tensor métrico:

12
Rotacional. En el cálculo vectorial, el rotacional o rotor es un operador vectorial que
muestra la tendencia de un campo vectorial a inducir rotación alrededor de un punto.

Matemáticamente, esta idea se expresa como el límite de la circulación del campo


vectorial, cuando la curva sobre la que se integra se reduce a un punto:

Aquí,   es el área de la superficie apoyada en la curva , que se reduce a un


punto. El resultado de este límite no es el rotacional completo (que es un vector),
sino solo su componente según la dirección normal a   y orientada según la
regla de la mano derecha. Para obtener el rotacional completo deberán calcularse
tres límites, considerando tres curvas situadas en planos perpendiculares.

Fuente vectorial y escalar. Al campo vectorial, J, que se obtiene calculando el


rotacional de un campo F en cada punto,

J=∇ × F

Se conoce como las fuentes vectoriales de F (siendo las fuentes escalares las


que se obtienen mediante la divergencia).

Un campo cuyo rotacional es nulo en todos los puntos del espacio se


denomina irrotacional o se dice que carece de fuentes vectoriales. Y si está
definido sobre un dominio simplemente conexo entonces dicho campo puede
expresarse como el gradiente de una función escalar, o dicho de otra forma, el
campo deriva de un potencial:

Expresión en formas cartesianas.

Partiendo de la definición mediante un límite, puede demostrarse que la expresión,


en coordenadas cartesianas, del rotacional es

13
Que se puede expresar de forma más concisa con ayuda del operador nabla como
un producto vectorial, calculable mediante un determinante:

Debe tenerse muy presente que dicho determinante en realidad no es tal pues los
elementos de la segunda fila no tienen argumento y por tanto carecen de sentido.
Además dicho determinante sólo puede desarrollarse por la primera fila. En
definitiva, la notación en forma de determinante sirve para recordar fácilmente la
expresión del rotacional.

En la notación de Einstein, con el símbolo de Levi-Civita se escribe como:

Propiedades:

 Todo campo potencial (expresable como el gradiente de un potencial


escalar) es irrotacional y viceversa, esto es,

 Todo campo central (radial y dependiente sólo de la distancia al centro) es


irrotacional.
14
En particular, el campo electrostático de una carga puntual (y por
superposición, cualquier campo electrostático) es irrotacional.

 El rotacional de un campo vectorial es siempre un campo solenoidal, esto


es, su divergencia siempre es nula:

Ejemplos:

 En un tornado los vientos están rotando sobre el ojo, y un campo vectorial que


muestra las velocidades del viento tendría un rotacional diferente de cero en el
ojo, y posiblemente en otras partes (véase vorticidad).

 En un campo vectorial que describa las velocidades lineales de cada parte


individual de un disco que rota, el rotacional tendrá un valor constante en todas
las partes del disco.

 Si una autopista fuera descrita con un campo vectorial, y los carriles tuvieran
diversos límites de velocidad, el rotacional en las fronteras entre los carriles
sería diferente de cero.
La ley de Faraday de la inducción y la ley de Ampère-Maxwell, dos de
las ecuaciones de Maxwell, se pueden expresar muy simplemente usando el
rotacional. La primera indica que el rotacional de un campo eléctrico es igual a la
tasa de variación de la densidad del flujo magnético, con signo opuesto debido a
la Ley de Lenz; la segunda indica que el rotacional de un campo magnético es
igual a la suma de la densidad de corrientes y la derivada temporal de la densidad
de flujo eléctrico.

Un vector propio conjugado es un vector que tras la transformación pasa a ser


un múltiple escalar de su conjugado, donde el escalar recibe el nombre de valor
propio conjugado de la transformación lineal. Los vectores propios y valores
propios conjugados representan esencialmente la misma información y significado
que los vectores propios y valores propios, pero aparecen cuando se utiliza un
sistema de coordenadas alternativo. La ecuación correspondiente es:
Por ejemplo, en teoría de electromagnetismo disperso, la transformación
lineal A representa la acción efectuada por el objeto dispersor, y los vectores
propios representan los estados de polarización de la onda electromagnética.
En óptica, el sistema coordenado se define a partir del punto de vista de la onda, y

15
lleva a una ecuación de valor propio regular, mientras que en radar, el sistema
coordenado se define desde el punto de vista del radar, y da lugar a una ecuación
de valor propio conjugado.
Problema de valor propio generalizado
Un problema de valor propio generalizado (2º sentido) es de la forma
donde A y B son matrices. Los valores propios generalizados (2º sentido) λ
pueden obtenerse resolviendo la ecuación
El conjunto de matrices de la forma , donde  es un número complejo, recibe el
nombre de lápiz si B es invertible, entonces el problema original puede escribirse
en la forma que es un problema de valores propios estándar. Sin embargo, en la
mayoría de situaciones es preferible no realizar la inversión, y resolver el problema
de valor propio generalizado con la configuración original.
Si A y B son matrices simétricas con entradas reales, entonces los valores propios
son reales. Esto se aprecia tan fácilmente a partir de la segunda formulación
equivalente, pues la matriz no es necesariamente simétrica si A y B lo son.
La aplicación de moleculares orbitales expuesta más adelante proporciona un
ejemplo de este caso.
Entradas de un anillo
En una matriz cuadrada A con entradas de un anillo, λ recibe el nombre de valor
propio por la derecha si existe un vector columna x tal que Ax=λx, o un valor
propio por la izquierda si existe un vector fila no nulo y tal que yA=yλ.
Si el anillo es conmutativo, los valores propios por la izquierda son iguales a los
valores propios por la derecha y se les llama simplemente valores propios.

Otras propiedades de los valores propios


El espectro es invariante bajo transformaciones semejantes: las matrices A y P-
1
AP tienen los mismos valores propios para cualquier matriz A y cualquier matriz
invertible P. El espectro es también invariante a la trasposición de las
matrices: A y A T tienen los mismos valores propios.
Dado que una transformación lineal en espacios de dimensiones finitas
es biyectiva si y solo si es inyectiva, una matriz es invertible si y solo si cero no es
un valor propio de la matriz.
Otras consecuencias de la descomposición de Jordan son:

16
 una matriz es matriz diagonalizable si y solo si las multiplicidades geométrica y
algebraica coinciden para todos sus valores propios. En particular una
matriz n×n que tiene n valores propios diferentes es siempre diagonalizable;
 Dado que la traza, o la suma de elementos de la diagonal principal de una matriz
se preserva en la equivalencia unitaria, la forma normal de Jordan constata que es
igual a la suma de sus valores propios.
 De forma similar, dado que los valores propios de una matriz triangular son las
entradas de la diagonal principal su determinante es igual al producto de los
valores propios (contados de acuerdo con su multiplicidad algebraica).
Algunos ejemplos de la localización del espectro de ciertas subclases de matrices
normales son:

 Todos los valores propios de una matriz hermítica (A = A*) son reales. Además,


todos los valores propios de una matriz definida positiva son positivos;
 Todos los valores propios de una matriz antihermítica (A = −A*) son imaginarios
puros;
 Todos los valores propios de una matriz unitaria (A-1 = A*) tienen valor absoluto
uno;
Si A es una matriz m×n con m ≤ n, y B es una matriz n×m, entonces BA tiene los
mismos valores propios de AB más n − m valores propios nulos.
A cada matriz se le puede asociar una norma vectorial, que depende de la norma
de su dominio, el operador norma de una matriz cuadrada es una cota superior del
módulo de sus valores propios, y por tanto de su radio espectral. Esta norma está
directamente relacionada con el método de las potencias para calcular el valor
propio de mayor módulo. Para matrices normales, el operador norma (la norma
euclídea) es el mayor módulo entre de sus valores propios.

ESPACIOS DE DIMENSION INFINITA

Espectro de absorción de un átomo de calcio. Los picos corresponden, en teoría,


al espectro discreto (series de Rydberg) del hamiltoniano; la amplia estructura de
la derecha se asocia al espectro continuo (ionización). Los resultados
experimentales asociados se han obtenido midiendo la intensidad de los rayos
X absorbidos por un gas de átomos como función de la energía de incidencia de
los fotones en eV.

17
Si el espacio vectorial es de dimensión infinita, la noción de valores propios puede
generalizarse al concepto de espectro. El espectro es el conjunto de escalares λ
para el que , no está definido, esto es, tal que  no tiene inversa acotada.
Si λ es un valor propio de T, λ está en el espectro de T. En general, el recíproco no
es verdadero. Hay operadores en los espacios de Hilbert o Banach que no tienen
vectores propios. Por ejemplo, tómese un desplazamiento bilateral en el espacio
de Hilbert ; ningún vector propio potencial puede ser cuadrado-sumable, así que
no existe ninguno. Sin embargo, cualquier operador lineal acotado en un espacio
de Banach V tiene espectro no vacío. Elespectro deloperador T V → V se define
como no es invertible.
Entonces σ(T) es un conjunto compacto de números complejos, y es no vacío.
Cuando T es un operador compacto (y en particular cuando T es un operador
entre espacios finito-dimensionales como arriba), el espectro de T es igual que el
conjunto de sus valores propios.
En espacios de dimensión infinita, el espectro de un operador acotado es siempre
no vacío, lo que también se cumple para operadores adjuntos propios no
acotados. A través de su medida espectral, el espectro de cualquier operador
adjunto propio, acotado o no, puede descomponerse en sus partes absolutamente
continua, discreta, y singular. El crecimiento exponencial proporciona un ejemplo
de un espectro continuo, como en el caso anterior de la cuerda vibrante. El átomo
de hidrógeno es un ejemplo en el que aparecen ambos tipos de espectro.
El estado ligado del átomo de hidrógeno corresponde a la parte discreta del
espectro, mientras que el proceso de ionización queda descrito por la parte
continua.

CONCLUSIÓN

18
BIBLIOGRAFÍA
http://es.wikipedia.org/wiki/C%C3%A1lculo_tensorial

http://w3.mecanica.upm.es/mmc-ig/Apuntes/indices.pdf

http://es.wikipedia.org/wiki/Vector_propio_y_valor_propio

19
http://es.wikipedia.org/wiki/Divergencia_(matemática)

20

También podría gustarte