Trabajo de Algebra Lineal Informe

También podría gustarte

Está en la página 1de 7

República Bolivariana De Venezuela

Ministerio Del Poder Popular Para La Defensa


Universidad Nacional Experimental Politécnica
De La Fuerza Armada Nacional Bolivariana
Unefa- Núcleo Anzoátegui
Extensión -Puerto Piritu

Informe.
Profesor: Bachiller:
Darío Sigismondo Fernando Impiccini
Asignatura: C.I:23.653.385
Algebra Lineal Sección: 01
Semestre: II

Piritu, 14 de Febrero de 2013.


Definición de Vector Propio y Valor Propio

En álgebra lineal, los vectores propios, autovectores o


eigenvectores de un operador lineal son los vectores no nulos que,
cuando son transformados por el operador, dan lugar a un múltiplo
escalar de sí mismos, con lo que no cambian su dirección. Este
escalar λ recibe el nombre valor propio, autovalor, valor
característico o eigenvalor. A menudo, una transformación queda
completamente determinada por sus vectores propios y valores
propios. Un espacio propio, autoespacio o eigenespacio es el
conjunto de vectores propios con un valor propio común.

Polinomio Característico

En álgebra lineal, se asocia un polinomio a cada matriz cuadrada


llamado polinomio característico. Dicho polinomio contiene una
gran cantidad de información sobre la matriz, los más significativos
son los valores propios, su determinante y su traza.

Sea K un cuerpo (podemos imaginar K como el cuerpo de los reales


o de los complejos) y una matriz cuadrada A n-dimensional sobre K.
El polinomio característico de A, denotado por pA (t), es el
polinomio definido por

donde I denota la matriz identidad n-por-n. Algunos autores


definen el polinomio característico como det (t I-A); la diferencia es
inmaterial puesto que los dos polinomios únicamente se
diferencian por su signo.
Calculo del Vector Propio correspondiente a un Valor Propio

Matemáticamente, vλ es un vector propio y λ el valor propio


correspondiente de una transformación T si verifica la ecuación:

donde:

T (vλ) es el vector obtenido al aplicar la transformación T a vλ.


Supóngase que T es una transformación lineal (lo que significa que
para todos los escalares a, b, y los vectores v, w). Considérese una
base en ese espacio vectorial. Entonces, T y vλ pueden
representarse en relación a esa base mediante una matriz AT y un
vector columna vλ—un vector vertical unidimensional. La ecuación
de valor propio en esta representación matricial se representa de la
siguiente forma:

donde la yuxtaposición es un producto de matrices. Dado que en


esta circunstancia la transformación T y su representación matricial
AT son equivalentes, a menudo podemos emplear sólo T para la
representación matricial y la transformación. Esto es equivalente a
un conjunto de n combinaciones lineales, donde n es el número de
vectores de la base. En esta ecuación, tanto el autovalor λ y las n
componentes de vλ son desconocidos. Sin embargo, a veces es
poco natural o incluso imposible escribir la ecuación de autovector
en forma matricial.

Esto ocurre, por ejemplo, cuando el espacio vectorial es de


dimensión infinita, como por ejemplo en el caso de la cuerda
mostrada anteriormente. Dependiendo de la naturaleza de la
transformación T y el espacio al que se aplica, puede ser ventajoso
representar la ecuación de autovalor como un conjunto de
ecuaciones diferenciales, donde los autovectores reciben a menudo
el nombre de autofunciones del operador diferencial que
representa a T. Por ejemplo, la derivación
Misma es una transformación lineal, ya que (si f(t) y g(t) son
funciones derivables y a y b son constantes)

Considérese la diferenciación con respecto a t. Sus autofunciones


h(t) obedecen a la ecuación de autovalor:

donde λ es el auto valor asociado con la función. Una función en el


tiempo es constante si λ = 0, crece proporcionalmente a sí misma si
λ es negativa. Por ejemplo, una población ideal de conejos
engendra con más frecuencia a medida que hay más conejos, y por
tanto satisface la ecuación para lambda positivo.

La solución a la ecuación de valor propio es g (t) = exp (λt), la


función exponencial; pues esa función es una función propia del
operador diferencial d/dt con el valor propio λ. Si λ es negativa, la
evolución de g se denomina decaimiento exponencial; si es positiva
se denomina crecimiento exponencial. El valor de λ puede ser
cualquier número complejo.
El espectro de d/dt es entonces el plano complejo en su totalidad.
En este ejemplo el espacio vectorial en el que actúa d/dt es el
espacio de las funciones derivables de una variable.

Este espacio tiene una dimensión infinita (pues no es posible


expresar cada función diferenciable como combinación lineal de un
número finito de funciones base). No obstante, el espacio propio
asociado a un valor propio determinado λ es unidimensional. Es el
conjunto de todas las funciones g (t) = Aexp (λt), donde A es una
constante arbitraria, la población inicial en t=0.

Diagonalización. Matrices simétricas y ortogonales.

Matriz
Diagonalizable: Una matriz n x n es diagonalizable si existe una
matriz diagonal D tal que A es semejante a D.

Observación: Si D es una matriz diagonal, entonces los valores


propios son sus componentes en la diagonal. Si A es semejante a D,
entonces Ay D tiene los mismos valores propios. Uniendo estos dos
hechos se observa que si A es diagonalizable, entonces A es
semejante a una matriz diagonal cuyas componentes en la diagonal
son los valores propios de A.
El siguiente teorema establece cuando una matriz es
diagonalizable.

TEOREMA: Una matriz A de n x n es diagonalizable si y solo si tiene


n vectores propios linealmente independientes. En tal caso, la
matriz diagonal D semejante a A esta dada por
λ 1 0 … 0

0 λ2 0 … 0

0 0 λ3 … 0

D= . . . .

0 0 0 … λn

donde λ1, λ2,….. , λn son los valore propios de A. Si C es una matriz


cuyas columnas son vectores propios linealmente independientes
de A, entonces
D = C-1AC
Matriz Simétrica y ortogonal

Una matriz de elementos:

es simétrica, si es una matriz cuadrada (m = n) y aij = aji para todo i


distinto de j con i, j =1,2,3,4,...,n. Nótese que la simetría es respecto
a la diagonal principal y que A es también, la matriz traspuesta de sí
misma: At = A.
Ejemplo para n = 3:

Una matriz diremos que es ortogonal si su transpuesta coincide con


su inversa.
Bibliografía:

(2011, 01). Definición De Vector Propio Y Valor Propio. BuenasTareas.com.


Recuperado 01, 2011, de
http://www.buenastareas.com/ensayos/Definici%C3%B3n-De-Vector-Propio-
y-Valor/1466149.html

También podría gustarte