Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Los nmeros complejos son aquellos nmeros que estn compuestos por una parte real y
una imaginaria. Estos nmeros elaboran el concepto recta numrica 1-D hacia el plano
complejo 2D con la ayuda de una recta numrica para trazar la parte real del nmero y
para sumar el eje vertical a fin de mostrar la parte imaginaria. Por lo tanto, en naturaleza
los nmeros complejos contienen los nmeros reales extendidos, lo cual resulta til al
resolver un problema que podra ser difcil si utilizramos solamente los nmeros reales.
2). Suma y Resta: La suma al igual que la resta de nmeros complejos se realiza
sumando o restando las partes reales e imaginarias por separado. Esto es, para la suma:
. Aqu,
para los nmeros complejos. Euler us la frmula x + iy = r (cos + i sin ) y visualiz las
raz de zn = 1 como vrtices de un polgono regular. Defini el complejo exponencial, y
demostr la identidad ei = cos + i sin .
Caspar Wessel, un noruego, fue el primero en obtener y publicar una presentacin
adecuada de los nmeros complejos. Wess utiliz lo que conocemos hoy da como
vectores. El usaba la suma geomtrica de vectores (ley del paralelogramo) y defini la
multiplicacin de los vectores en los trminos que hoy llamamos adicin de los ngulos
polares y multiplicacin de las magnitudes.
Existe una gran cantidad de aplicaciones de los nmeros complejos, especialmente en la
industria elctrica donde la misma definicin de la fuente de corriente alterna se basa en
s en los nmeros complejos, ya que esta incluye una fase de campo que es un
componente angular.
Esto es, es posible observar que las partes correspondientes de los nmeros reales se
suman juntos y que se hace lo mismo con la parte imaginaria.
Examinemos un ejemplo para entender la operacin ms plenamente:
Imaginemos que debemos expresar (1 + 8i) + (4 + 5i) en forma compleja.
Entonces, sumando la parte real y la parte imaginaria por separado, obtenemos
(1 + 4) + (8 + 5) i
= 5 + 13i
Resta: La operacin de restar dos nmeros complejos x + yi y c + di puede expresarse
como:
(x + yi) - (c + di) = (x + c) - (y + d)i
Veamos un ejemplo de la resta de dos nmeros complejos:
Imaginemos que debemos expresar (1+ 8i) - (4 - 5i) en forma compleja.
Entonces, restando la parte real y la parte imaginaria separadamente, obtenemos
= (1 - 4) - (8 - 5)i
= 3 3i
Observando el diagrama de arriba debera aclararse todo el concepto anterior del clculo
del mdulo del nmero complejo. Con la simple aplicacin del teorema de Pitgoras en el
plano complejo, donde la hipotenusa es la distancia del nmero desde el origen y la parte
de la base real del nmero complejo, mientras que la altura es la parte imaginaria del
nmero complejo. Veamos ahora un ejemplo. Sea el nmero complejo dado como 3 + 4i,
entonces, calcule su valor absoluto. Sabemos que,
p1p2 + p1p3 + + p1pn + p2p3 + + p2pn + + pn1pn = (an-2/ an) p1p2p3 + p1p2p4 + + p1p2pn +
p1p3p4 + + p1p3pn + + pn-2pn-1pn = (-an-3/ an)
p1p2pn = (1)n (a0/ an)
El quito teorema establece que, una ecuacin polinmica que tiene nmeros reales como
los coeficientes de sus variables, no desaparece de forma idntica, y que poseen una raz
compleja deben tener tambin el conjugado de los nmeros complejos como una de sus
races.
De acuerdo con el sexto teorema, una ecuacin polinmica que tiene nmeros racionales
como coeficientes de sus variables, no desaparece de forma idntica, y poseen una raz
irracional que debe tambin tiene su inverso como una de sus races. Tomemos, por
ejemplo, si una de las races de la ecuacin polinmica es entonces es tambin su raz.
Por el sptimo teorema, si para un polinomio, tenemos un nmero racional (k/ ) como las
races entonces el trmino k debe dividir el coeficiente a0 y el trmino debe dividir el
coeficiente an.
Finalmente, el octavo teorema establece que, si para un polinomio, tenemos un entero
como raz, entonces tal raz debera dividida el coeficiente a0.
A=
yB=
A+B=
Duplicando A, tenemos
2A =
La matriz m n, donde todas sus entradas son iguales a cero, se denomina matriz nula.
Si O es la matriz nula m n y A es cualquier matriz m n, entonces A + O = A. As O es la
identidad aditiva de la suma de matrices. Ahora que la identidad aditiva de la suma de
matrices est definida, podemos observar que la matriz -A es el inverso aditivo de A, en el
sentido que A + (-A) = (-A) + A = O.
Una matriz columna es llamada sencillamente un vector. El conjunto de todas las matrices
columna n 1 (o vectores) se denota por Rn.
Despus que una matriz est expresada en forma reducida, se puede leer en su rango (el
nmero de filas nulas). Un sistema no homogneo tiene solucin si y slo si su matriz el
coeficiente de su matriz aumentada y el coeficiente de la matriz tienen el mismo rango.
Existe una solucin nica si y slo si la coeficiente de su matriz aumentada y el
coeficiente de la matriz tienen el mismo rango y el rango es el nmero de incgnitas.
Los determinantes tienen una larga historia en las matemticas porque dan una expresin
explcita para la solucin de un sistema no singular de n ecuaciones con n variables. El
determinante de una matriz cuadrada A es un escalar fundamental asociado a A, con una
larga historia matemtica. El primer encuentro de muchos estudiantes con este fue con la
regla de Cramer, que tiene como un caso especial, la frmula para el inversa de A. El
determinante parece haber aparecido en un artculo que Leibniz public, en 1683, y desde
entonces ha tenido una larga y distinguida lista de aplicaciones.
Sea F denotado como un campo arbitrario, y asume que A Fnn. A es un det escalar (A) F
denominado determinante de A. Este escalar tiene una serie notable de propiedades .
1). det (AB) = det (A) det (B), y
2). det (In) = 1.
Ms an, si E es una matriz elemental, entonces:
Incluso podemos utilizar parntesis en lugar de corchetes para denotar una matriz.
Casi todas las operaciones bsicas pueden realizarse en matrices. Sin embargo, estas
operaciones requieren comprobar el orden de la matriz ya que las matrices de rdenes
diferentes, no puede ser trabajadas, por ejemplo en las operaciones de suma y de resta.
Sin embargo, la operacin de multiplicacin es una excepcin, ya que para multiplicar dos
matrices tenemos que tener el vector fila de la primera matriz igual al vector columna de la
segunda matriz y el vector columna de la primera matriz igual al vector fila de la segunda.
Por lo tanto, el orden de la matriz representa el tamao de su vector fila y su vector
columna. En el caso que una matriz contenga m elementos en sus vectores fila y n
elementos en sus vectores columna surge una matriz de orden m x n, esto es la matriz
representada como, Filas x Columnas.
Tambin es posible calcular el inverso de una matriz dada. El inverso de una matriz tiene
el vector fila igual al vector de la columna de la matriz actual y el vector columna igual al
vector fila de la matriz actual. El inverso de una matriz A no singular se representa por
A1 y es igual a (adj A/ | A |).
Pueden existir muchos elementos en una matriz. Cada elemento de una matriz tiene una
identificacin nica y se identifica con la ayuda de su respectivo vector y vector columna.
Usualmente indicamos una matriz con la ayuda de las letras maysculas, mientras que las
letras minsculas y los dgitos se utilizan para representar la entrada individual de la
matriz.
Una matriz del orden m x n se dice que tiene rango r si,
1. Tiene al menos uno de orden r menor de cero.
2. Todos los otros menores de orden mayor que r, en su caso, son iguales a cero.
Obviamente, el rango de la matriz A de orden m x n es menor o igual a m o n o ambas. El
orden ms grande de A que no es menor cero, determina el rango de la matriz. El rango
de una matriz se denota (A). Una matriz se dice que es de forma escalonada si,
1. En cada fila de la matriz A, en la cual todas sus entradas se producen por debajo de la
fila la cual es una entrada no cero.
2. El primer elemento de cada fila que sea diferente de cero es igual a uno.
3. El nmero de ceros anteriores al primer elemento distinto de cero de cada fila es menor
que el nmero de ceros de la siguiente fila.
Por ejemplo:
2). Matriz fila: Una matriz que tiene una fila y n columnas, se dice que es una matriz fila.
Esta matriz es del tipo 1 x n.
Por ejemplo:
3). Matriz Cuadrada: Una matriz en la cual el nmero de columnas es igual al nmero de
filas, se conoce como una matriz cuadrada. Una matriz de orden n es aquella que tiene n
filas y n columnas. La propiedad aceptada en la matriz cuadrada es que dos o ms
matrices cuadradas de orden idntico, pueden multiplicarse, sumarse y restarse.
Por ejemplo:
4). Matriz diagonal: En una matriz cuadrada, los elementos para los cuales i = j, se
denominan elementos diagonales. Una matriz cuadrada donde cada elemento, excepto
los elementos diagonales, son iguales a cero, es llamada matriz diagonal. La matriz
diagonal se denomina a veces matriz diagonal rectangular.
Por ejemplo:
5). Matriz identidad o unidad: Se dice que una matriz es la matriz identidad o unidad, si
cada elemento de la diagonal principal de la matriz particular es 1. La matriz identidad
generalmente es denotada por I. Este tipo de matriz tiene la siguiente propiedad:
AI = A y IA = A
Por ejemplo:
6). Matriz cero o nula: Se trata de una matriz en la cual cada elemento es igual a 0. Se
representa como 0. Si O es la matriz cero m n y A es cualquier matriz m n, entonces
A + O = O A. En consecuencia O es la identidad aditiva de la suma de matrices.
Por ejemplo:
7). Matriz simtrica: Una matriz simtrica se refiere a la matriz cuadrada cuyo valor es
igual al transpuesto de la matriz. Es decir, .La simetra de la diagonal simtrica est
relacionada con la diagonal principal. Por otra parte, toda matriz diagonal es simtrica.
Por ejemplo:
8). Matriz asimtrica: La matriz asimtrica tambin es conocida como matriz antimtrica o
antisimtrica. Se trata de una matriz cuyo valor de transposicin es negativo de su valor.
Es decir,
A = -AT.
Estos ocho tipos son la base de la clasificacin de las matrices. Estos pueden utilizarse
para generar una clasificacin ms precisa. Sin embargo, el concepto bsico y el mtodo
de operacin en las matrices son idnticos en todas las clasificaciones.
Podemos obtener la matriz cuadrada de una matriz, tomando, una parte de la matriz r x r
de la matriz dada. Y llamamos a sus determinantes filas menores de r para la matriz de
entrada. Entre todas las submatrices, el determinante que tenga el valor ms alto distinto
de cero, y que tambin es la submatriz ms grande para la matriz dada, puede determinar
el rango de la matriz dado que su orden igual al rango de la matriz actual.
Esto significa que no podemos tener un rango de tres as que intentemos con la submatriz
de orden dos, la cual da el rango de la matriz actual,
Tenemos dos formas de encontrar el inversa de una matriz, tal que BA = In. La primera es
simplemente multiplicar la secuencia de matrices elementales, lo cual reduce la fila A.
Esto no es tan malo como parece, ya que la multiplicacin de matrices elementales es
esencial. El segundo mtodo consiste en formar la matriz aumentada (A | In) y la fila
reducir. El resultado final ser de la forma (In | B).
A=
Dado que slo tenemos que resolver la ecuacin matricial XA = I3, podemos reducir la fila
(A | I3).
|A| =
= ad bc
matriz
ahora, convertimos la matriz en una matriz triangular mediante
la aplicacin de algunas operaciones elementales. Multipliquemos los valores de la
primera fila con la mitad y summoslos con los valores de segunda fila. Con esto,
obtenemos
Aqu usamos una de las propiedades del determinante la cual establece que el
determinante de la matriz triangular es el producto de los valores de la diagonal del
tringulo.
Por lo tanto,
|A| =
representa el cuadrado en el plano 2D. El rea y el determinante de la
forma particular es 1.
Toda matriz tiene un valor asociado con el lgebra lineal. Este valor es denominado
determinantes. Los Determinantes tienen una aplicacin en casi todos los conceptos de
las Matemticas. El clculo del determinante puede hacerse para los valores de las filas y
las columnas de una matriz, con la ayuda de expresiones aritmticas.
Las propiedades de los determinantes nos ayudan a simplificar el clculo de los
determinantes de cualquier orden, tomando el nmero mximo de ceros en una fila o una
columna.
De acuerdo con la primera propiedad de los determinantes, el valor de los determinantes
se mantiene constante si sus filas y columnas son intercambiadas.
La segunda propiedad de los determinantes establece, que si el final de las dos filas de un
determinante se intercambia, entonces la suma de los determinantes cambia, o podemos
decir que el valor del determinante se multiplica por el signo de menos. Del mismo modo,
esta propiedad es cierta para dos columnas. As que podemos decir que el valor de los
determinantes cambia cuando el final de las dos columnas de un determinante cambia.
Otra propiedad establece, que si cada elemento de la fila o la columna de los
determinantes se multiplica por la constante k, entonces su valor es multiplicado por k.
Esta propiedad te ayuda a comprobar que los factores comunes de todos los elementos
de cualquier fila o columna pueden colocarse antes que el determinante.
La siguiente propiedad establece que si el final de las dos filas los determinante son
iguales, entonces todos los elementos correspondientes de las dos filas son iguales, por
lo que el valor del determinante es 0. Del mismo modo, si cualquiera de las dos columnas
de los determinantes es idntica, es decir, que todos los elementos correspondientes de
las dos columnas son iguales, entonces el valor de los determinantes tambin viene
siendo 0.
Las dos propiedades anteriores nos ayudan a probar que si los elementos
correspondientes de las dos filas son proporcionales, entonces el valor del determinante
es 0. Del mismo modo, cuando los elementos correspondientes de las dos columnas son
proporcionales, entonces el valor de nuevo viene siendo 0.
Si la suma de todos los elementos de las filas del determinante se expresan como la
suma de dos o ms trminos, entonces el determinante puede expresarse como la suma
de dos o ms determinantes. Del mismo modo, si la suma de todos los elementos de la
columna del determinante se expresa como la suma de dos o ms trminos, en este caso,
los determinantes pueden expresarse tambin como la suma de dos o ms
determinantes.
El valor del determinante no cambia si los elementos de una fila son alterados al
agregarles un mltiplo constante de los elementos correspondientes en cualquier otra fila.
Del mismo modo, el valor del determinante no cambia si los elementos de una columna se
alteran mediante la adicin de un mltiplo constante de los elementos correspondientes
en cualquier otra columna.
Veamos un ejemplo. Supongamos que queremos saber el valor de la
matriz
ahora, convirtamos la matriz en una matriz triangular aplicando
algunas operaciones elementales. Vamos a multiplicar los valores de la primera fila con
y smalos con los valores de la segunda fila. Con esto, obtenemos
Aqu utilizamos una de las propiedades del determinante en la cual se establece que el
determinante de la matriz triangular es el producto de los valores de la diagonal del
tringulo.
Por lo tanto,
La barra en la parte derecha denota la operacin como una escalar del conjugado
complejo. Aqu AH es la matriz hermtica de la matriz actual. Ahora, la matriz dada puede
ser de la forma de una matriz fila o de una matriz columna o una matriz cuadrada o
cualquier otra cosa. Aqu nos concentraremos en el caso de que la matriz dada sea una
matriz cuadrada. Entonces,
Ahora, invierte la parte imaginaria de cada uno de los elementos de la matriz anterior, es
decir, realiza la operacin del conjugado complejo de los elementos de la matriz anterior.
La matriz resultante es representada como,
Ejemplo: Un importador de globos los importa de dos colores, naranja (N) y fresa (F).
Todos ellos se envasan en paquetes de 2, 5 y 10 unidades, que se venden al precio (en
euros) indicado por la tabla siguiente:
Nos piden que organicemos la informacin anterior en dos matrices de tamao concreto.
Si nos jamos en las tablas, es sencillo obtener las matrices:
Otras matrices son las llamadas matrices de relacin, que indican si ciertos elementos
estn o no relacionados entre s. En general, la existencia de relacin se expresa con un 1
en la matriz y la ausencia de dicha relacin de expresa con un 0.
Estas matrices se utilizan cuando queremos trasladar la informacin dada por un grafo y
expresarla numricamente.
Relacionadas con los grafos se pueden denir algunas matrices. Entre todas ellas,
nosotros nos jaremos en la llamada matriz de adyacencia, que es aquella formada por
ceros y unos exclusivamente, de tal forma que:
un 1 en el lugar (i,j) expresa la posibilidad de ir desde el punto de la la i hasta el punto de
la columna j mediante una linea que los una directamente.
un 0 en el lugar (i,j) expresa la imposibilidad de ir del primer punto al segundo mediante
una linea que los una directamente.
La matriz de adyacencia del grafo dirigido de la gura anterior ser:
Aqu tenemos A como una matriz de dos dimensiones con los trminos del coeficiente B
como el vector columna de una sola dimensin de trminos constantes y X como la matriz
de dos dimensiones de los trminos variables. Incluso en algunos casos todas las
ecuaciones pueden ser unidimensionales teniendo solamente las mismas variables.
Algunos matemticos incluso presentan un conjunto de la matriz de los coeficientes y la
matriz constante, el cual es la matriz A y B. Esto no marca ninguna diferencia, sin
embargo estos slo son los diferentes mtodos de representacin.
Existen tres tipos de sistemas de ecuaciones lineales posibles, los cuales dependen del
punto de interseccin de la ecuacin lineal en un determinado sistema de ecuacin. Estos
son:
1. Inconsistente independiente: Si las ecuaciones del sistema dado vienen a ser las
mismas rectas que difieren en su pendiente, entonces tal sistema de ecuaciones lineales
es llamado consistente y dependiente. Este sistema de ecuaciones lineales no
proporciona una solucin dado que todas las rectas son paralelas entre s y no pueden
cumplir con los dems, incluso si se extiende hasta el infinito, por lo que nunca se obtiene
un punto de interseccin, y por tanto, no puede obtenerse ninguna solucin.
Al resolver el sistema de ecuaciones obtenemos una solucin nica para cada una de las
tres variables como x = 3, y = 1 y z = 2
slo puede suceder si todas las rectas son la misma recta, ya que es en este escenario
que se superpondrn unas con otras dndonos puntos infinitos de interseccin, es decir,
infinitas soluciones. Este sistema es llamado sistema de ecuaciones lineales consistente
dependiente. Grficamente podemos representarlo como,
Ya sabemos que en el caso de una sola recta, todos los puntos que intersecten con esa
recta son llamados solucin de la ecuacin, sin embargo al tratar con un sistema de
ecuaciones, la situacin es diferente. En tal situacin para que un punto sea la solucin
del sistema de ecuacin dado, necesita estar sobre cada recta definida en el sistema de
ecuacin dado. Por lo tanto, si nos fijamos en el diagrama siguiente,
el punto resaltado con color rojo no puede considerarse como una solucin, ya que no se
encuentra en ninguna de las rectas definidas en el sistema de ecuaciones.
Tampoco podemos considerar el punto resaltado en color azul como la solucin, ya que
se encuentra en una sola recta y no en la otra, por lo tanto, puede considerarse como la
solucin para la recta y =-x - 6, pero no la del sistema dado.
lineales hacia la forma triangular o degenerando las ecuaciones correspondientes con una
solucin zilch. Para ello, el algoritmo de Gauss usa las operaciones elementales de fila.
Luego, con la ayuda de una solucin de sustitucin hacia atrs se crea el sistema
correspondiente.
Otro mtodo, la eliminacin Gauss-Jordan es un mtodo que hace uso de las operaciones
elementales de fila para obtener matrices en forma de una forma escalonada reducida.
Una matriz es llamada de forma escalonada si contiene 0 en cada pivote. La eliminacin
de Gauss-Jordan ubica el 0 tanto abajo como encima del pivote. Y por este motivo, este
tipo de matrices son conocidas como de forma escalonada reducida. En caso el que
Gauss-Jordan sea empleado en una matriz de origen cuadrado, entonces se puede
utilizar para encontrar el inverso de la matriz.
El inverso de la matriz es otro mtodo simple y fcil de usar para encontrar la solucin del
sistema de ecuaciones lineales. En este mtodo, hay algunos pasos a seguir. Estos son:
Paso 1: Marque las ecuaciones en forma de multiplicacin de matriz con las variables una
como matriz o y el otro como coeficiente.
Paso 2: Calcula el inverso de los coeficientes de matriz correspondientes.
Paso 3: Ahora, multiplique el coeficiente inverso de la matriz con ambos lados de la
ecuacin formada en el paso 1.
Paso 4: Cuando soluciones la multiplicacin de la matriz, puedes obtener la solucin.
La Regla de Cramer es otro mtodo basado en una frmula sencilla para encontrar la
solucin del sistema de ecuaciones lineales. Este mtodo se apoya en un hecho simple
en el cual el valor de la variable de todos y cada uno puede determinarse tomando en
cuenta el cociente de dos determinantes. Con el fin de entenderlo, vamos a ver un
sistema de ecuaciones lineales con tres ecuaciones:
x + 3y 2z = 5 3x + 5y + 6z = 7 2x + 4y + 3z = 8
El valor de la variable puede obtenerse por:
Es posible observar que el denominador est dado por los determinantes de los
coeficientes de matriz, mientras que el numerador est elaborado a partir del
determinante de esa matriz, en la cual 1 de las columnas fue intercambiada por un vector
constante o en otras palabras trmino constante.
4. Identidad aditiva: todo espacio vectorial contiene un vector nulo que es un vector cero,
lo que se denomina como la identidad aditiva, de tal manera que su suma con cualquiera
de los vectores en el espacio vectorial, no cambia el vector real, que es 0 + x = x.
5. Inverso aditivo: Para todos los vectores de un espacio vectorial determinado, existe un
vector inversa disponible en el mismo espacio de tal manera que la suma de los dos
vectores nos da un vector cero, en consecuencia si tenemos un vector x en el espacio
vectorial entonces debemos tambin tener un vector -x del mismo vector en el espacio.
Propiedades escalares de la multiplicacin:
Una multiplicacin escalar es aquella en la que se multiplica un vector con cualquier
cantidad escalar, que consiste en multiplicar la cantidad que contiene una direccin con
una cantidad sin direccin.
1. Propiedad de operacin interna: Si tenemos un vector x en un espacio vectorial dado y
un nmero real, entonces decimos que el vector resultante de la multiplicacin escalar de
estas dos cantidades, debe existir tambin dentro del mismo espacio vectorial.
2. Propiedad distributiva: Si se tiene los vectores x y y en un espacio vectorial V y un
nmero real, entonces la operacin de a. (x + y) es equivalente a ax + ay.
3. Propiedad distributiva: Si hay un vector x en un espacio vectorial V y un nmero real a y
b, la operacin (a + b) x es equivalente a ax + bx.
4. Propiedad asociativa: Si hay un vector x en un espacio vectorial V dado y un nmero
real a y b, entonces la operacin a. (bx) es equivalente a (ab) x.
5. Propiedad unitaria: La multiplicacin de cada vector en un espacio vectorial dado con
una cantidad de unidas escalar dar como resultado al vector actual.
Aqu v es un vector que yace en el espacio vectorial dado y los vectores n representados
como v-1, v2, v3 vn forman parte de la base del espacio vectorial dado.
Existen numerosos ejemplos de la base de un espacio vectorial. Imagina tres dimensiones
las cuales constan de dos vectores. Imagina que estos vectores no son planos. El plano
definido con la ayuda de estos dos vectores slo formar una base para los espacios
tridimensionales actuales. Esto es porque si definimos una combinacin lineal con la
ayuda de estos dos vectores, entonces este se encontrara definitivamente dentro el plano
mismo e inversamente tambin es posible expresar un vector dentro del plano como una
combinacin lineal de ambos. Ahora extendamos esta definicin para formar la base de la
definicin de la dimensin del espacio vectorial. Imaginemos que tenemos un espacio
vectorial V y sea S la base de este espacio vectorial. Ahora coloquemos un nmero
limitado de vectores en la base de espacio vectorial S, entonces definiramos este espacio
vectorial dado como un espacio vectorial de dimensin finita y la dimensin real se
que tenemos otra base S, que contiene los elementos de la forma w1, w2, w3
wn. Aqu v1 = w1, entonces
Tambin podemos afirmar lo definido de una manera inversa diciendo que si S es un
subconjunto ortonormal de V que consiste en vectores no cero, entonces podemos decir
que S es linealmente independiente.
Si tenemos S como base ortonormal para cualquier producto escalar de un espacio
vectorial, entonces por cada elemento en el espacio vectorial dado tenemos
Aqu x es un vector en el espacio vectorial dado y los coeficientes [x, vi] son llamados
coeficientes de Fourier. Un punto digno de mencin es que todos los productos de los
espacios vectoriales que tienen tamao finito, tienen esencialmente una base ortonormal.
Existen dos espacios fundamentales que estn asociados a una transformacin lineal: su
kernel ker(T) y su imagen im(T). El kernel y la imagen de una transformacin lineal T
corresponden con el espacio nulo y el espacio de la columna de cualquier matriz que
represente a T.
En un sistema lineal, el nmero de variables es igual al nmero de variables libres ms el
nmero de variables angulares, quedando una transformacin lineal final T: V W en la
identidad dim V = dim ker(T) dim im(T). Si dim ker(T) = 0 y dim im(T) = dimW, entonces t
esta sobre y uno a uno. En este caso, esto se denomina un isomorfismo.
i. T(0) = T(0 + 0)= T(0) + T(0). As 0= T(0) T(0) = T(0) + t(0) T(0) = T(0)
ii.T(u-v) = T[u + (-1)v] = Tu + T[(-1)v] = Tu + (-1)Tv = Tu Tv.
iii.Esta parte se prueba por induccin (vea el apndice 1). Para n = 2 se tiene
T(1v1 + 2v2) = T (1v1) + T(2v2) = 1Tv1 + 2Tv2. As, la ecuacin (1) se cumple
para n = 2. Se supone que se cumple para n = k y se prueba para n=k + 1: T(1v1 +
2v2+ .+ kvk+k+1vk-1 ) = T(1v1 + 2v2+.+kvk) + T(k+1vk+1), y usando la
ecuacin en la parte iii para n= k, esto es igual a (1Tv1 + 2Tv2+.kTvk) + k+1Tvk+1,
que es lo que se quera demostrar. Esto completa la prueba.
Observacin. Los incisos i) y ii) del teorema 1 son casos especiales del inciso iii). Un dato
importante sobre las transformaciones lineales es que estn completamente determinadas
por el efecto sobre los vectores de la base.
Teorema 2
Sea v un espacio vectorial de dimensin finita con base B= {v1,v2,.vn}.
Sean w1,w2,.wn vectores en W. Suponga que T1y T2 son dos transformaciones lineales
de V en W tales que T1vi = T2vi = wi para i = 1, 2,,n. Entonces para cualquier vector v
v, T 1v = T2v; es decir T1 = T2.
Como B es una base para V, existe un conjunto nico de escalares 1, 2,., n. Tales
que v = 1v1 + 2v2 + + n vn.
Entonces, del inciso iii) del teorema 1, T1v = T1(1 v1 + 2v2 + + nvn)
= 1T2v1 + 2T2v2 + + nTnvn= 1w1 + 2w2 ++ nTnvn
El teorema 2 indica que si T:v W y V tiene dimensin finita, entonces slo es necesario
conocer el efecto que tiene T sobre los vectores de la base en V. Esto es, si se conoce la
imagen de cada vector bsico, se puede determinar la imagen de cualquier vector en V.
Esto determina T por completo. Para ver esto, sean v1, v2,.vn una base en V y sea v
otro vector en V. Entonces, igual que en l aprueba del teorema 2, Tv = 1Tv1 + 2Tv2 +
+ nTvn
Solucin. Se tiene
Entonces
Sean V y W dos espacios vectoriales y sea T:V W una transformacin lineal. Entonces
Demostracion
i.Sean u y v en un T; Entonces T(u + v) = Tu + Tv =0 + 0 =0 y T( ) = = 0 = 0 de forma que
u + v y u estn en un T.
ii. Sean w y x en Im T. Entonces w = Tu y x = Tv para dos vestores u y v en V. Esto
significa que T(u + v)= Tu + Tv = w + x y T(u) = Tu =w. Por lo tanto, w + x y w estn
en Im T.
Definicin 2
A = CA, v(T) = v(A) y p(T) = p(A). Entonces se ve que las definiciones de ncleo, imagen,
nulidad y rango de una transformacin lineal son extensiones del espacio nulo, la imagen,
la nulidad y el rango de una matriz.
de W. Ahora definimos la matriz MBB (T) de T con respecto a estas bases. Puesto que B0
es una base de W, cada T (vj) puede escribirse nicamente como
T(v j) =
Por lo tanto la matriz de T, en definitiva, con respecto a las bases B y B0 se define como
la matriz MBB (T) = (cij ) m n . Lo qu dice esta definicin es que la columna jth de la
matriz MBB(T) es el vector columna formado por los coeficientes de T(vj) con respecto a
la base B0? Uno puede expresar el trmino anterior en forma matricial mediante
(T(v1) T(v2) T(v n)) = (w1 w2 wm)MBB (T).
Es importante tener en cuenta que si V = Fn, W = Fm y T = TA, donde A Fmn, entonces
MBB(T) = A si B y B0 son las bases estndares. De TA (ej) es siempre la columna jth de
A.
Ahora, sea V el espacio de polinomios reales de al menos tres grados, y W el espacio de
polinomios reales de a lo sumo dos grados. Entonces, la diferenciacin es una
transformacin lineal D: V W. Ahora
D (ax3 + bx2 + cx + d) = 3ax2 + 2bx + c.
Sea B la base {1, x, x2, x3} de V y B0 la base {1, x, x2} de W. Ahora,
D (1) = 0, D(x) = 1, D(x2) = 2x, D(x3) = 32.
As
MBB(D) =
Ahora bien, supongamos que T: V V es una transformacin lineal diagonalizable (o
semi-simple). Recordemos que esto significa que existe una base B = {v1, v2. . . vn} de V
tal que (vi) = vi para cada ndice i entre 1 y n. Por lo tanto, B es una base propia de V para
T. En este caso, MBB (T) es la matriz diagonal.
Pero, Qu es la matriz de T con respecto a alguna otra base B0 de V? El primer paso
para responder a esta pregunta es encontrar cmo relacionar las expansiones de un
vector dado de V con respecto a dos bases distintas. Esto por s solo constituye un
concepto diferente y ms amplio que necesita de un conocimiento muy superior y ms
profundo de las matemticas.
dados con un trmino escalar hacia la direccin donde tiene que ser expandido. Sea para
un punto (2, 3) si el grado de expansin 2 es la direccin de y, entonces el nuevo punto
obtenido es (2, 6).
3. Contraccin: La contraccin es el procedimiento inverso de la expansin. Aqu el punto
es contrado en un determinado grado hacia una direccin dada. Sea el punto de entrada
(4, 8) y este debe ser contrado para el grado dos en la direccin de x entonces el nuevo
punto resulta ser (2, 8).
4. Rotacin: El trmino rotacin tiene dos significados, ya la rotacin de un objeto puede
ser realizada con respecto al eje dado o al eje mismo. La rotacin se realiza para un cierto
grado el cual es expresado en forma de un ngulo. Asimismo, la rotacin puede realizarse
en la direccin de las manecillas del reloj, o inverso a las manecillas del reloj.
Como ejemplo, dirijmonos a producir la matriz estndar para la representacin de la
transformacin lineal reflejando un conjunto de puntos en el plano x-y a travs de la recta
y = (2x / 3).
Esto produce,
De manera similar, la imagen del vector base resulta ser