Está en la página 1de 23

UNIVERSIDAD DEL CENTRO

DE VERACRUZ

QUIMÍCO FÁRMACOBIÓLOGO

INVESTIGACIÓN

MATERIA. ÁLGEBRA

DOCENTE. ARGELIA

GARCIA UNIDAD V-VI.

1A

Integrantes: Estefania Contreras


Ramón María Arisbeth Hernández
Lucas Víctor Manuel Isidoro
Fernández Prisca Shaiel Martínez
Dominguez Montserrat Rosado
Hernández Estephanie Mayleth Ruíz
Rodríguez
INDICE

5.1 DEFINICION DE UNA TRANSFORMACION


(APLICACIÓN LINEAL).

5.2 PROPIEDADES DE LAS TRANSFORMACIONES LINEALES.

5.3 NÚCLEO (KER) E IMAGEN DE UNA TRANSFORMACION LINEAL.

5.4 MATRIZ ASOCIADA A UNA TRANSFORMACION LINEAL


Y REPRESENTACION DE UNA TRANSFORMACION LINEAL.

5.5 TRANSFORMACION LINEAL INVERSA.

VI. CALORES CARACTERISTICOS, FORMAS CUADRATICAS Y


VECTORES CARACTERISTICOS.

6.1 VALORES Y VECTORES CARACTERISTICOS.

6.2 POLINOMIO CARACTERISTICO Y ECUACION CARACTERISTICA.

6.3 DIAGONALIZACION DE UNA MATRIZ n x n.

6.4 FORMAS CUADRATICAS Y CANÓNICAS.

6.5 TEOREMA DE CAYLEY-HAMILTON.


5.1 DEFINICION DE UNA TRANSFORMACIÓN (APLICACIÓN LINEAL)

Una transformación lineal es una función o aplicación lineal cuyo


dominio y codominio son espacios vectoriales, en lugar de los números
reales como es el caso de las funciones en el campo real. Por supuesto
esta tiene que cumplir con ciertas propiedades, pero siempre sobre los
espacios vectoriales.
A las transformaciones lineales también se les llama operaciones
lineares. Una transformación lineal es entonces, una función entre dos
espacios vectoriales que preserva las operaciones de espacio vectorial,
es decir, el conjunto de llegada (codominio o imagen) de la suma de los
2 vectores del dominio (conjunto de salida) es la suma de las imágenes
de cada uno de los vectores y la imagen del producto del vector por el
escalar. La transformación lineal es una definición entre espacios
vectoriales, es decir, el objetivo es transformar un espacio vectorial en
otro. Para enseñar una transformación lineal usaremos F (v)=W, son los
espacios vectoriales que actúan sobre un mismo campo. A las
transformaciones lineales las llamaremos aplicación lineal.
Una aplicación entre conjuntos A y B es una regla que permite asignar a
cada elemento de A, uno de B. La aplicación de f del conjunto A en el
conjunto B si indica mediante f: AB. El conjunto A se llama conjunto
inicial, y el conjunto B final. Si la aplicación f asigna al elemento a E A
el elemento b E B, diremos que b es la imagen de a, lo que se denota
por f(a)=b. la regla ha de estar inequívocamente definida, de modo que
para todos y cada uno de los elementos de A, este claro que elemento
de B es su imagen.
Una función T: V -› W (de un espacio vectorial V en un espacio vectorial se
dice una transformación lineal si, para todo a, b i v,
ki K (K es el cuerpo de escalares) se
tiene: T (a + b) = T (a) + T (b)
T (ka) = k T (a)

Que se puede resumir en T (a a + b b) = a T (a) + b T (b), llamada


propiedad de linealidad.
Si T: V ® W es una transformación lineal, el espacio V se llama dominio
de T y el espacio W se llama
codominio de T.
5.2 PROPIEDADES DE LAS TRANSFORMACIONES LINEALES

Las transformaciones lineales son herramientas algebraicas usadas para


darle una representación alternativa a los sistemas de ecuaciones
lineales. Esto nos permite obtener las propiedades de las
transformaciones lineales que son: el núcleo, la nulidad, la imagen y el
rango. Estas propiedades dependen únicamente de la matriz de
transformación AT o equivalentemente de la matriz de coeficientes del
sistema de ecuaciones lineales. Por lo tanto, una transformación lineal y
sus propiedades son generales, ya que dependen únicamente del
proceso modelado por el sistema de ecuaciones lineales y no por
condiciones específicas establecidas para dicho proceso a través de los
términos independientes.
Propiedades
• Para toda transformación lineal T: V ® W, T (-x) = -T (x).

• Para toda transformación lineal T: V ® W, T (0) = 0 (El que aparece en la


izquierda es el vector nulo de V, mientras que el que aparece en el lado
derecho es el vector nulo de W. Se puede escribir también T (0V) = 0W ).
• Sea V un espacio vectorial de dimensión finita, W un espacio vectorial,
{v1..., vn} una base de V, y {z1..., zn} un conjunto cualquiera de
vectores de W. Entonces existe una única transformación lineal T: V ®
W tal que T
(vi) = zi (1 ≤ i ≤ n).
Las operaciones con transformaciones lineales tienen propiedades como
la asociatividad de la suma, conmutatividad de la suma, idéntico aditivo
propiedad distributiva de la suma, de transformaciones lineales
respecto multiplicación escalar, propiedad distributiva de la suma de
escalares respecto a la multiplicación de una transformación lineal por
un escalar, propiedad pseudo-asociativa, idéntico multiplicativo de
campo, etc.
5.3 NÚCLEO (KER) E IMAGEN DE UNA TRANSFORMACIÓN LINEAL

La imagen de una transformación lineal (im T) se denota con la siguiente


fórmula:

Im T = (w e W: w = Tv para alguna v e V}

Esto significa que: la imagen es el conjunto de vectores (w) que


pertenecen a un espacio vectorial (W); donde cada uno de ellos es
igual a la transformación lineal de un vector (v) que pertenece a
otro espacio vectorial (V).
Núcleo
El núcleo es una transformación lineal (nu t) se denota con la
siguiente fórmula:
nu T= {ve V: Tv = 0)

Por lo tanto, el núcleo es el conjunto de vectores de un espacio


vectorial, tal que sus transformaciones lineales sean igual a cero.
Ejemplo:
Poseemos la siguiente transformación lineal:

Se llama también operador de proyección de R3 en plano xy.


Para obtener la imagen tenemos que encontrar vectores que sean
iguales en ambos lados de la transformación:
En este caso, cualquier vector que tenga z= 0 dejará ambos vectores
(v1, v2) iguales.
Por lo tanto, la imagen del operador de proyección del espacio R3 en
el plano xy equivale al conjunto de vectores X, Y, Z, tal que Z valga
cero.
Im T = {(x, y, z): z=0 € R}
Para obtener el núcleo requerimos igualar a cero el resultado:

Vemos que z puede tener cualquier valor, pero X y Y deben valer 0


para satisfacer la transformación a cero. Entonces el núcleo se
representa así: nu T = {(x,y,z): x=y=0, z que pertenece a R}

nu T = {(x,v.z): x=y=0, z E
R}

El núcleo del operador de proyección del espacio R3 en el plano xy


equivale al conjunto de vectores X, Y, Z, tal que X valga cero, Y valga
cero y Z tenga cualquier valor.
La nulidad y el rango corresponden a la dimensión del núcleo y de la
imagen respectivamente:

Del mismo ejemplo:


5.4 MATRIZ ASOCIADA A UNA TRANSFORMACION LINEAL Y
REPRESENTACION DE UNA TRANSFORMACION LINEAL EN FORMA
MATRICIAL

Si bien las transformaciones lineales pueden estudiarse sin hacer


referencia alguna a las bases de los espacios dominio y condominio, un
cálculo efectivo de las mismas exige el conocimiento de dichas bases.

Cualquier transformación lineal T: V ® W puede representarse mediante


una matriz: T(x) = A x. La matriz A dependerá de las bases elegidas para
V y W. La matriz de una transformación lineal queda determinada
cuando se conocen una base ordenada de V, una base ordenada de W y
los transformados de la base de V, en la base de W.

Supongamos que el espacio V tiene una base {v1, ..., vn} y el espacio W
tiene una base {w1, ..., wm}. Entonces cualquier transformación lineal de
V en W se representa por una matriz A m x n.
Si T (vi ) = ai1 w1 + .... + aim wm, entonces la columna i de A es (ai1 ....
aim) T
Ejemplos
https://youtu.be/CHnKvfC-Fos
Existen dos tipos de variables: escalares y vectoriales. Los escalares
representan variables que están completamente definidas por su
magnitud como el tiempo, la masa y la distancia; por otra parte, los
vectores representan variables con magnitud y dirección como la
velocidad, las fuerzas, y los campos gravitatorios y electromagnéticos. A
su vez, una matriz puede ser entendida como un conjunto de vectores
renglón o vectores columna.
Los sistemas de ecuaciones lineales, que sirven para modelar procesos
pueden ser representados de manera muy compacta y eficiente a través
de matrices y vectores que multiplicamos matricialmente. Sin embargo,
las operaciones con vectores y matrices son diferentes a las operaciones
aritméticas con escalares. Por esta razón, resulta indispensable dominar
la estructura e interpretación de los vectores y matrices; así como sus
operaciones.
En esta clase digital veremos el significado y representación de los
vectores y matrices; así como la operación del producto matricial que
nos ayudará a obtener la representación matricial de un sistema de
ecuaciones lineales. Posteriormente, en la clase digital 3 veremos que
la representación matricial de los sistemas de ecuaciones lineales es útil
para resolverlos mediante un método alternativo.
Representación de un vector.

Vector
Los vectores son un conjunto de números que tienen un orden
específico y que sirven para representar variables con magnitud y
dirección. Los vectores comúnmente son denotados con letras
minúsculas escritas con letra negrita o con una flecha en la parte
superior. La dimensión de un vector es determinada mediante su
número de elementos o componentes.
Los vectores pueden ser representados de varias maneras:
gráficamente, con pares ordenados o coordenadas en planos
cartesianos, con coordenadas polares o mediante la suma de
vectores unitarios escalados.

Representación gráfica
Un vector puede ser representado como un segmento de recta dirigido o
flecha. La longitud de la flecha es proporcional a la magnitud y el
ángulo que se forma entre la flecha y la dirección positiva del eje
horizontal determinará la dirección.

Representación con pares ordenados o representación cartesiana


Un vector también puede ser presentado con un par ordenado (x,y) y
gráficamente equivale al punto en donde termina la punta de la flecha
del vector si éste es trazado a partir del origen del plano cartesiano. El
primer elemento del par ordenado indica la coordenada horizontal (x) y
el segundo elemento indica la coordenada vertical (y) de la punta de la
flecha. Los elementos del par ordenado también son conocidos como
componentes del vector; ejemplo: v = (3,4).
Representación polar
En la notación polar, un vector es representado mediante la magnitud y
el ángulo que le da dirección. Ejemplo:
El vector v = (1,-3) puede escribirse en la notación polar como v = 5 a
53.13°.

Representación con vectores unitarios


Adicionalmente, un vector puede ser representado a través de la suma
de vectores unitarios que están multiplicados por escalares, donde los
escalares son las componentes del vector. Un vector unitario tiene una
magnitud igual a uno. Para esta representación es común usar vectores
unitarios perpendiculares entre sí, los más comunes son los vectores i =
(1,0) y j = (0,1) por su sencillez y practicidad. Ejemplo: el vector v = (3,4)
también puede representarse como v = 3i + 4j.
Cambios de representación de un vector
Representación cartesiana a polar

Para cambiar un vector cartesiano bidimensional (con 2 componentes) a


la notación polar calculamos la magnitud como la raíz cuadrada de la
suma de los cuadrados de las componentes del vector (como en el
teorema de Pitágoras) y la dirección con θ=arctan(y/x). Si el vector es
tridimensional calculamos la magnitud de manera similar al caso
anterior y la dirección estará determinada por 3 ángulos, los ángulos
directores que se calculan a partir de los cosenos directores.
Debemos poner especial atención al aplicar la función arco-tangente ya
que al estar definida como un cociente hay una ambigüedad entre los
vectores del primero y tercer cuadrante, y entre los vectores del
segundo y cuarto cuadrante; sin embargo, podemos superar fácilmente
esta ambigüedad al revisar los signos de las componentes del vector y
ubicarlo en el cuadrante apropiado. Todos los ángulos son medidos con
respecto al eje horizontal. Los ángulos positivos son medidos en la
dirección contraria a las manecillas de reloj y los ángulos negativos son
medidos en la dirección de las manecillas del reloj.
Representación polar a cartesiana

En este caso es necesario calcular las componentes del vector o


elementos del par ordenado. Para obtener la componente horizontal
podemos usar la función Cos(θ) = cateto adyacente / hipotenusa. El
ángulo θ es el ángulo formado por el vector y el eje horizontal, el
cateto adyacente es la componente horizontal del vector y la
hipotenusa es la magnitud del vector. De la función coseno despejamos
el cateto adyacente. De manera análoga, usamos la función Sen(θ) =
cateto opuesto / hipotenusa. El cateto opuesto es la componente
vertical del vector. De la función seno despejamos el cateto opuesto.
Este proceso es conocido como descomposición de un vector y adquiere
especial relevancia para la suma y resta de vectores.

Representación cartesiana a representación con vectores unitarios.


El cambio es casi directo, las componentes del vector cartesiano son los
escalares por los que se multiplican los vectores unitarios i y j.

Representación con vectores unitarios a representación cartesiana.


Los escalares por los que están multiplicados los vectores unitarios i y j
son los elementos del par ordenado o componentes del vector.

Matrices

Matriz
Una matriz es un conjunto de vectores renglón o vectores columna. La
dimensión de las matrices es denotada como el producto del número de
renglones (m) por el número de columnas (n); es decir, mxn.
Usualmente, las matrices son denotadas con letras mayúsculas; ejemplo
matriz A.

Producto matricial
El producto matricial (AB) es una operación entre dos matrices (A y B) o
entre una matriz y un vector. Consiste en multiplicar los renglones de la
matriz A por las columnas de la matriz B para obtener cada uno de los
elementos de la matriz resultante.
Para esta multiplicación de renglones por columnas se multiplican los
elementos del renglón de la matriz A por los elementos que están en las
respectivas posiciones de una columna de la matriz B y luego se suman
dichos productos para obtener un elemento de la matriz resultante. El
producto matricial sólo puede ser calculado cuando el número de
columnas de la matriz A es igual al número de renglones de la matriz B.
La matriz resultante tiene el mismo número de renglones de la matriz A y
el número de columnas de la matriz B. El producto matricial no es
conmutativo; así que en general el producto AB es diferente del producto
BA. Te sugiero revisar los siguientes ejemplos: Producto matricial
(ejemplo 1), y Producto matricial (ejemplo 2); Fuente: GeoGebra, Autor:
Eduardo Timón Moliner.

Ejemplos:
Definiciones de vectores y matrices. Representación de un vector y
cambios de representación.
Video explicativo: Definiciones de vectores y matrices. Representación del
vector y cambios de representación.
Representación matricial de los sistemas de ecuaciones lineales

Podemos representar un sistema con m ecuaciones lineales y n


incógnitas de la siguiente manera:

También es posible representar al sistema de ecuaciones lineales


anterior de manera alternativa mediante vectores, una matriz y
un producto matricial.
También es posible representar al sistema de ecuaciones lineales
anterior de manera alternativa mediante vectores, una matriz y
un producto matricial como:

Al igualar las componentes que están en las mismas posiciones de los


vectores en la Ec. 3 obtenemos el sistema de ecuaciones lineales en su
forma algebraica; así demostramos la equivalencia de las Ec s. 1 y la Ec.
2.

la matriz de la izquierda es conocida como la matriz de coeficientes (A)


por contener los coeficientes de las incógnitas en las ecuaciones. Los
subíndices de los coeficientes «a» indican el renglón y columna del
elemento. El vector con las incógnitas x1, x2, x3, … xn es el vector
solución x y el vector de la derecha es el vector de términos
independientes b. Sustituyendo estos parámetros en la ecuación
matricial obtenemos la representación matricial de un sistema de
ecuaciones lineales:
Ten presente que esta ecuación no es algebraica, sino una ecuación
matricial. Por esta razón, no la podemos resolver para x con
operaciones aritméticas como lo hacemos para despejar una incógnita
de una ecuación algebraica; sino que se emplea otra estrategia que
revisaremos en la siguiente clase digital.
5.5 TRANSFORMACION LINEAL INVERSA

Composición de transformaciones lineales


Sean FF y GG dos transformaciones lineales tales que:

Propiedad: la composición de transformaciones lineales, es una


transformación lineal.

VI. CALORES CARACTERISTICOS, FORMAS CUADRATICAS Y VECTORES


CARACTERISTICOS.

6.1 : VALORES Y VECTORES CARACTERÍSTICOS

El cálculo de los valores propios y de los vectores propios de una matriz


simétrica tiene gran importancia en las matemáticas y en la ingeniería,
entre los que cabe destacar, el problema de la diagonalización de una
matriz, el cálculo de los momentos de inercia y de los ejes principales
de inercia de un sólido rígido, o de las frecuencias propias de oscilación
de un sistema oscilante. Se denominan valores propios o raíces
características de una matriz cuadrada A, a los valores de nm a tales
que.
Desarrollando el determinante tenemos un polinomio de grado n.
Trataremos de encontrar los
coeficientes del polinomio, y luego aplicaremos un método de hallar las
raíces del polinomio. Este procedimiento es apropiado cuando se
presentan valores propios que no son reales sino complejos.
Una vez hallados los valores propios, para hallar el vector propio X
correspondiente al valor propio λ es necesario resolver el sistema
homogéneo donde λ es el valor característico y A,X son los vectores
característicos donde el vector X es donde el vector X es
Siempre podemos tomar x0 como 1, y hallar las otras n-1 incógnitas. De
las n ecuaciones podemos tomar n-1, y resolver el sistema lineal.

Nota: Los valores y vectores característicos también se denominan


valores y vectores impropios o eigenvalores y eigenvectores; la palabra
“eigen” es la palabra alemana para “propio”.

Valores y Vectores Característicos.


Definición de valores y vectores característicos de una matriz cuadrada:
El cálculo de los valores propios y de los vectores propios de una matriz
simétrica tiene gran importancia en las matemáticas y en la ingeniería,
entre los que cabe destacar, el problema de la diagonalización de una
matriz, el cálculo de los momentos de inercia y de los ejes principales
de inercia de un sólido rígido, o de las frecuencias propias de oscilación
de un sistema oscilante. Se denominan
valores propios o raíces características de una matriz
cuadrada A, a los valores de a nm tales que.
Desarrollando el determinante tenemos un polinomio de grado n.
Trataremos de encontrar los coeficientes del polinomio, y luego
aplicaremos un método de hallar las raíces del polinomio. Este
procedimiento es apropiado cuando se presentan valores propios que
no son reales sino complejos. Una vez hallados los valores propios, para
hallar el vector propio X correspondiente al valor propio λ es necesario
resolver el sistema homogéneo donde λ es el valor característico y A,X
son los vectores característicos donde el vector X es Siempre podemos
tomar x como, y hallar las otras n- incógnitas. De las n ecuaciones
podemos tomar n-, y resolver el sistema

6.2 POLINOMIO CARACTERÍSTICO Y ECUACIÓN CARACTERÍSTICA

Sea K un cuerpo (podemos imaginar K como el cuerpo de los reales o de


los complejos) y una matriz cuadrada A n-dimensional sobre K. El
polinomio característico de A, denotado por pA(t), es el polinomio
definido por:
PA (t) = det (A - t I)

donde I denota la matriz identidad n-por-n.Algunos autores definen el


polinomio característico como det(t I-A); la diferencia radica en que
esta última forma de definirlo siempre produce un polinomio mónico,
mientras que la dada previamente difiere en el signo cuando la matriz
tiene un número impar de valores propios. Esta diferencia es, de
cualquier modo, poco relevante ya que las raíces son las mismas.
1. Método de Krilov para obtener el polinomio característico
Este método se fundamenta en la aplicación del Teorema de Cayley-
Hamilton, mismo que establece que toda matriz A verifica su
ecuacióncaracterística:
F(A) = 0
Es decir, si sustituimos a la matriz A en el polinomio (2), el resultado
deber´a ser cero. Sin embargo, operativamente es necesario hacer
algunos comentarios. De inicio, la matriz A es de orden n, por lo cual la
sustituci´on arrojar´a un sistema de n ecuaciones lineales; en
consecuencia, el coeficiente a0 deber´a ser diferente de cero. Resulta
conveniente hacer que este coeficiente sea la unidad, por lo cual se
divide el polinomio entero por a0, resultando:
Donde los coeficientes bi se obtienen como bi = ai a0 . Aplicando el
teorema de Cayley-Hamilton en el polinomio
El polinomio representa un sistema de ecuaciones lineales cuyas
incógnitasson los coeficientes bi . La solución de este sistema nos
proporciona los coeficientes bi que sustituidos en (4) nos da como
resultado el polinomio característico de A. Una forma sencilla de
realizar este procedimiento es simplificar la elevación de la matriz A a
las potencias necesarias. Esto se logra multiplicando la matriz A por un
vector ¯y compatible diferente de cero. Debe recordarse que la
multiplicación de una matriz por un vector compatible arroja un vector.
Este vector ¯y puede ser libremente elegido, proponiéndose que su
conformación permita realizar de mejor forma las operaciones. Una
buena elección es escoger al vector con la forma:

Ubicando al elemento 1 en una posición estratégica de acuerdo con los


coeficientes de A de tal forma que, aprovechando las multiplicaciones
por cero, se minimicen las operaciones. Atendiendo a la anterior
recomendación, Finalmente, el sistema de ecuaciones puede ser
resuelto por el método de preferencia.
Krilov debe utilizarse en conjunto con un método de solución de
sistemas de ecuaciones lineales. Esta unión arroja una alternativa muy
apropiada cuando se trata de evitar resolver determinantes de orden
mayor considerando que se debe hacer en forma analítica.
6.3 DIAGONALIZACIÓN DE UNA MATRIZ n x n

Sea A una matriz de K n x n, donde K es un cuerpo (como lo son los


reales o los complejos) decimos que es diagonalizableen K si existen dos
matrices cuadradas, P y D, de la misma dimensión que A y sobre K tales
que

● P es regular,

● D es diagonal y

● A = PDP-1

(O, equivalentemente, P-1AP = D).

Veamos dos ejemplos:

La siguiente matriz real A es diagonalizable en los reales y, por tanto,


en los complejos

La matriz real B es diagonalizable en los complejos pero en los reales


(puesto que sus valores propios son complejos).

Método para diagonalizar

Si A es diagonalizable en los reales, para obtener las matrices P y D


procedemos del siguiente modo:

Obtener los valores propios de la matriz A


Buscar una base de los subespacios asociados a los valores propios (la
unión de todas ellas es una base de Rn).
Construir P cuyas columnas sean la base obtenida y construir

D=diag(d1,d2….,dn)

Donde es el valor propio asociado al vector propio de la columna i de


P. Otras propiedades y teoremas:
Teorema 1: Sea A una matriz de K n x n, es diagonalizable si, y sólo si,
la suma de las dimensiones de los subespacios asociados a los auto
valores de A es n. Y esto es equivalente a que exista una base de K n
formada por vectores propios de A.

Teorema 2: Una matriz A real de dimensión n (cuadrada) es


diagonalizable en los reales (y, por tanto, en los complejos) si y sólo si
existe una base de Rn formada por vectores propios de A.

6.4 FORMAS CUADRÁTICAS Y

CANÓNICAS FORMAS CUADRÁTICAS


Definición. - Si f : V × V → R es una forma bilineal simétrica, la aplicación
q : V → R definida por q(u) = f(u, u) se denomina forma cuadrática
asociada a f, y f es la forma polar de q.
A veces se define forma cuadrática a partir de una forma bilineal a secas
(sin exigirle la simetría). Así, una forma cuadrática viene asociada a
muchas formas bilineales. Sin embargo, al exigir simetría ganamos la
reciprocidad, puesto que una forma cuadrática solóésta asocia una
forma bilineal simétrica (su polar), que se puede recuperar fácilmente a
partir de aquella. Es sencillo comprobar que si f es la forma polar de q,
entonces f(u, v) = [q(u + v) -q(u) − q(v)]/2.
El emparejamiento entre formas cuadráticas y formas bilineales
simétricas nos permite traer aquí conceptos de éstas. Así, llamaremos
matriz de una forma cuadrática en una base a la de su forma polar,
nucleóy rango de la forma cuadrática a los de su polar, y diremos que
dos vectores son conjugados respecto de la forma cuadrática cuando lo
sean respecto de la polar.
-Diagonalización de formas cuadráticas.
Al escribir la expresión de la forma cuadrática en una base como q(u) =
uT B ·M·uB, se observa que es un polinomio homogéneo de segundo
grado.
Tal fórmula será siempre sencilla, pero lo es especialmente cuando no
involucra productos mixtos,sino que se reduce a una suma algebraica de
cuadrados. Puesto que la expresión de una formacuadrática varía al
cambiar de base, cabe pensar que eligiendo ´esta adecuadamente se
pueda conseguir expresar la forma cuadrática como una suma de
cuadrados. Eso es lo que llamamos “diagonalizar una forma cuadrática”.
Decimos que hemos diagonalizado la forma cuadráticaq cuando hemos
encontrado una base de V en la cual la matriz de q sea una matriz
diagonal. Eso equivale a que la base esté formada por vectores
conjugados dos a dos respecto de la forma q. También decimos
quehemos expresado q como una suma de cuadrados, porque se tiene
q(u) = d1 · x² 1 + . . . + dn · x² n ,siendo x1, . . . , xn las coordenadas de u
en esa base, y d1, . . . , en los elementos que ocupan la diagonal de la
matriz.

FORMAS CANÓNICAS
La forma canónica de Jordan es la forma de la matriz de
un endomorfismo de un espacio vectorial en cierta base asociada a la
descomposición en suma directa de subespacios invariantes bajo dicho
endomorfismo. Dicha forma canónica consistirá en que la matriz estará
formada por "bloques de Jordan" en la diagonal y bloques de ceros
fuera de ella.

Ejemplo de matriz en forma normal de Jordan


Primera Forma Canónica: Está formada por una suma de productos
canónicos, esto es, productos que contienen las variables de la función
en su forma "normal" o complementada.
Se establece una relación directa entre los productos canónicos y las
variables de entrada, cuyo valor será 1 sólo para esa combinación y 0
para todas las demás. Para obtener el producto canónico de valor 1
asociado a una combinación de variables de entrada determinada, basta
con seguir la siguiente regla: aquellas variables que tomen valor 1 se
representan de forma natural en el producto canónico, mientras que
aquellas variables que tomen valor 0 se representan de forma
complementada. Así para una función de tres variables de entrada F(x,
y, z) a la combinación: x=0, y=1, z=0 le corresponde el producto
canónico: x'yz'.
Para obtener la primera forma canónica de la función partiendo
directamente de la tabla de verdad sólo hay que sumar aquellos
productos canónicos que corresponden a combinaciones de las
variables de entrada para las que la salida vale 1.
Segunda Forma Canónica: Esta formada por un producto de sumas
canónicas, esto es, sumas que contienen todas las variables de entrada
de la función, ya sea en su forma natural o complementada. Así pues,
para una función con tres variables de entrada, F(x, y, z), una suma
canónica tiene que contener a las variables z, y, z en su forma natural o
complementada. Ejemplos de sumas canónicas son: z+y+z', z'+y+z,
z+y'+z',...
De forma análoga a lo que ocurría con los productos canónicos se
establece una relación entre las sumas canónicas y las variables de
entrada de la función. El valor de la suma canónica será 0 para una sola
combinación de las variables de entrada, mientras que para el resto
será
1. Esto permite establecer una correspondencia entre las combinaciones
de las variables de entrada de una tabla de verdad y las sumas
canónicas. Cada combinación de las variables de entrada se asocia a
aquella suma canónica que valga 0 para los valores que toman las
variables de entrada en esa combinación concreta.
Para obtener la suma canónica que le corresponde a una combinación
de las variables de entrada, cada una de las variables de entrada que
tome valor 1 en esa combinación se representa en su forma
complementada y cada variable que tome valor 0 se representa en su
forma natural.
Así para una función de tres variables de entrada F(x, y, z) a la
combinación: x=0, y=1, z=0 le corresponde el producto canónico: x+y'+z.
Para obtener la segunda forma canónica de la función partiendo
directamente de la tabla de verdad sólo hay que multiplicar aquellas
sumas canónicas que corresponden a combinaciones de las variables de
entrada para las que la salida vale 0.
Ejemplo de formas canónicas:

F(x, y) = xy' + x'y + x'y'

F(x, y, z) = xy'z + x'y'z + xyz'

F(x, y, z) = (x+y'+z)·(x+y+z')

Como observamos en los ejemplos anteriores, en todas las funciones


aparecen todas las variables, al menos una vez, complementadas o en su
forma natural.
A los términos de la primera forma canónica se les denomina:
minitérminos, términos producto o productos canónicos. A los
términos de la segunda forma canónica se les denomina:
maxitérminos, términos suma o sumas canónicas.

6.5 TEOREMA DE CAYLEY-HAMILTON

El teorema de Cayley-Hamilton (que lleva los nombres de


losmatemáticos Arthur Cayley y William Hamilton) asegura que todo
endomorfismo de un espacio vectorial de dimensión finita sobre un
cuerpo cualquiera anula su propio polinomio característico.
En términos matriciales, eso significa que
A es una matriz cuadrada de orden n y
si:

es su polinomio característico (polinomio de indeterminada λ),


entonces al sustituir formalmente λ por la matriz A en el polinomio, el
resultado es la matriz nula:
El teorema de Cayley-Hamilton se aplica también a matrices
cuadradas de coeficientes en un anillo conmutativo cualquiera.

Un corolario importante del teorema de Cayley-Hamilton afirma que el


polinomio mínimo de una matriz dada es un divisor de su polinomio
característico, y no solo eso, el polinomio mínimo tiene los mismos
factores irreducibles que el polinomio característico.

Este teorema tiene dos familias de uso:

• Permite establecer resultados teóricos, por ejemplo para calcular el


polinomio característico de un endomorfismo nilpotente.

• Permite también simplificaciones poderosas en el cálculo de


matrices. La aproximación por polinomios mínimos es en general
menos costosa que la que se hace por determinantes. Encontramos
este teorema utilizado en los artículos sobre los polinomios de
endomorfismo, endomorfismos nilpotentes, y más en general en la
teoría general de las matrices.
REFERENCIAS BIBLIOGRÁFICAS

https://sites.google.com/site/einf002valera/6-3-unidad-iii-transformaciones-
lineales
https://blogs.ugto.mx/rea/clase-digital-6-transformaciones-
lineales/#:~:text=Adem%C3%A1s%2C%20las%20operaciones%20con%20tra
nsformaciones,de%20escalares%20respecto%20a%20la
https://blogs.ugto.mx/rea/clase-digital-18-nucleo-e-imagen/
Álgebra Matricial y Lineal.Serie Schaum; McGraw Hill.
-Friedberg Stephen H.; Insel Arnold J.; Spence Lawrence E.“Algebra Lineal”.
Publicaciones Cultural. 1982, México.
Borras, H., Duran, R., y Iriarte, R. (1984). Apuntes de m´etodos num´ericos
(F. de Ingenier´ıa UNAM, Ed.).
Burden, R., y Faires, D. (2011). An´alisis num´erico (C. Learning, Ed.).
https://www.matesfacil.com/diagonalizacion.htm
https://es.scribd.com/doc/216669290/Teorema-de-Cayley
https://ikastaroak.ulhi.net/edu/es/IEA/ELEC/ELEC02/es_IEA_ELEC02_Contenid
os/website_4_funciones_lgicas_formas_cannicas_de_una_funcin.html
https://es.wikipedia.org/wiki/Forma_can%C3%B3nica_de_Jordan

También podría gustarte