Está en la página 1de 36

Matriz

Definiciones y notaciones
Una matriz es una tabla o arreglo rectangular de numeros. Los numeros en el arreglo se denominan elementos de la matriz. Las lneas horizontales en una matriz se denominan filas y las lneas verticales se denominan columnas. A una matriz con m filas y n columnas se le denomina matriz m-por-n (escrito mn) y m y n son sus dimensiones. Las dimensiones de una matriz siempre se dan con el n!mero de filas primero y el n!mero de columnas despu"s. La entrada de una matriz A #ue se encuentra en la fila i-"sima y la columna j-"sima se le llama entrada i,j o entrada (i j)-i"sima de A. $sto se escribe como Ai % o A&i,j'. (ormalmente se escribe para definir una matriz A m n con cada entrada en la matriz A&i,j' llamada aij para todo ) * i * m y ) * j * n. +in embargo la convenci,n del inicio de los ndices i y j en ) no es universal- algunos lengua%es de programaci,n comienzan en cero en cu.l caso se tiene / * i * m 0 ) y / * j * n 0 ). Una matriz con una sola columna o una sola fila se denomina a menudo vector y se interpreta como un elemento del espacio eucldeo. Una matriz ) n (una fila y n columnas) se denomina vector fila y una matriz m ) (una columna y m filas) se denomina vector columna.

Ejemplo
La matriz

es una matriz 12. $l elemento A&3 2' o a3 2 es 4. La matriz

es una matriz )5 o un vector fila con 5 elementos.

Suma de matrices
6adas las matrices m-por-n A y B su suma A + B es la matriz m-por-n calculada sumando los elementos correspondientes (i.e. (A + B)&i, j' 7 A&i, j' 8 B&i, j' ). $s decir sumar cada uno de los elemetos homologos de las matrices a sumar. 9or e%emplo-

Propiedades de la suma de matrices

Asociativa

6adas las matrices m-por-n A B y C

A 8 (: 8 ;) 7 (A 8 :) 8 ; ;onmutativa

6adas las matrices m-por-n A y B

A8:7:8A $<istencia de matriz cero o matriz nula A8/7/8A7A $<istencia de matriz opuesta

con -A 7 &-ai%' A 8 (-A) 7 /

Producto de una matriz por un escalar


6ada una matriz A y un n!mero c el producto escalar cA se calcula multiplicando el escalar c por cada elemento de A (i.e. (cA)&i j' 7 cA&i j' ). 9or e%emplo-

Producto de matrices
$l producto de dos matrices se puede definir s,lo si el n!mero de columnas de la matriz iz#uierda es el mismo #ue el n!mero de filas de la matriz derecha. +i A es una matriz m-por-n y B es una matriz n-por-p entonces su producto matricial AB es la matriz m-por-p (m filas p columnas) dada por-

para cada par i y j. 9or e%emplo-

$l producto de dos matrices no es conmutativo es decir AB BA. La divisi,n entre matrices es decir la operaci,n #ue podra producir el cociente A / B no se encuentra definida. +in embargo e<iste el concepto de matriz inversa s,lo aplicable a las matrices cuadradas.

Las matrices en la Computacin


Las matrices son utilizadas ampliamente en la computaci,n por su facilidad y liviandad para manipular informaci,n. $n este conte<to son la me%or forma para representar grafos y son muy utilizadas en el c.lculo num"rico.

Determinante matem!tica"
$n matem.ticas se define el determinante como una forma n-lineal alterna de un cuerpo $n. $sta definici,n indica una serie de propiedades matem.ticas y generaliza el concepto de determinante haci"ndolo aplicable en numerosos campos. Aun#ue el origen del determinante tiene lugar en el campo del .lgebra lineal y puede concebirse como una generalizaci,n del concepto de superficie o de volumen orientado. =ue introducido para estudiar el n!mero de soluciones de los sistemas lineales de ecuaciones

Dos ejemplos
$l caso n 7 ) carece totalmente de inter"s veamos los casos n 7 3 y luego n 7 2. Una observaci,n preliminar- una aplicaci,n alterna es tambi"n antisim#trica. $n efecto con n 7 3 por e%emplof( v 8 > v 8 >) 7 o por ser f alterna luego si se desarrolla el miembro iz#uierdo se obtienef( v 8 > v 8 >) 7 f(u u) 8 f(u v) 8 f(v u) 8 f(v v) 7 / 8 f(u v) 8 f(v u) 8 /. ?gualando los dos resultados se concluye #ue f(v u) 7 - f(u v) lo #ue es la antisimetra. $n la base (e) e3) de $ sea u 7 a@e) 8 b@e3 y v 7 c@e) 8 d@e3 dos vectores cuales#uiera. 6e a#u en adelante se notar. det el determinante. det u$ %" & det a'e( ) *'e+$ c'e( ) d'e+" & c'det a'e( ) *'e+$ e(" ) d'det a'e( ) *'e+$ e+" linealidad a la derecha es decir con relacin al segundo argumento & c'a'det e($ e(" ) c'*'det e+$ e(" ) d'a'det e($ e+" ) d'*'det e+$ e+" linealidad a la izquierda & c'a', ) c'*' -(" ) d'a'( ) d'*', & ad - *c la forma alterna anula det(e1, e1 ! det(e", e" , ! la antisimetr#a hace que det(e", e1 $ - det(e1, e" $ -1 por definicin, det(e1, e" $ 1 +i se disponen los vectores en columna se constituye una matriz cuyo determinante se calcula por la regla de los productos cruzados-

+e procede de la misma manera en el caso n 7 2A sin embargo para eludir c.lculos m.s largos es preferible refle<ionar antes de echarse a llenar ho%as. +e toma tres vectores u v y > y se les descomponen en la base (e) e3 e2). Al desarrollar el determinante se tendr. #ue descartar todos los casos en #ue aparezcan varias veces el mismo vector. Buedar.n pues s,lo t"rminos donde aparecen una vez los tres vectores de las base mas en un orden cual#uiera. +e dice #ue hay una permutaci,n de e) e3 y e2. 9or e%emplo- det(e2 e) e3) 7 - det(e) e2 e3) 7 det(e) e3 e2) 7 ) aplicando la antisimetra dos veces. Al pasar del primer miembro al !ltimo se ha multiplicado dos veces por -) o sea una vez por (-))C. $ste !ltimo factor es la si.natura o firma" de la permutacin #ue enva (e) e3 e2) en (e2 e) e3). $l con%unto de las permutaciones (de tres elementos) se llama el .rupo sim#trico (de orden 2) +2. +2 tiene tres permutaciones pares es decir de signatura ) y tres impares de signatura -). +e nota D(E) o sgn(E) la signatura de la permutaci,n E (sgn como signature firma en franc"s o signo). ;on todos estos datos se puede hallar el determinante de orden 2- $l m"todo de +arrus consiste en escribir los tres vectores en columna y repetir las dos primeras lneas por deba%o de la matrizA las permutaciones pares corresponden a las diagonales descendientes mientras #ue las impares corresponden a las ascendientes. +obre cada diagonal se multiplican los n!meros y se suman o restan los productos.

/rmula .eneral
$l raciocinio detallado del caso n 7 2 permite la generalizaci,n. +ea un valor cual#uiera de n y los vectoresv) 7 a ) )e) 8 a 3 )e3 8... 8 a n )en v3 7 a ) 3e) 8 a 3 3e3 8... 8 a n 3en y as sucesivamente hasta vn 7 a ) ne) 8 a 3 ne3 8... 8 a n nen. F sea A la matriz cuyas columnas son los vectores v) ... vn. A 7 (ai %))*i %*n.

$sta definici,n de determinante fue propuesta por Leibnitz. $<cepto en casos sencillos esta f,rmula no resulta muy pr.ctica a causa del n!mero e<cesivo de permutaciones. Afortunadamente e<iste una manera de desarrollar el determinante seg!n una lnea (una columna o una fila)-

donde ci j representa el determinante del ad%unto de ai j $s la f,rmula de Laplace.

M#todos de c!lculo

Determinantes de orden (
Una matriz de orden ) no es m.s #ue un n!mero. 9or e%emplo la matriz (1) es una matriz de orden ) pues tiene ) fila y ) columna. As las matrices de orden uno son de la forma (a) )). $l determinante de dicha matriz es det(a) )) 7 a) ). As por e%emplo det(1)71. 0*ser%acin1 $n el caso de matrices de orden uno no se suele escribir el determinante entre barras para no confundirlo con el valor absoluto del n!mero.

Determinantes de orden +

$l .rea del paralelogramo es la determinante de la matriz formada por los vectores #ue representan los lados del paralelogramo. ;omo se ha dicho antes un determinante de orden dos se calcula de la siguiente manera-

Determinantes de orden 2 3editar4


Un determinante de orden 2 se calcula mediante la regla de +arrus-

Determinantes de orden superior a 2


+uele desarrollarse el determinante de orden n a partir de una fila o columna eliminando as filas y columnas hasta obtener un determinante de orden n-). 9ara ello se toma una fila o columna cual#uiera multiplicando cada elemento por su ad%unto (es decir el determinante de la matriz #ue se obtiene eliminando la fila y columna correspondiente a dicho elemento multiplicado por (-))i8% donde i es el numero de fila y % el numero de columna. 9ara el primer elemento se eleva al cuadrado por lo #ue (-))C 7 ). $l segundo se eleva al cubo (-))G 7 -). +e observa #ue los signos iran alternando de un elemento al siguiente). Luego se suman todos los productos y se obtiene el determinante. $n caso de un determinante de orden 1 se obtienen directamente determinantes de orden 2 #ue podr.n ser calculados por la regla de +arrus. $n cambio en los determinantes de orden superior como por

e%emplo n 7 H al desarrollar los elementos de una lnea obtendremos determinantes de orden 1 #ue a su vez se deber.n desarrollar en por el mismo m"todo para obtener determinantes de orden 2. La cantidad de operaciones aumenta muy r.pidamente. $n el peor de los casos (sin obtener ceros en filas y columnas) para un determinante de orden 1 se deber.n desarrollar 1 determinates de orden 2. $n un determinante de orden H se obtienen H determinates de orden 1 a desarrollar d.ndonos 3/ determinates de orden 2. $l numero de determinates de orden 2 #ue se obtienen en el desarrollo de un determinante de orden n es igual a 9or e%emplo mediante este m"todo para un determinante de orden )/ se deber.n calcular )/ < 5 < I < I < J < H < 1 7 KJ/1.I// determinantes de orden 2L. Mambi"n se pueden aplicar operaciones elementales entre filas y columnas para lograr la mayor cantidad de ceros en una fila o columna. 6e esta manera se reduce notablemente la cantidad de calculos. 9or e%emplo para obtener con el m"todo especificado un determinante de orden 1 se deben calcular 1 determinantes de orden 2. $n cambio si previamente se logran tres ceros en una fila o columna bastara con calcular solo un determinante de orden 2 (ya #ue los demas determinantes estar.n multiplicados por / lo #ue los anula). Mambi"n puede utilizarse el N"todo de eliminaci,n Oaussiana para convertir la matriz en una matriz triangular. +i bien el proceso puede parecer tedioso estar. muy le%os de los )1.H35.4)H.3// de determinantes de orden 2 necesarios para calcular el determinante de una matriz de orden )1. $s tambi"n conveniente antes de realizar cual#uiera de esas operaciones observar atentamente el determinante y verificar #ue no e<isten casos especiales como una combinaci,n lineal de lo #ue se deducira al instante #ue el determinante es cero o en el caso de una matriz triangular donde el determinante es igual al producto de los elementos de la diagonal principal. $n general sin embargo los c.lculos de determinantes de ordenes altos pueden realizarse mediante la programaci,n de estos algoritmos en ordenadores #ue realizan esos c.lculos muy r.pidamente.

Propiedades
La propiedad algebraica fundamental del determinante es la siguientedet AB" & det A"'det B" en t"rminos de aplicaciones lineales se escribe asdet u5%" & det u"'det %" det(At) 7 det(A)

Matrices elementales

Las matrices elementales son a#uellas #ue se obtienen a partir de una operaci,n elemental de matrices sobre la matriz identidad. $stas son). $scalamiento- multiplicar una fila por un n!mero. 3. $liminaci,n- sumar a una fila una combinaci,n lineal de las restantes. 2. 9ermutaci,n- intercambiar dos filas. Las matrices tienen esta forma (en el caso 2P2)0*tenidas por escalamiento

0*tenidas por eliminacin

An.logamente el n!mero a puede estar encima de la diagonal. 0*tenidas por permutacin Q"ase- matriz permutaci,n

Propiedades
+i multiplicamos alguna de estas matrices por una matriz A ser. como aplicar las operaciones elementales de matrices. $s f.cil ver #ue estas matrices tienen inversas ya #ue pensando en ellas como matrices A se debe aplicar la operaci,n RinversaR. 9or e%emplo teniendo-

Bueremos #ue el elemento a22 sea ). $ntonces-

Matriz traspuesta

+ea A una matriz con m filas y n columnas. La matriz transpuesta denotada con At est. dada por

Ejemplos

Propiedades
9ara toda matriz A +ean A y : matrices con elementos pertenecen a un anillo y sea

+i el producto de las matrices A y B est. definido +i A es una matriz cuadrada cuyas entradas son n!meros reales entonces es semidefinida positiva

Definiciones asociadas
Una matriz cuadrada A es sim#trica si coinciede con su transpuesta esto es si

$s antisim#trica si coincide con su negativa

+i los elementos de la matriz A son n!meros comple%os y su transpuesta coincide con su con%ugada se dice #ue la matriz es 6erm7tica

y antihermtica si

Qale la pena observar #ue si una matriz es hermtica (la matrices sim"tricas son un caso particular) entonces es diagonalizable y sus autovaleres son reales. ($l recproco es falso).

Matriz cuadrada
Una matriz de n<m elementos-

es una matriz cuadrada si el n!mero de filas es igual al n!mero columnas. $s decir n 7 m. +e dice entonces #ue la matriz es de orden n. Moda matriz cuadrada se puede descomponer en la suma de una matriz sim"trica y una matriz antisim"trica. +i A y B son matrices del mismo orden entonces se pueden sumar entre s. Los productos de matrices son v.lidos en ambos sentidos AB y BA. Adem.s surgen los conceptos de determinante y traza solo aplicables a matrices cuadradas. Una matriz cuadrada A de orden n es sin.ular si su determinante es nulo. $n tal caso se dice #ue dicha matriz no tiene inversa. $%emplo de matriz cuadrada para n 7 2-

Dia.onal principal

$n Slgebra lineal la Dia.onal principal de una matriz cuadrada es la diagonal #ue va desde la es#uina superior iz#uierda hasta la es#uina inferior derecha. 9or e%emplo la siguiente matriz contiene unos a lo largo de toda su diagonal principal-

A una matriz como la de arriba en la cual solamente los elementos de la diagonal principal no son cero se le llama matriz diagonal. La suma de los elementos de la diagonal principal de una matriz se le conoce como la traza de dicha matriz.

Matriz sim#trica
Una matriz de n % m elementos-

es sim"trica si es una matriz cuadrada (m 7 n) y aij 7 aji para todo i % 7) 3 2 1 ... n. (,tese #ue la simetra es respecto a la diagonal principal y #ue A es tambi"n una matriz traspuesta. $%emplo para n 7 2-

Propiedades
Uno de los teoremas b.sicos #ue concierne este tipo de matrices es el teorema espectral de dimensi,n finita #ue dice #ue toda matriz sim"trica cuyas entradas sean reales puede ser diagonalizada por una matriz ortogonal. Tste es un caso especial de una matriz hermtica.

Auto%alores

;omo las matrices sim"tricas son un caso particular de las matrices hermticas todos sus autovalores son reales. ;on base en las propiedades de los autovalores de una matriz sim"trica se pueden clasificar en los siguientes tipos

definida positiva& Una matriz sim"trica es definida positiva si y solo si todos sus autovalores son estrictamente positivos. definida negativa& Una matriz sim"trica es definida negativa si y solo si todos sus autovalores son estrictamente negativos. semidefinida positiva& Una matriz sim"trica es semidefinida positiva si y solo si todos sus autovalores son mayores o iguales a cero. semidefinida negativa& Una matriz sim"trica es semidefinida negativa si y solo si todos sus autovalores son menores o iguales a cero.

Matriz antisim#trica
Una matriz de n<m elementos-

es antisim"trica si es una matriz cuadrada (m 7 n) y aji 7 0 aij para todo i % 7) 3 2 ... n. $n consecuencia aii 7 / para todo i. 9or lo tanto la matriz A asume la forma-

(,tese #ue la matriz traspuesta de la matriz antisimetrica A es -A y #ue la antisimetra es respecto a la diagonal principal.

Matriz de adjuntos

6ada una matriz cuadrada A su matriz adjunta o ad%(A) es la resultante de sustituir cada t"rmino de A por sus ad%untos respectivos. $l ad%unto de un t"rmino ai % de la matriz A resulta del determinante de la matriz #ue se obtiene de eliminar de la matriz A la fila y la columna a la #ue pertenece el t"rmino ai % multiplicado por (-))(i8%)

Ejemplos
Un e%emplo sera el siguiente-

$n general- dada la matriz

su ad%unto es

La matriz de ad%untos suele emplearse para calcular la matriz inversa de una matriz dada. +in embargo para matrices de dimensiones grandes este tipo de c.lculo resulta m.s costoso en t"rminos de operaciones #ue otros m"todos como el m"todo de eliminaci,n de Oauss.

Matriz dia.onal

$n .lgebra lineal una matriz dia.onal es una matriz cuadrada en #ue las entradas son todas nulas salvo en la diagonal principal y "stas pueden ser nulas o no. As la matriz 6 7 (di %) es diagonal si-

$%emplo-

Moda matriz diagonal es tambi"n una matriz sim"trica triangular (superior e inferior) y (si las entradas provienen del cuerpo 8 o C) normal. Utro e%emplo de matriz diagonal es la matriz identidad.

0peraciones matriciales
Las operaciones de suma y producto de matrices son especialmente sencillas para matrices diagonales. Qamos a emplear a#u la notaci,n de diag(a) ... an) para una matriz diagonal #ue tiene las entradas a) ... an en la diagonal principal empezando en la es#uina superior iz#uierda. $ntonces para la suma se tienediag(a) ... an) 8 diag(') ... 'n) 7 diag(a)8') ... an8'n) y para el producto de matrices diag(a) ... an) @ diag(') ... 'n) 7 diag(a)') ... an'n). La matriz diagonal diag(a) ... an) es invertible si y s,lo si las entradas a) ... an son todas distintas de /. $n este caso se tiene diag(a) ... an)-) 7 diag(a)-) ... an-)). $n particular las matrices diagonales forman un subanillo del anillo de las matrices de nn. Nultiplicar la matriz A por la izquierda con diag(a) ... an) e#uivale a multiplicar la fila i-"sima de A por ai para todo i. Nultiplicar la matriz A por la derecha con diag(a) ... an) e#uivale a multiplicar la columna i-"sima de A por ai para todo i.

Auto%alores$ auto%ectores y determinante


Los autovalores de diag(a) ... an) son a) ... an. Los vectores e) ... en forman una base de autovectores. $l determinante de diag(a) ... an) es igual al producto a)...an.

9sos

Las matrices diagonales tienen lugar en muchas .reas del .lgebra lineal. 6ebido a la sencillez de las operaciones con matrices diagonales y el c.lculo de su determinante y de sus valores y vectores propios siempre es deseable representar una matriz dada o transformaci,n lineal como una matriz diagonal. 6e hecho una matriz dada de nn es similar a una matriz diagonal si y s,lo si tiene n autovectores linealmente independientes. Males matrices se dicen diagonalizables. $n el cuerpo de los n!meros reales o comple%os e<isten m.s propiedades- toda matriz normal es similar a una matriz diagonal (v"ase teorema espectral) y toda matriz es e#uivalente a una matriz diagonal con entradas no negativas.

Matriz de dia.onal estrictamente dominante


$n matem.ticas y especialmente en .lgebra lineal una matriz es estrictamente dominante cuando lo es por filas o por columnas.

Lo es por filas cuando para todas las filas el valor absoluto del elemento de la diagonal de esa fila es estrictamente mayor #ue la suma de los valores absolutos del resto de elementos de esa fila. Lo es por columnas cuando para todas las columnas el valor absoluto del elemento de la diagonal de esa columna es estrictamente mayor #ue la suma de los valores absolutos del resto de elementos de esa columna.

$stas matrices tambi"n se denominan Rmatrices de VadamardR. Una matriz de Vadamard siempre es regular es decir su determinante es no nulo. Las submatrices fundamentales de una matriz de Vadamard tambi"n son de Vadamard y siempre admiten factorizaci,n LU. =ormalmente se dice #ue la matriz A de n < n es estrictamente dia.onal dominante cuando se satisface-

Matriz 6ermitiana
Una matriz 6ermitiana (o 6erm7tica) es una matriz cuadrada de elementos comple%os #ue tiene la caracterstica de ser igual a su propia traspuesta con%ugada. $s decir el elemento en la i-"sima fila y j-"sima columna es igual al con%ugado del elemento en la j-"sima fila e i-"sima columna para todos los ndices i y j-

o escrita con la traspuesta con%ugada AW-

9or e%emplo

es una matriz hermtica.

Propiedades
). +ea A 7 B 8 iC donde A es hermitiana y : y ; reales entonces : es sim"trica (B 7 Bt) y ; antisim"trica (C 7 0 Ct). 3. La inversa de una matriz hermitiana es tambi"n hermitiana. 2. $n una matriz hermitiana los elementos de la diagonal principal son reales. 1. La determinante de una matriz hermitiana es un n!mero real. 9ero la propiedad m.s importante de toda matriz hermitiana es #ue todos sus autovalores son reales.

Matriz idempotente
Una matriz idempotente es una matriz la cual es igual a su cuadrado es decirA es idempotente si A < A 7 A 9or e%emplo la siguiente matriz es idempotente-

U sea- la matriz elevada al cuadrado va a ser la misma matriz sin elevarla.

Matriz identidad
$n .lgebra lineal la matriz identidad es una matriz #ue cumple la propiedad de ser el elemento neutro del producto de matrices. $sto #uiere decir #ue el producto de cual#uier matriz por la matriz identidad (donde dicho producto est" definido) no tiene ning!n efecto. La columna i-"sima de una matriz identidad es el vector unitario ei de una base vectorial inmersa en un espacio $ucldeo de dimensi,n n. ;omo el producto de matrices s,lo tiene sentido si sus dimensiones son compatibles e<isten infinitas matrices identidad dependiendo de las dimensiones. (n la matriz identidad de tamaXo n se define como la matriz diagonal #ue tiene ) en cada una de las entradas de la diagonal principal y / en el resto. As

$mpleando la notaci,n #ue a veces se usa para describir concisamente las matrices diagonales resulta(n 7 diag() ) ... )) +i el tamaXo es inmaterial o se puede deducir de forma trivial por el conte<to entonces se escribe simplemente como (. Mambi"n se puede escribir usando la notaci,n delta de YronecZer(ij 7 [ij o de forma a!n m.s sencilla ( 7 ([ij) La matriz identidad de orden n puede ser tambi"n considerada como la matriz permutaci,n #ue es elemento neutro del .rupo de matrices de permutacin de orden nL.

Matriz permutacin
La matriz permutacin es la matriz cuadrada con todos sus nn elementos iguales a / e<cepto uno cual#uiera por cada fila y columna el cual debe ser igual a ). 6e acuerdo a esta definici,n e<isten nL matrices de permutaci,n distintas de las cuales una mitad corresponde a matrices de permutacin par (con el determinante igual a )) y la otra mitad a matrices de permutacin impar (con el determinante igual a -)). 9ara n 7 2 se tieneNatrices de permutaci,n par-

Natrices de permutaci,n impar-

9uede notarse #ue las matrices de permutaci,n conforman un grupo de orden nL respecto al producto.

Propiedades

$l elemento neutro del grupo es la matriz identidad. $l elemento inverso de cada elemento del grupo de matrices de permutaci,n es la matriz traspuesta correspondiente. ;ada elemento del grupo de matrices de permutaci,n es una matriz ortogonal. $l producto de matrices de permutaci,n par siempre genera una matriz de permutaci,n par. $l producto de matrices de permutaci,n impar siempre genera una matriz de permutaci,n par. $l producto de matrices de permutaci,n de paridad distinta siempre genera una matriz de permutaci,n impar. Ubserve #ue las matrices de permutaci,n par conforman un semigrupo y #ue adem.s el grupo de matrices de permutaci,n no es conmutativo. ;ada elemento del grupo de matrices de permutaci,n fuera del semigrupo es una matriz sim"trica.

Matriz orto.onal
Las matrices orto.onales representan transformaciones en espacios vectoriales reales&)' llamadas %ustamente transformaciones ortogonales. $stas transformaciones son isomorfimos internos del espacio vectorial en cuesti,n. +uelen representar rotaciones y son usadas e<tensivamente en computaci,n gr.fica. 9or sus propiedades tambi"n son usadas para el estudio de ciertos fibrados y en fsica se las usa en la formulaci,n de ciertas teoras de campos.

Definicin
+ea n un n!mero entero y sea A una matriz cuadrada n por n con entradas reales. +e dice #ue la matriz es ortogonal si-

donde

representa la matriz transpuesta de

representa la matriz identidad.

Ejemplos
+upongamos #ue la matriz de n!meros reales

es ortogonal y su determinante es 8). +u traspuesta es igual a su inversa

de modo #ue d 7 a y c 7 0 ' y la matriz ) es de la forma

=inalmente

As #ue los n!meros a y ' satisfacen adem.s la propiedad #ue la suma de sus cuadrados vale ). 9or lo tanto e<iste un n!mero real \ para el cual

;oncluimos #ue- toda matriz ortogonal de *+(3) puede escribirse como

con \ real.

Caracterizacin
+ea A una matriz ortogonal n por n. +ean los n vectores fila de la matriz. $n t"rmino de estos vectores es muy f.cil e<presar los elementos de la matriz #ue resulta de muliplicar A por su transpuesta-

6e modo #ue los vectores fila de una matriz ortogonal forman un con%unto de n vectores ortonormales. 9uesto #ue la ecuaci,n

tambi"n se verifica tenemos #ue los vectores columna de la matriz A tambi"n forman un con%unto ortonormal de vectores. ;omo el recproco de todo esto tambi"n es cierto tenemos Una matriz real A es ortogonal si y s,lo si sus vectores filas o vectores columna son cada uno un con%unto ortonormal de vectores. $s en este sentido #ue se dice #ue se ha hecho una caracterizaci,n de las matrices ortogonales. 6ada una matriz basta verificar esta propiedad entre sus vectores fila y columna para determinar si dicha matriz es o no ortogonal.

Propiedades

6e la definici,n es inmediato #ue la si una matriz es ortogonal la matriz es no singular o inversible y su transpuesta coincide con su inversa

$l determinante de una matriz ortogonal A es 8) , -). $n efecto de las propiedades del determinante tenemos

y por tanto

$l con%unto de matrices n<n ortogonales %unto con la operaci,n de producto de matrices es un grupo llamado grupo ortogonal U(n). +upongamos #ue A y B son matrices ortogonales y sea C igual al producto de A por B. Usando las propiedades del producto de matrices tenemos

y as el producto de matrices ortogonales es una matriz ortogonal. $n matem.ticas al grupo de matrices ortogonales n por n se denomina .rupo orto.onal de dimensi,n n y se representa con +(n). $n particular el subgrupo formado por las matrices ortogonales de determinante 8) se llama .rupo especial orto.onal y se le representa con *+(n). $ntre las matrices ortogonales se encuentran las matrices de rotaci,n y las de permutaci,n.

:otas
). ] +e sobreentiende #ue al espacio vectorial real se le ha dotado de un producto interno

Matriz definida positi%a


$n el .lgebra lineal una matriz definida positi%a es una matriz hermitiana #ue es an.loga a los n!meros reales positivos.

Definiciones e;ui%alentes
+ea ) una matriz hermitiana cuadrada n n. 6e ahora en m.s notaremos la transpuesta de una matriz o vector a como a, y el con%ugado transpuesto a W . $sta matriz ) se dice definida positi%a si cumple con una (y por lo tanto las dem.s) de las siguientes formulaciones e#uivalentes( 9ara todos los vectores no nulos < . tenemos #ue

(,tese #ue z W )z es siempre real. + Modos los autovalores ^i de ) son positivos. (_ecordamos #ue los autovalores de una matriz hermitiana o en su < defecto sim"trica son reales.) 2 La funci,n < define un producto interno .

= Modas las siguientes matrices tienen determinantes positivo. < la superior iz#uierda de N de dimensi,n )<) la superior iz#uierda de N de dimensi,n 3<3 la superior iz#uierda de N de dimensi,n 2<2 ...

) en s misma por y la con%ugada transpuesta por la

An.logamente si ) es una matriz real sim"trica se reemplaza transpuesta.

Propiedades

Moda matriz definida positiva es inversible (su determinante es positivo) y su inversa es definida positiva. +i ) es una matriz definida positiva y r ` / es un n!mero real entonces r) es definida positiva. +i ) y - son matrices definidas positivas entonces la suma ) 8 - el producto )-) y -)- son definidas positivas adem.s si

)- 7 -) entonces )- es tambi"n definida positiva.

Moda matriz definida positiva ) tiene al menos una matriz raz cuadrada - tal #ue -3 7 ).

Matrices definidas ne.ati%as$ semidefinidas positi%as e indefinidas


La matriz hermitiana ) se dice definida ne.ati%a si

para todos los vectores

(,

) no nulos. +e llama semidefinida positi%a si

para todo

(,

) y semidefinida ne.ati%a si

para todo

(,

).

Una matriz hermitiana #ue no entra en ninguna de las clasificaciones anteriores se dice indefinida

Caso no 6ermitiano
Una matriz real ) puede tener la propiedad %M)% ` / para todo vector real no nulo sin ser sim"trica. La matriz

es un e%emplo. $n general tendremos %M)% ` / para todo vector real no nulo % si y s,lo si la matriz sim"trica () 8 )M) a 3 es definida positiva.

Matriz in%erti*le
$n matem.ticas y especialmente en .lgebra lineal una matriz A de dimensiones nn se dice #ue es in%erti*le in%ersi*le in%ersa o no sin.ular o re.ular si e<iste una matriz B de dimensiones nn tal #ue AB 7 BA 7 (n donde (n denota la matriz identidad de orden n (dimensiones nn) y el producto utilizado es el producto de matrices usual. Una matriz no invertible se dice #ue es una matriz singular. La in%ersa de la matriz A es !nica. $sto se denota por A-).

Prue*a de ;ue la in%ersa es >nica


+upongamos #ue B y C son inversas de A AB 7 BA 7 ( AC 7 CA 7 ( Nultiplicando por C (BA)C 7 (C 7 C (BA)C 7 B(AC) 7 B( 7 B 6e modo #ue B7C y se prueba #ue la inversa es !nica. La matriz inversa de A se denota por A 0 ) y satisface la igualdad-

$sta viene dada por-

donde

7 determinante de A 7 matriz de ad%untos de A se multiplica en inversas

Propiedades de la matriz in%ersa


La inversa del producto de dos matrices es el producto de las inversas cambiando el orden-

+i la matriz es invertible tambi"n lo es su transpuesta y el inverso de su transpuesta es la transpuesta de su inversa es decir-

F evidentemente-

?eorema so*re la in%ersi*ilidad de las matrices cuadradas


+i A es una matriz de orden n entonces e<iste B tal #ue AB 7 BA 7 ( si y s,lo si el determinante de A es distinto de cero.

Demostracin
+e probar. por doble implicaci,n.

:ecesidad
+uponiendo #ue e<iste B tal #ue AB 7 BA 7 (. $ntonces al aplicar la funci,n determinante se obtiene

usando la propiedad det(() 7 )

9or lo tanto det(A) es distinto de cero.

Suficiencia
+uponiendo #ue el determinate de A es distinto de cero sea aij es el elemento i% de la matriz A y sea Aij la matriz A sin la fila i y la columna j (com!nmente conocida como j-"simo menor de A). $ntonces

+ea

entonces

$sta afirmaci,n es v.lida propiedades de los determinantes pues la parte iz#uierda de la relaci,n nos conduce a una matriz con la columna j igual a la columna . y los dem.s t"rminos iguales a los de A. $ntonces

donde [j. 7 ) cuando j 7 . y [j. 7 / cuando

. $ntonces

$s decir #ue A tiene inversa iz#uierda

;omo

entonces At tambi"n tiene inversa iz#uierda #ue es

$ntonces

luego entonces aplicando la transpuesta

Bue es lo #ue se #uera demostrar

@radiente

$n esta imagen el campo escalar se aprecia en blanco y negro representando valores ba%os o altos respectivamente y el gradiente correspondiente se aprecia por flechas azules. $l .radiente normalmente denota una direcci,n en el espacio seg!n la cual se aprecia una variaci,n de una determinada propiedad o magnitud fsica. $n otros conte<tos se usa informalmente gradiente para indicar la e<istencia de gradualidad o variaci,n gradual en determinado aspecto no necesariamente relacionado con la distribuci,n fsica de una determinada magntiud o propiedad.

Definicin
$l .radiente de un campo escalar #ue sea diferenciable en el entorno de un punto es un vector definido como el !nico #ue permite hallar la derivada direccional en cual#uier direcci,n como-

siendo un vector unitario y la derivada direccional de variaci,n del campo escalar al desplazarnos seg!n esta direcci,n-

en la direcci,n de

#ue informa de la tasa de

Una forma e#uivalente de definir el gradiente es como el !nico vector #ue multiplicado por cual#uier desplazamiento infinitesimal da el diferencial del campo escalar-

;on la definici,n anterior el gradiente est. caracterizado de forma unvoca. $l gradiente se e<presa alternativamente mediante el uso del operador nabla-

Anterpretacin del @radiente


6e forma geom"trica el gradiente es un vector #ue se encuentra normal a una superficie o curva en el espacio a la cual se le esta estudiando en un punto cual#uiera llamese etc"tera algunos e%emplos son;onsidere una habitaci,n en la cual la temperatura se define a trav"s de un campo escalar de tal manera #ue en cual#uier punto la temperatura es . Asumiremos #ue la temperatura no varia con respecto al tiempo. +iendo esto as para cada punto de la habitaci,n el gradiente en ese punto nos dar. la direcci,n en la cual se calienta m.s r.pido. La magnitud del gradiente nos dir. cu.n r.pido se calienta en esa direcci,n. Ahora considere una montaXa en la cual su altura en el punto se define como .

$l gradiente de / en ese punto estar. en la direcci,n del punto a mayor grado de inclinaci,n. La magnitud del gradiente nos mostrar. cu.n empinada se encuentra la pendiente. As se demuestra-

AproBimacin lineal de una funcin


$l gradiente de una funci,n f definida de 8n a 8 caracteriza la me%or apro<imaci,n lineal de la funci,n en un punto particular %/ en 8n. +e e<presa as-

donde

es el gradiente evaluado en %/.

Propiedades
$l gradiente verifica #ue

$s ortogonal a las superficies e#uiescalares definidas por 7cte.. Apunta en la direcci,n en #ue la derivada direccional es m.<ima. +u m,dulo es igual a esta derivada direccional m.<ima. +e anula en los puntos estacionarios (m.<imos mnimos y puntos de silla) $l campo formado el gradiente en cada punto es siempre irrotacional esto es

EBpresin en diferentes sistemas de coordenadas


A partir de su definici,n puede hallarse su e<presi,n en diferentes sistemas de coordenadas. $n coordenadas cartesianas su e<presi,n es simplemente

$n un sistema de coordenadas ortogonales el gradiente re#uiere los factores de escala mediante la e<presi,n

9ara coordenadas cilndricas (hb 7 hz 7 )

) resulta

y para coordenadas esf"ricas (hr 7 ) h\ 7 r

@radiente de un campo %ectorial


$n un espacio eucldeo el concepto de gradiente tambi"n puede e<tenderse al caso de un campo vectorial siendo el gradiente de un tensor #ue da el diferencial del campo al realizar un desplazamiento

$ste tensor podr. representarse por una matriz #ue en coordendas cartesianas est. formada por las tres derivadas parciales de las tres componentes del campo vectorial.

Ejemplo
6ada la funci,n f(% ! z) 7 3% 8 2!3 0 sin(z) su vector gradiente es-

Aplicaciones en f7sica
$l gradiente posee innumerables aplicaciones en fsica especialmente en electromagnetismo y mec.nica de fluidos. $n particular e<isten muchos campos vectoriales #ue puede escribirse como el gradiente de un potencial escalar. Uno de ellos es el campo electrost.tico #ue deriva del potencial el"ctrico

Modo campo #ue pueda escribirse como el gradiente de un campo escalar se denomina potencial conservativo o irrotacional. As una fuerza conservativa deriva de la energa potencial como

Los gradientes tambi"n aparecen en los procesos de difusi,n #ue verifican la ley de =icZ o la ley de =ourier para la temperatura. As por e%emplo el flu%o de calor en un material es proporcional al gradiente de temperaturas

siendo . la conductividad t"rmica.

Caco*iano
$n c.lculo vectorial el jaco*iano es una abreviaci,n de la matriz jaco*iana y su determinante el determinante Caco*iano. +on llamados as en honor al matem.tico ;arl Oustav cacobi. $n geometra algebraica el jaco*iano de una curva hace referencia a la variedad %acobiana un grupo y variedad algebraica asociada a la curva donde la curva puede ser embebida.

Matriz Caco*iana
La matriz Caco*iana es una matriz formada por las derivadas parciales de primer orden de una funci,n. Una de las aplicaciones m.s interesantes de esta matriz es la posibilidad de apro<imar linealmente a la funci,n en un punto. $n este sentido el cacobiano representa la derivada de una funci,n multivariable. +upongamos 0 - 8n d 8m es una funci,n #ue va del espacio euclidiano n-dimensional a otro espacio euclideano m-dimensional. $sta funci,n est. determinada por m funciones reales- !)(%) ... %n) ... !m(%) ... %n). Las derivadas parciales de estas (si e<isten) pueden ser organizadas en una matriz m por n la matriz cacobiana de 0-

$sta matriz es notada por

o como

La i-"sima fila est. dada por el gradiente de la funci,n !i para i7) ... m. +i p es un punto de 8n y 0 es diferenciable en p entonces su derivada est. dada por 10(p). $n este caso la aplicaci,n lineal descrita por 10(p) es la me%or apro<imaci,n lineal de 0 cerca del punto p de esta manera-

para B cerca de p.

Ejemplo
$l cacobiano de la funci,n 0 - 82 d 82 definida como-

es-

(o siempre un cacobiano es cuadrado.

Matriz Caco*iana de un campo %ectorial


$n c.lculo vectorial la matriz Caco*iana para un campo vectorial es la matriz de orden m%n #ue tiene como elementos a las derivadas parciales (si e<isten) de la funci,n. 9or e%emplo se desea obtener la eNatriz cacobianae de la diferencial . Usandoen la f,rmula. 6ividiendo por l y haciendo tender l a / se obtienede una funci,n de 2n a 2m en el punto

$ste es el vector #ue va en la primera columna de la matriz buscada. 9or analoga para las dem.s columnas. 6e este modo la matriz cacobiana de en el punto es-

se consiguen

$sta matriz se denota tambi"n por-

Determinante Caco*iano
+i m 7 n entonces 0 es una funci,n #ue va de un espacio n-dimensional a otro. $n este caso la matriz cacobiana es cuadrada y podemos calcular su determinante conocido como el determinante cacobiano. $l determinante cacobiano en un punto dado nos da informaci,n importante sobre el comportamiento de 0 cerca de ese punto. 9ara empezar una funci,n 0 es invertible cerca de p si el determinante cacobiano en p es no nulo. N.s a!n el valor absoluto del determinate en p nos da el factor con el cual 0 e<pande o contrae su volumen cerca de p.

Ejemplo
$l determinante cacobiano de la funci,n 0 - 82 d 82 definida como-

es-

La funci,n es localmente invertible e<cepto donde %)7/ , %37/. +i imaginamos un ob%eto pe#ueXo centrado en el punto () ) )) y le aplicamos 0 tendremos un ob%eto de apro<imadamente 1/ veces m.s volumen #ue el original.

Matriz nilpotente
Una matriz se dice nilpotente si e<iste tal #ue -. 7 /. +i A es una matriz nilpotente entonces fAf7/.

Demostracin
+i A es una matriz nilpotente de orden Z AgZ7/. 9or tanto fAgZf7/ luego fAfgZ7/ y en consecuencia fAf7/.

Matriz normal
9no o m!s DiEipedistas est!n tra*ajando actualmente en eBtender este art7culo. $s posible #ue a causa de ello haya lagunas de contenido o deficiencias de formato. 9or favor antes de realizar correcciones mayores o reescrituras contacta con ellos en su p.gina de usuario o en la p.gina de discusi,n del artculo para poder coordinar la redacci,n. +ea A matriz comple%a cuadrada entonces es una matriz normal si y s,lo si A W A 7 AA W donde AW es el con%ugado transpuesto de A (tambi"n llamado hermitiano)

Ejemplos
$sta matriz de orden 3 es normal.

debido a #ue ..

Propiedades
Una importante propiedad de este tipo de matrices es #ue son diagonalizables. Demostracin1 +ea A matriz comple%a cuadrada normal. $ntonces puede e<presarse utilizando la descomposici,n de +chur de esta maneraA 7 343 W 6emostraremos #ue la matriz U es diagonal por ahora solo sabemos #ue es triangular superior. =ormalmente definimos estas condiciones con n!meros ya #ue ser.n usadas en la demostraci,n-

a.) 7 / a.3 7 / ... a.n 0 ) 7 /

(" +" n-("

Usando el hecho #ue A es normalA W A 7 (343 W ) W (343 W ) 7 34 W (3 W 3)(a)43 W 7 34 W 43 W ?d"nticamente. (343 W )(343 W ) W 7 344 W 3 W 9ostmultiplicando por 3 y luego premultiplicando por 3 W obtenemos- 4 W 4 7 44 W Lo cual da lugar a estas dos multiplicaciones matriciales-

9ara nuestros prop,sitos nos interesan los elementos de las diagonales.

Ahora utilizamos un procedimiento inductivo para probar #ue esta matriz producto es diagonal (sus elementos son ceros fuera de la diagonal principal)

Caso i&(- (4 W 4))) 7 (44 W )))

+eparamos el elemento diagonal de las sumatorias.

Usando ("

9or lo tanto a)j 7 /

Matriz cero
Una matriz de n<m elementos-

es una matriz cero si aji 7 / para todo i7) 3 2 ... n y %7) 3 2 ...m. 9or lo tanto la matriz A asume la forma-

$sta matriz tambi"n se le suele llamar matriz nula y se denota por /. Una matriz cero es al mismo tiempo matriz sim"trica matriz antisim"trica matriz nilpotente y matriz singular.

Matriz sin.ular
Una matriz cuadrada A de orden n es sin.ular si su determinante es nulo. Algunos autores llaman a estas matrices degeneradas. $n tal caso se dice #ue dicha matriz no tiene inversa.

Matriz trian.ular
Una matriz de n<m elementos-

es trian.ular superior si es una matriz cuadrada y aij 7 / para todo i`% (i % 7) 3 2 ... n). $s decir

$n caso contrario si aij 7 / para todo ih% (i % 7) 3 2 ... n) entonces A es matriz trian.ular inferior #ue tiene la forma-

9or e%emplo para n 7 2-

es triangular superior y

es triangular inferior. +e suelen emplear las letras U y L respectivamente ya #ue U es la inicial de Rupper triangular matri<R y L de Rlo>er triangular matri<R los nombres #ue reciben estas matrices est.n en ingl"s. $n general se pueden realizar las operaciones en estas matrices en la mitad de tiempo. $l determiante de una matriz triangular es el producto de los elementos de la diagonal principal.

Matrices definidas positi%as$ ne.ati%as$ semidefinidas positi%as e indefinidas


$n el .lgebra lineal una matriz definida positi%a es una matriz hermitiana #ue es an.loga a los n!meros reales positivos.

Definiciones e;ui%alentes
+ea ) una matriz hermitiana cuadrada n n. 6e ahora en m.s notaremos la transpuesta de una matriz o vector a como a, y el con%ugado transpuesto a W . $sta matriz ) se dice definida positi%a si cumple con una (y por lo tanto las dem.s) de las siguientes formulaciones e#uivalentes( 9ara todos los vectores no nulos < . tenemos #ue

(,tese #ue z W )z es siempre real. + Modos los autovalores ^i de ) son positivos. (_ecordamos #ue los autovalores de una matriz hermitiana o en su < defecto sim"trica son reales.) 2 La funci,n < define un producto interno . = Modas las siguientes matrices tienen determinantes positivo. < la superior iz#uierda de N de dimensi,n )<) la superior iz#uierda de N de dimensi,n 3<3 la superior iz#uierda de N de dimensi,n 2<2 ...

) en s misma por y la con%ugada transpuesta por la

An.logamente si ) es una matriz real sim"trica se reemplaza transpuesta.

Propiedades

Moda matriz definida positiva es inversible (su determinante es positivo) y su inversa es definida positiva. +i ) es una matriz definida positiva y r ` / es un n!mero real entonces r) es definida positiva. +i ) y - son matrices definidas positivas entonces la suma ) 8 - el producto )-) y -)- son definidas positivas adem.s si

)- 7 -) entonces )- es tambi"n definida positiva.

Moda matriz definida positiva ) tiene al menos una matriz raz cuadrada - tal #ue -3 7 ).

Matrices definidas ne.ati%as$ semidefinidas positi%as e indefinidas

La matriz hermitiana ) se dice definida ne.ati%a si

para todos los vectores

(,

) no nulos. +e llama semidefinida positi%a si

para todo

(,

) y semidefinida ne.ati%a si

para todo

(,

).

Una matriz hermitiana #ue no entra en ninguna de las clasificaciones anteriores se dice indefinida

Caso no 6ermitiano
Una matriz real ) puede tener la propiedad %M)% ` / para todo vector real no nulo sin ser sim"trica. La matriz

es un e%emplo. $n general tendremos %M)% ` / para todo vector real no nulo % si y s,lo si la matriz sim"trica () 8 )M) a 3 es definida positiva.

También podría gustarte