Está en la página 1de 15

Matriz (matemáticas)

Ir a la navegaciónIr a la búsqueda
Para otros usos de este término, véase Matriz.
En matemática, una matriz es un arreglo bidimensional de números. Dado que puede
definirse tanto la suma como el producto de matrices, en mayor generalidad se dice
que son elementos de un anillo. Una matriz se representa por medio de una letra
mayúscula (A,B, …) y sus elementos con la misma letra en minúscula (a,b, …), con un
doble subíndice donde el primero indica la fila y el segundo la columna a la que
pertenece.

{\displaystyle \mathbf {A} ={\begin{pmatrix}a_{11}&a_{12}&\cdots


&a_{1n}\\a_{21}&a_{22}&\cdots &a_{2n}\\\vdots &\vdots &\ddots &\vdots
\\a_{m1}&a_{m2}&\cdots &a_{mn}\\\end{pmatrix}}}{\displaystyle \mathbf {A}
={\begin{pmatrix}a_{11}&a_{12}&\cdots &a_{1n}\\a_{21}&a_{22}&\cdots &a_{2n}\\\vdots
&\vdots &\ddots &\vdots \\a_{m1}&a_{m2}&\cdots &a_{mn}\\\end{pmatrix}}}

Los elementos individuales de una matriz {\displaystyle m}m x {\displaystyle n}n,


se denotan a menudo por {\displaystyle a_{ij}}a_{ij}, donde el máximo valor de
{\displaystyle i}i es {\displaystyle m}m, y el máximo valor de {\displaystyle j}j
es {\displaystyle n}n. Siempre que la matriz tenga el mismo número de filas y de
columnas que otra matriz, estas se pueden sumar o restar elemento por elemento.

Las matrices se utilizan para múltiples aplicaciones y sirven, en particular, para


representar los coeficientes de los sistemas de ecuaciones lineales o para
representar transformaciones lineales dada una base. En este último caso, las
matrices desempeñan el mismo papel que los datos de un vector para las aplicaciones
lineales.

Pueden sumarse, multiplicarse y descomponerse de varias formas, lo que también las


hace un concepto clave en el campo del álgebra lineal.

Índice
1 Historia
2 Introducción
2.1 Definición
2.2 Ejemplo
2.3 Operaciones básicas entre matrices
2.3.1 Suma o adición
2.3.2 Producto por un escalar
2.3.3 Producto de matrices
3 Otros conceptos relacionados con matrices
3.1 Rango de una matriz
3.2 Matriz traspuesta
3.3 Matrices cuadradas y definiciones relacionadas
3.4 Matriz Lógica
3.4.1 Representación de una relación matricial
3.4.2 Ejemplo
3.4.3 Algunas Propiedades
4 Aplicaciones
4.1 Las matrices en la Computación
4.2 Ejemplo de brazo robótico
4.3 Teoría de matrices
4.4 Matrices relacionadas con otros temas
4.5 Matrices en teoría de grafos
4.6 Análisis y geometría
5 Algunos teoremas
6 Véase también
7 Referencias
7.1 Notas
8 Enlaces externos
Historia
Cronología1
Año Acontecimiento
200 a.C. En China los matemáticos usan series de números.
1848 J. J. Sylvester introduce el término «matriz».
1858 Cayley publica Memorias sobre la teoría de matrices.
1878 Frobenius demuestra resultados fundamentales en álgebra matricial.
1925 Heisenberg utiliza la teoría matricial en la mecánica cuántica
El origen de las matrices es muy antiguo. Los cuadrados latinos y los cuadrados
mágicos se estudiaron desde hace mucho tiempo. Un cuadrado mágico, 3 por 3, se
registra en la literatura china hacia el 650 a. C.2

Es larga la historia del uso de las matrices para resolver ecuaciones lineales. Un
importante texto matemático chino que proviene del año 300 a. C. a 200 a. C., Nueve
capítulos sobre el Arte de las matemáticas (Jiu Zhang Suan Shu), es el primer
ejemplo conocido de uso del método de matrices para resolver un sistema de
ecuaciones simultáneas.3 En el capítulo séptimo, "Ni mucho ni poco", el concepto de
determinante apareció por primera vez, dos mil años antes de su publicación por el
matemático japonés Seki Kōwa en 1683 y el matemático alemán Gottfried Leibniz en
1693.

Los "cuadrados mágicos" eran conocidos por los matemáticos árabes, posiblemente
desde comienzos del siglo VII, quienes a su vez pudieron tomarlos de los
matemáticos y astrónomos de la India, junto con otros aspectos de las matemáticas
combinatorias. Todo esto sugiere que la idea provino de China. Los primeros
"cuadrados mágicos" de orden 5 y 6 aparecieron en Bagdad en el año 983, en la
Enciclopedia de la Hermandad de Pureza (Rasa'il Ihkwan al-Safa).2

Después del desarrollo de la teoría de determinantes por Seki Kowa y Leibniz para
facilitar la resolución de ecuaciones lineales, a finales del siglo XVII, Cramer
presentó en 1750 la ahora denominada regla de Cramer. Carl Friedrich Gauss y
Wilhelm Jordan desarrollaron la eliminación de Gauss-Jordan en el siglo XIX.

Fue James Joseph Sylvester quien utilizó por primera vez el término «matriz» en
1848/1850.

En 1853, Hamilton hizo algunos aportes a la teoría de matrices. Cayley introdujo en


1858 la notación matricial, como forma abreviada de escribir un sistema de m
ecuaciones lineales con n incógnitas.

Cayley, Hamilton, Hermann Grassmann, Frobenius, Olga Taussky-Todd y John von


Neumann cuentan entre los matemáticos famosos que trabajaron sobre la teoría de las
matrices. En 1925, Werner Heisenberg redescubre el cálculo matricial fundando una
primera formulación de lo que iba a pasar a ser la mecánica cuántica. Se le
considera a este respecto como uno de los padres de la mecánica cuántica.

Olga Taussky-Todd (1906-1995), durante la II Guerra Mundial, usó la teoría de


matrices para investigar el fenómeno de aeroelasticidad llamado fluttering.

Introducción
Definición
Una matriz es un arreglo bidimensional de números (llamados entradas de la matriz)
ordenados en filas (o renglones) y columnas, donde una fila es cada una de las
líneas horizontales de la matriz y una columna es cada una de las líneas
verticales. A una matriz con m filas y n columnas se le denomina «matriz m por n»
(escrito {\displaystyle m\times n}{\displaystyle m\times n}) donde {\displaystyle
m,n\in \mathbb {N} -\{0\}}{\displaystyle m,n\in \mathbb {N} -\{0\}}. El conjunto de
las matrices de tamaño {\displaystyle m\times n}{\displaystyle m\times n} se
representa como {\displaystyle {\mathcal {M}}_{m\times n}(\mathbb {K} )}
{\displaystyle {\mathcal {M}}_{m\times n}(\mathbb {K} )}, donde {\displaystyle
\mathbb {K} }{\mathbb {K}} es el campo al cual pertenecen las entradas. El tamaño
de una matriz siempre se da con el número de filas primero y el número de columnas
después.

Dos matrices se dice que son iguales si tienen el mismo tamaño y los mismos
elementos en las mismas posiciones. A la entrada de una matriz que se encuentra en
la fila {\displaystyle i-\,\!}i-\,\!ésima y la columna {\displaystyle j-\,\!}j-\,\!
ésima se le llama entrada {\displaystyle i,j\,\!}i,j\,\! o entrada {\displaystyle
(i,j)\,\!}(i,j)\,\!-ésimo de la matriz. En estas expresiones también se consideran
primero las filas y después las columnas.

Dos matrices {\displaystyle A,B\in {\mathcal {M}}_{m\times n}(\mathbb {K} )}


{\displaystyle A,B\in {\mathcal {M}}_{m\times n}(\mathbb {K} )} son iguales si los
elementos correspondientes son iguales, es decir, {\displaystyle
a_{ij}=b_{ij},1\leq i\leq m,1\leq j\leq n}{\displaystyle a_{ij}=b_{ij},1\leq i\leq
m,1\leq j\leq n}.

Para definir el concepto de matriz, el término "arreglo bidimensional" es útil,


aunque poco formal, pero puede formalizarse usando el concepto de función. De este
modo, una matriz de n filas y m columnas con entradas en un campo {\displaystyle
\mathbb {K} }{\mathbb {K}} es una función cuyo dominio es el conjunto de los pares
ordenados {\displaystyle (i,j)\,\!}(i,j)\,\!, donde {\displaystyle 1\leq i\leq
n}1\leq i\leq n y {\displaystyle 1\leq j\leq m}1\leq j\leq m, y cuyo contradominio
es {\displaystyle \mathbb {K} }{\mathbb {K}}. Con esta definición, la entrada
{\displaystyle i,j\,\!}i,j\,\! es el valor de la función en el par ordenado
{\displaystyle (i,j)\,\!}(i,j)\,\!.

Se denota a las matrices con letra mayúscula, mientras que se utiliza la


correspondiente letra en minúsculas para denotar a las entradas de las mismas, con
subíndices que refieren al número de fila y columna del elemento.4Por ejemplo, al
elemento de una matriz {\displaystyle A}A de tamaño {\displaystyle m\times n}
{\displaystyle m\times n} que se encuentra en la fila {\displaystyle i-\,\!}i-\,\!
ésima y la columna {\displaystyle j-\,\!}j-\,\!ésima se le denota como
{\displaystyle a_{ij}\,\!}a_{{ij}}\,\!, donde {\displaystyle 1\leq i\leq n}1\leq
i\leq n y {\displaystyle 1\leq j\leq m}1\leq j\leq m.

Cuando se va a representar explícitamente una entrada la cual está indexada con un


{\displaystyle i\,\!}i\,\! o un {\displaystyle j\,\!}j\,\! con dos cifras se
introduce una coma entre el índice de filas y de columnas. Así por ejemplo, la
entrada que está en la primera fila y la segunda columna de la matriz
{\displaystyle A\,\!}A\,\! de tamaño {\displaystyle 50\times 100}50\times 100 se
representa como {\displaystyle a_{1,2}\,\!}a_{{1,2}}\,\! mientras que la entrada
que está en la fila número 23 y la columna 100 se representa como {\displaystyle
a_{23,100}\,\!}a_{{23,100}}\,\!.

Además de utilizar letras mayúsculas para representar matrices, numerosos autores


representan a las matrices con fuentes en negrita para distinguirlas de otros
objetos matemáticos.[cita requerida] Así {\displaystyle \mathbf {A} }{\mathbf {A}}
es una matriz, mientras que {\displaystyle A\,\!}A\,\! es un escalar en esa
notación. Sin embargo esta notación generalmente se deja para libros y
publicaciones, donde es posible hacer esta distinción tipográfica con facilidad. En
otras notaciones se considera que el contexto es lo suficientemente claro como para
no usar negritas.

Otra notación, en sí un abuso de notación, representa a la matriz por sus entradas,


i.e. {\displaystyle A:=(a_{ij})\,\!}A:=(a_{{ij}})\,\! o incluso {\displaystyle
A:=a_{ij}\,\!}A:=a_{{ij}}\,\!.

Como caso particular de matriz, se definen los vectores fila y los vectores
columna. Un vector fila o vector renglón es cualquier matriz de tamaño
{\displaystyle 1\times n}1\times n mientras que un vector columna es cualquier
matriz de tamaño {\displaystyle m\times 1}m\times 1.

A las matrices que tienen el mismo número de filas que de columnas, se les llama
matrices cuadradas y el conjunto se denota {\displaystyle {\mathcal {M}}_{n}
(\mathbb {R} )}{\displaystyle {\mathcal {M}}_{n}(\mathbb {R} )}

Ejemplo
Dada la matriz {\displaystyle A\in {\mathcal {M}}_{4\times 3}(\mathbb {K} )}
{\displaystyle A\in {\mathcal {M}}_{4\times 3}(\mathbb {K} )}

{\displaystyle
A={\begin{bmatrix}1&2&3\\1&2&7\\4&9&2\\6&0&5\\\end{bmatrix}}}A={\begin{bmatrix}1&2&
3\\1&2&7\\4&9&2\\6&0&5\\\end{bmatrix}}
es una matriz de tamaño {\displaystyle 4\times 3}4\times 3. La entrada
{\displaystyle a_{23}\,\!}a_{{23}}\,\! es 7.

La matriz {\displaystyle R\in {\mathcal {M}}_{1\times 9}(\mathbb {K} )}


{\displaystyle R\in {\mathcal {M}}_{1\times 9}(\mathbb {K} )}

{\displaystyle
R={\begin{bmatrix}1&2&3&4&5&6&7&8&9\end{bmatrix}}}R={\begin{bmatrix}1&2&3&4&5&6&7&8
&9\end{bmatrix}}
es una matriz de tamaño {\displaystyle 1\times 9}1\times 9: un vector fila con 9
entradas.

Operaciones básicas entre matrices


Las operaciones que se pueden hacer con matrices provienen de sus aplicaciones,
sobre todo de las aplicaciones en álgebra lineal. De ese modo las operaciones, o su
forma muy particular de ser implementadas, no son únicas.

Suma o adición
Sean {\displaystyle A,B\in {\mathcal {M}}_{n\times m}(\mathbb {K} )}A,B\in
{\mathcal {M}}_{{n\times m}}({\mathbb {K}})

{\displaystyle {\begin{bmatrix}2&2&1\\3&2&1\\2&3&2\\2&0&4\end{bmatrix}}\quad +\quad


{\begin{bmatrix}0&1&4\\1&4&0\\2&1&1\\0&2&2\end{bmatrix}}\quad =\quad
{\begin{bmatrix}2&3&5\\4&6&1\\4&4&3\\2&2&6\end{bmatrix}}}
{\begin{bmatrix}2&2&1\\3&2&1\\2&3&2\\2&0&4\end{bmatrix}}\quad +\quad
{\begin{bmatrix}0&1&4\\1&4&0\\2&1&1\\0&2&2\end{bmatrix}}\quad =\quad
{\begin{bmatrix}2&3&5\\4&6&1\\4&4&3\\2&2&6\end{bmatrix}}

. Se define la operación de suma o adición de matrices como una operación binaria


{\displaystyle +:{\mathcal {M}}_{m\times n}(\mathbb {K} )\times {\mathcal
{M}}_{m\times n}(\mathbb {K} )\longrightarrow {\mathcal {M}}_{m\times n}(\mathbb
{K} )}{\displaystyle +:{\mathcal {M}}_{m\times n}(\mathbb {K} )\times {\mathcal
{M}}_{m\times n}(\mathbb {K} )\longrightarrow {\mathcal {M}}_{m\times n}(\mathbb
{K} )} tal que {\displaystyle (A,B)\mapsto C=A+B}(A,B)\mapsto C=A+B y donde
{\displaystyle c_{ij}=a_{ij}+b_{ij}\,\!}c_{{ij}}=a_{{ij}}+b_{{ij}}\,\! en el que la
operación de suma en la última expresión es la operación binaria correspondiente
pero en el campo {\displaystyle \mathbb {K} }{\mathbb {K}}. Por ejemplo, la
entrada {\displaystyle c_{12}\,\!}c_{{12}}\,\! es igual a la suma de los elementos
{\displaystyle a_{12}\,\!}a_{{12}}\,\! y {\displaystyle b_{12}\,\!}b_{{12}}\,\! lo
cual es {\displaystyle a_{12}+b_{12}\,\!}a_{{12}}+b_{{12}}\,\!.
Veamos un ejemplo más explícito. Sea {\displaystyle A,B\in {\mathcal {M}}_{3}
(\mathbb {R} )}A,B\in {\mathcal {M}}_{{3}}({\mathbb {R}})

{\displaystyle {\begin{bmatrix}1&3&2\\1&0&0\\1&2&2\end{bmatrix}}+
{\begin{bmatrix}1&0&5\\7&5&0\\2&1&1\end{bmatrix}}={\begin{bmatrix}1+1&3+0&2+5\\1+7&
0+5&0+0\\1+2&2+1&2+1\end{bmatrix}}={\begin{bmatrix}2&3&7\\8&5&0\\3&3&3\end{bmatrix}
}}{\begin{bmatrix}1&3&2\\1&0&0\\1&2&2\end{bmatrix}}+
{\begin{bmatrix}1&0&5\\7&5&0\\2&1&1\end{bmatrix}}={\begin{bmatrix}1+1&3+0&2+5\\1+7&
0+5&0+0\\1+2&2+1&2+1\end{bmatrix}}={\begin{bmatrix}2&3&7\\8&5&0\\3&3&3\end{bmatrix}
}
No es necesario que las matrices sean cuadradas:

A la luz de estos ejemplos es inmediato ver que dos matrices se pueden sumar
solamente si ambas tienen el mismo tamaño. La suma de matrices, en el caso de que
las entradas estén en un campo, poseen las propiedades de asociatividad,
conmutatividad, existencia de elemento neutro aditivo y existencia de inverso
aditivo. Esto es así ya que estas son propiedades de los campos en los que están
las entradas de la matriz.

Propiedades de la suma de matrices


Sean {\displaystyle A,B,C\in {\mathcal {M}}_{n\times m}(\mathbb {K} )}A,B,C\in
{\mathcal {M}}_{{n\times m}}({\mathbb {K}}), donde {\displaystyle \mathbb {K} }
{\mathbb {K}} es un campo entonces se cumplen las siguientes propiedades para la
operación binaria {\displaystyle +}+

Asociatividad
{\displaystyle (A+B)+C=A+(B+C)\,\!}(A+B)+C=A+(B+C)\,\!
Demostración
Conmutatividad
{\displaystyle (A+B)=(B+A)\,\!}(A+B)=(B+A)\,\!
Demostración
Existencia del elemento neutro aditivo
Existe {\displaystyle 0\in {\mathcal {M}}_{n\times m}(\mathbb {K} )}0\in {\mathcal
{M}}_{{n\times m}}({\mathbb {K}}) tal que

{\displaystyle A+0=0+A=A\,\!}A+0=0+A=A\,\!
Demostración
Existencia del inverso aditivo
Existe {\displaystyle D\in {\mathcal {M}}_{n\times m}(\mathbb {K} )}D\in {\mathcal
{M}}_{{n\times m}}({\mathbb {K}}) tal que

{\displaystyle A+D=0\,\!}A+D=0\,\!
a esta matriz {\displaystyle D\,\!}D\,\! se le denota por {\displaystyle -A\,\!}-
A\,\!.

Demostración
En efecto, estas propiedades dependen del conjunto en el que estén las entradas,
como se ha dicho antes, aunque en las aplicaciones generalmente los campos usados
son {\displaystyle \mathbb {R} }\mathbb{R} (los números reales) y {\displaystyle
\mathbb {C} }\mathbb{C} (los números complejos).

Por como se definió la operación binaria adición se dice que ésta operación es una
operación interna por lo que se cumple intrínsecamente la propiedad de que
{\displaystyle {\mathcal {M}}_{n\times m}(\mathbb {K} )}{\mathcal {M}}_{{n\times
m}}({\mathbb {K}}) es cerrado bajo adición. Con éstas propiedades se tiene que
{\displaystyle ({\mathcal {M}}_{n\times m}(\mathbb {K} ),+)}({\mathcal
{M}}_{{n\times m}}({\mathbb {K}}),+) es un grupo abeliano.

En el caso en que el conjunto al que pertenecen las entradas de la matriz sea un


anillo {\displaystyle (A,+_{A},\cdot _{A})}(A,+_{{A}},\cdot _{{A}}), la operación
de adición de matrices continúa dotando de estructura de grupo abeliano a
{\displaystyle ({\mathcal {M}}_{n\times m}(A),+)}({\mathcal {M}}_{{n\times m}}(A),
+), ya que bajo un anillo {\displaystyle (A,+_{A},\cdot _{A})}(A,+_{{A}},\cdot
_{{A}}) se tiene que {\displaystyle (A,+_{A})\,\!}(A,+_{{A}})\,\! es un grupo
abeliano. En el caso de que las entradas estén en un grupo {\displaystyle (G,
+_{G})\,\!}(G,+_{{G}})\,\!, éste necesita ser un grupo abeliano para que la adición
de matrices siga dotando de estructura de grupo abeliano a {\displaystyle
({\mathcal {M}}_{n\times m}(G),+)}({\mathcal {M}}_{{n\times m}}(G),+).

Producto por un escalar


Sean {\displaystyle A\in {\mathcal {M}}_{n\times m}(\mathbb {K} )}A\in {\mathcal
{M}}_{{n\times m}}({\mathbb {K}}) y {\displaystyle \lambda \in \mathbb
{K} }\lambda \in {\mathbb {K}}. Se define la operación de producto por un escalar
como una función {\displaystyle \mathbb {K} \times {\mathcal {M}}_{n\times m}
(\mathbb {K} )\longrightarrow {\mathcal {M}}_{n\times m}(\mathbb {K} )}{\mathbb
{K}}\times {\mathcal {M}}_{{n\times m}}({\mathbb {K}})\longrightarrow {\mathcal
{M}}_{{n\times m}}({\mathbb {K}}) tal que {\displaystyle (\lambda ,A)\mapsto
B=\lambda A}(\lambda ,A)\mapsto B=\lambda A y donde {\displaystyle b_{ij}=\lambda
a_{ij}\,\!}b_{{ij}}=\lambda a_{{ij}}\,\! en donde el producto es la operación
binaria correspondiente pero en el campo {\displaystyle \mathbb {K} }{\mathbb
{K}}. Por ejemplo, la entrada {\displaystyle b_{12}\,\!}b_{{12}}\,\! es igual al
producto {\displaystyle \lambda a_{12}\,\!}\lambda a_{{12}}\,\!.

Veamos un ejemplo más explícito. Sea {\displaystyle A\in {\mathcal {M}}_{2\times 3}


(\mathbb {R} )}A\in {\mathcal {M}}_{{2\times 3}}({\mathbb {R}}) y {\displaystyle
2\in \mathbb {R} }2\in {\mathbb {R}}

{\displaystyle 2{\begin{bmatrix}1&\,\,\ \,8&-3\\4&-


2&\,\,\,6\end{bmatrix}}={\begin{bmatrix}2(1)&\,\,\,\,2(8)&2(-3)\\2(4)&2(-
2)&\,\,\,\,2(6)\end{bmatrix}}={\begin{bmatrix}2&\,16&-6\\8&-4&\,12\end{bmatrix}}}
{\displaystyle 2{\begin{bmatrix}1&\,\,\ \,8&-3\\4&-
2&\,\,\,6\end{bmatrix}}={\begin{bmatrix}2(1)&\,\,\,\,2(8)&2(-3)\\2(4)&2(-
2)&\,\,\,\,2(6)\end{bmatrix}}={\begin{bmatrix}2&\,16&-6\\8&-4&\,12\end{bmatrix}}}
También es inmediato observar que el producto por un escalar da como resultado una
matriz del mismo tamaño que la original. También el producto por un escalar
dependerá de la estructura algebraica en la que las entradas están. En el caso de
que estén en un campo serán dos distributividades (una respecto de suma de matrices
y otra respecto de suma en el campo), asociatividad y una propiedad concerniente al
producto por el elemento neutro multiplicativo del campo. A continuación se
presentan las propiedades.

Propiedades del producto por un escalar


Sean {\displaystyle A,B\in {\mathcal {M}}_{n\times m}(\mathbb {K} )}A,B\in
{\mathcal {M}}_{{n\times m}}({\mathbb {K}}) y {\displaystyle \lambda ,\mu \in
\mathbb {K} }\lambda ,\mu \in {\mathbb {K}}, donde {\displaystyle \mathbb {K} }
{\mathbb {K}} es un campo, entonces se cumplen las siguientes propiedades para la
operación producto por un escalar

Asociatividad
{\displaystyle (\lambda \mu )A=\lambda (\mu A)\,\!}(\lambda \mu )A=\lambda (\mu
A)\,\!
Demostración
Distributividad respecto de la suma de matrices
{\displaystyle \lambda (A+B)=\lambda A+\lambda B\,\!}\lambda (A+B)=\lambda
A+\lambda B\,\!
Demostración
Distributividad respecto de la suma en el campo
{\displaystyle (\lambda +\mu )A=\lambda A+\mu A\,\!}(\lambda +\mu )A=\lambda A+\mu
A\,\!
Demostración
Producto por el neutro multiplicativo del campo
{\displaystyle 1_{\mathbb {K} }A=A\,\!}1_{{{\mathbb {K}}}}A=A\,\!
Demostración
Por como se definió la operación de producto por escalares se dice que
{\displaystyle {\mathcal {M}}_{n\times m}(\mathbb {K} )}{\mathcal {M}}_{{n\times
m}}({\mathbb {K}}) es cerrado bajo producto por escalares. Con éstas propiedades y
las de la adición se tiene que {\displaystyle {\mathcal {M}}_{n\times m}(\mathbb
{K} )}{\mathcal {M}}_{{n\times m}}({\mathbb {K}}) es un espacio vectorial con las
operaciones de suma y producto por escalares definidas antes.

En el caso de que las entradas y los escalares no estén en un campo sino en un


anillo entonces no necesariamente existe el neutro multiplicativo. En caso de que
exista, con lo cual el anillo es un anillo con uno, se dice que {\displaystyle
{\mathcal {M}}_{n\times m}(A)}{\mathcal {M}}_{{n\times m}}(A) es un módulo sobre
{\displaystyle A\,\!}A\,\!.

Ahora, a partir de las propiedades básicas se puede demostrar inmediatamente que


olakase

{\displaystyle \lambda 0=0\,\!}\lambda 0=0\,\!

Demostración
{\displaystyle 0_{\mathbb {K} }A=0}0_{{{\mathbb {K}}}}A=0

Demostración
{\displaystyle \lambda A=0\longrightarrow \lambda =0_{\mathbb {K} }
{\text{ o }}A=0}\lambda A=0\longrightarrow \lambda =0_{{{\mathbb {K}}}}
{\text{ o }}A=0

Demostración
{\displaystyle (-\lambda )A=\lambda (-A)\,\!}(-\lambda )A=\lambda (-A)\,\!

Demostración
Este último resultado permite usar la notación {\displaystyle -\lambda
A\,\!}-\lambda A\,\! sin riesgo de ambigüedad.

Producto de matrices

Diagrama esquemático que ilustra el producto de dos matrices {\displaystyle


A\,\!}A\,\! y {\displaystyle B\,\!}B\,\! dando como resultado la matriz
{\displaystyle AB\,\!}AB\,\!.
Artículo principal: Multiplicación de matrices
Artículo principal: Aplicación lineal
El producto de matrices se define de una manera muy peculiar y hasta caprichosa
cuando no se conoce su origen. El origen proviene del papel de las matrices como
representaciones de aplicaciones lineales. Así el producto de matrices, como se
define, proviene de la composición de aplicaciones lineales. En este contexto, el
tamaño de la matriz corresponde con las dimensiones de los espacios vectoriales
entre los cuales se establece la aplicación lineal. De ese modo el producto de
matrices, representa la composición de aplicaciones lineales.

En efecto, en ciertas bases tenemos que {\displaystyle f:V\longrightarrow


W}f:V\longrightarrow W se puede representar como {\displaystyle
f(x)=Ax\,\!}f(x)=Ax\,\! donde {\displaystyle x\,\!}x\,\! es la representación de un
vector de {\displaystyle V\,\!}V\,\! en la base que se ha elegido para
{\displaystyle V\,\!}V\,\! en forma de vector columna. Si tenemos dos aplicaciones
lineales {\displaystyle f:V\longrightarrow W}f:V\longrightarrow W y {\displaystyle
g:W\longrightarrow U}g:W\longrightarrow U entonces {\displaystyle
f(x)=Bx\,\!}f(x)=Bx\,\! y {\displaystyle g(x)=Ax\,\!}g(x)=Ax\,\!, luego la
aplicación {\displaystyle g\circ f:V\longrightarrow U}g\circ f:V\longrightarrow U
se representará como {\displaystyle g\circ f(x)=g(f(x))=g(Bx)=ABx}g\circ
f(x)=g(f(x))=g(Bx)=ABx donde {\displaystyle AB\,\!}AB\,\! es el producto de las
representaciones matriciales de {\displaystyle f,g\,\!}f,g\,\!. Nótese que la
composición no se puede dar entre cualquier aplicación sino entre aplicaciones que
vayan de {\displaystyle V\rightarrow W\rightarrow U\,\!}V\rightarrow W\rightarrow
U\,\!, en particular debe de haber una relación entre las dimensiones de los
espacios vectoriales. Una vez dicho esto podemos definir el producto de la
siguiente manera.

Sean {\displaystyle A\in {\mathcal {M}}_{n\times m}(\mathbb {K} )}A\in {\mathcal


{M}}_{{n\times m}}({\mathbb {K}}) y {\displaystyle B\in {\mathcal {M}}_{m\times p}
(\mathbb {K} )}B\in {\mathcal {M}}_{{m\times p}}({\mathbb {K}}). Se define el
producto de matrices como una función {\displaystyle {\mathcal {M}}_{n\times m}
(\mathbb {K} )\times {\mathcal {M}}_{m\times p}(\mathbb {K} )\longrightarrow
{\mathcal {M}}_{n\times p}(\mathbb {K} )}{\mathcal {M}}_{{n\times m}}({\mathbb
{K}})\times {\mathcal {M}}_{{m\times p}}({\mathbb {K}})\longrightarrow {\mathcal
{M}}_{{n\times p}}({\mathbb {K}}) tal que {\displaystyle (A,B)\mapsto C=AB}
(A,B)\mapsto C=AB y donde {\displaystyle c_{ij}=\sum
_{k=1}^{m}a_{ik}b_{kj}}c_{{ij}}=\sum _{{k=1}}^{{m}}a_{{ik}}b_{{kj}} para toda
{\displaystyle i,j\,\!}i,j\,\!, es decir {\displaystyle c_{ij}=a_{i1}b_{1j}
+a_{i2}b_{2j}+a_{i3}b_{3j}+\dots +a_{im}b_{mj}\,\!}c_{{ij}}=a_{{i1}}b_{{1j}}
+a_{{i2}}b_{{2j}}+a_{{i3}}b_{{3j}}+\dots +a_{{im}}b_{{mj}}\,\!. Por ejemplo, la
entrada {\displaystyle c_{12}=a_{11}b_{12}+a_{12}b_{22}+a_{13}b_{32}+\dots
+a_{1m}b_{m2}}c_{{12}}=a_{{11}}b_{{12}}+a_{{12}}b_{{22}}+a_{{13}}b_{{32}}+\dots
+a_{{1m}}b_{{m2}}.

Veamos un ejemplo más explícito. Sean {\displaystyle A\in {\mathcal {M}}_{2\times


3}(\mathbb {R} )}A\in {\mathcal {M}}_{{2\times 3}}({\mathbb {R}}) y
{\displaystyle B\in {\mathcal {M}}_{3\times 2}(\mathbb {R} )}B\in {\mathcal
{M}}_{{3\times 2}}({\mathbb {R}})

{\displaystyle {\begin{bmatrix}\,\,\ \,1&0&2\\-1&3&1\end{bmatrix}}


{\begin{bmatrix}3&1\\2&1\\1&0\end{bmatrix}}={\begin{bmatrix}\,\,\,\,1(3)+0(2)+2(1)&
\,\,\,\,1(1)+0(1)+2(0)\\-1(3)+3(2)+1(1)&-
1(1)+3(1)+1(0)\\\end{bmatrix}}={\begin{bmatrix}5&1\\4&2\\\end{bmatrix}}}
{\displaystyle {\begin{bmatrix}\,\,\ \,1&0&2\\-1&3&1\end{bmatrix}}
{\begin{bmatrix}3&1\\2&1\\1&0\end{bmatrix}}={\begin{bmatrix}\,\,\,\,1(3)+0(2)+2(1)&
\,\,\,\,1(1)+0(1)+2(0)\\-1(3)+3(2)+1(1)&-
1(1)+3(1)+1(0)\\\end{bmatrix}}={\begin{bmatrix}5&1\\4&2\\\end{bmatrix}}}
dónde la matriz producto es como habíamos establecido en la definición: una matriz
{\displaystyle C\in {\mathcal {M}}_{2\times 2}(\mathbb {R} )}C\in {\mathcal
{M}}_{{2\times 2}}({\mathbb {R}}).

Sin tomar en cuenta la motivación que viene desde las aplicaciones lineales, es
evidente ver que si ignoramos la definición de la función de producto de matrices y
solo se toma en cuenta la definición de las entradas, el producto no estará bien
definido, ya que si {\displaystyle A\,\!}A\,\! no tiene el mismo número de columnas
que {\displaystyle B\,\!}B\,\! de filas entonces no podremos establecer en donde
acaba la suma: si la acabamos en el mayor de éstos números habrá sumandos que no
están definidos ya que una de las matrices no tendrá más entradas, mientras que si
tomamos el menor habrá entradas de alguna de las matrices que no se tomen en
cuenta. Así es necesario que {\displaystyle A\,\!}A\,\! tenga el mismo número de
columnas que {\displaystyle B\,\!}B\,\! de filas para que {\displaystyle
AB\,\!}AB\,\! esté definida.

Como se puede suponer también, las propiedades de ésta operación serán más
limitadas en la generalidad ya que además de las limitaciones impuestas por la
naturaleza de las entradas está esta limitación respecto a tamaño. Es claro,
además, que el producto de matrices no siempre es una operación interna.

El producto de las matrices A y B también puede realizarse sumando el producto de


cada columna de A por la correspondiente fila de B y expresarse utilizando el
convenio de suma de Einstein.

Propiedades del producto de matrices


Sean {\displaystyle A,B,C\,\!}A,B,C\,\! matrices con entradas en {\displaystyle
\mathbb {K} }{\mathbb {K}}, donde {\displaystyle \mathbb {K} }{\mathbb {K}} es un
campo, entonces se cumplen las siguientes propiedades para el producto de matrices
(considerando que los productos existan)

Asociatividad
{\displaystyle A(BC)=(AB)C\,\!}A(BC)=(AB)C\,\!
Demostración
Distributividad respecto de la suma de matrices por la derecha
{\displaystyle (A+B)C=AC+BC\,\!}(A+B)C=AC+BC\,\!
Demostración
Distributividad respecto de la suma de matrices por la izquierda
{\displaystyle A(B+C)=AB+AC\,\!}A(B+C)=AB+AC\,\!
Demostración

El producto de matrices no es conmutativo, si lo fuera la composición de funciones


lineales sería conmutativa y eso en general no sucede. Obviamente existen casos
particulares de algunos tipos de matrices en los que si hay conmutatividad. En el
caso en que tengamos {\displaystyle {\mathcal {M}}_{n}(\mathbb {K} )}{\mathcal
{M}}_{{n}}({\mathbb {K}}) tendremos que el producto entre matrices en
{\displaystyle {\mathcal {M}}_{n}(\mathbb {K} )}{\mathcal {M}}_{{n}}({\mathbb
{K}}) también está en {\displaystyle {\mathcal {M}}_{n}(\mathbb {K} )}{\mathcal
{M}}_{{n}}({\mathbb {K}}). En ese caso {\displaystyle {\mathcal {M}}_{n}(\mathbb
{K} )}{\mathcal {M}}_{{n}}({\mathbb {K}}) además de espacio vectorial es un
álgebra sobre un campo. En el caso de que el conjunto al que pertenecen las
entradas sea un anillo conmutativo con uno entonces {\displaystyle {\mathcal
{M}}_{n}(A)}{\mathcal {M}}_{{n}}(A) además de módulo es un álgebra sobre un
anillo. Mas aun {\displaystyle ({\mathcal {M}}_{n}(\mathbb {K} ),+,\cdot )}
({\mathcal {M}}_{{n}}({\mathbb {K}}),+,\cdot ) con {\displaystyle \cdot }\cdot el
producto de matrices es un anillo.

Otros conceptos relacionados con matrices


Rango de una matriz
Artículo principal: Rango de una matriz
El rango de una matriz {\displaystyle A\,\!}A\,\! es la dimensión de la imagen de
la aplicación lineal representada por {\displaystyle A\,\!}A\,\!, que coincide con
la dimensión de los espacios vectoriales generados por las filas o columnas de
{\displaystyle A\,\!}A\,\!.

Matriz traspuesta
Artículo principal: Matriz traspuesta
La traspuesta de una matriz {\displaystyle A\in {\mathcal {M}}_{n\times m}
(X)\,\!}A\in {\mathcal {M}}_{{n\times m}}(X)\,\!, donde {\displaystyle X\,\!}X\,\!
no es necesariamente un campo, es una matriz {\displaystyle B\in {\mathcal
{M}}_{m\times n}(X)\,\!}B\in {\mathcal {M}}_{{m\times n}}(X)\,\! tal que
{\displaystyle b_{ij}=a_{ji}\,\!}b_{{ij}}=a_{{ji}}\,\!. Por ejemplo la entrada
{\displaystyle b_{12}=a_{21}\,\!}b_{{12}}=a_{{21}}\,\!.

Veamos un ejemplo más explícito. Sea {\displaystyle A\in {\mathcal {M}}_{2\times 3}


(\mathbb {R} )}A\in {\mathcal {M}}_{{2\times 3}}({\mathbb {R}})
{\displaystyle {\begin{bmatrix}1&\,\,\ \,8&-3\\4&-2&\,\,\ 6\end{bmatrix}}}
{\displaystyle {\begin{bmatrix}1&\,\,\ \,8&-3\\4&-2&\,\,\ 6\end{bmatrix}}}
entonces su traspuesta es

{\displaystyle {\begin{bmatrix}\,\,\ \,1&\,\,\ \,4\\\,\,\ \,8&-2\\-


3&\,\,\,\,6\end{bmatrix}}}{\displaystyle {\begin{bmatrix}\,\,\ \,1&\,\,\ \,4\\\,\,\
\,8&-2\\-3&\,\,\,\,6\end{bmatrix}}}
Así, informalmente podríamos decir que la traspuesta es aquella matriz que se
obtiene de la original cambiando filas por columnas. Las notaciones usuales para
denotar la traspuesta de una matriz son {\displaystyle
A^{T},A^{t}\,\!}A^{{T}},A^{{t}}\,\!.

La trasposición de matrices tiene las siguientes propiedades (donde ahora sí el


conjunto de entradas debe ser al menos un anillo conmutativo):

{\displaystyle {\begin{aligned}&(A^{T})^{T}=A,\\&(A+B)^{T}=A^{T}
+B^{T},\\&(AB)^{T}=B^{T}A^{T},\\\end{aligned}}}
{\begin{aligned}&(A^{{T}})^{{T}}=A,\\&(A+B)^{{T}}=A^{{T}}
+B^{{T}},\\&(AB)^{{T}}=B^{{T}}A^{{T}},\\\end{aligned}}
Si {\displaystyle A\in {\mathcal {M}}_{n\times m}(X)\,\!}A\in {\mathcal
{M}}_{{n\times m}}(X)\,\! representa una aplicación lineal, entonces la matriz
{\displaystyle A^{T}\,\!}A^{{T}}\,\! describe la traspuesta de la aplicación
lineal.

Matrices cuadradas y definiciones relacionadas


Una matriz cuadrada es una matriz que tiene el mismo número de filas que de
columnas. El conjunto de todas las matrices cuadradas n-por-n junto a la suma y la
multiplicación de matrices, es un anillo que generalmente no es conmutativo.

M(n,R), el anillo de las matrices cuadradas reales, es un álgebra asociativa real


unitaria. M(n,C), el anillo de las matrices cuadradas complejas, es un álgebra
asociativa compleja.

La matriz identidad In de orden n es la matriz n por n en la cual todos los


elementos de la diagonal principal son iguales a 1 y todos los demás elementos son
iguales a 0. La matriz identidad se denomina así porque satisface las ecuaciones
MIn = M y InN = N para cualquier matriz M m por n y N n por k. Por ejemplo, si n =
3:

{\displaystyle \mathbf {I} _{3}={\begin{bmatrix}1&0&0\\0&1&0\\0&0&1\end{bmatrix}}.}


{\mathbf {I}}_{3}={\begin{bmatrix}1&0&0\\0&1&0\\0&0&1\end{bmatrix}}.
La matriz identidad es el elemento unitario en el anillo de matrices cuadradas.

Los elementos invertibles de este anillo se llaman matrices invertibles, regulares


o no singulares. Una matriz A n por n es invertible si y sólo si existe una matriz
B tal que AB = I

(left)
En este caso, B es la matriz inversa de A, identificada por A-1 . El conjunto de
todas las matrices invertibles n por n forma un grupo (concretamente un grupo de
Lie) bajo la multiplicación de matrices, el grupo lineal general.

Si λ es un número y v es un vector no nulo tal que Av = λv, entonces se dice que v


es un vector propio de A y que λ es su valor propio asociado. El número λ es un
valor propio de A si y sólo si A−λIn no es invertible, lo que sucede si y sólo si
pA(λ) = 0, donde pA(x) es el polinomio característico de A. pA(x) es un polinomio
de grado n y por lo tanto, tiene n raíces complejas múltiples raíces si se cuentan
de acuerdo a su multiplicidad. Cada matriz cuadrada tiene exactamente n valores
propios complejos.

El determinante de una matriz cuadrada A es el producto de sus n valores propios,


pero también puede ser definida por la fórmula de Leibniz. Las matrices invertibles
son precisamente las matrices cuyo determinante es distinto de cero.

El algoritmo de eliminación gaussiana puede ser usado para calcular el


determinante, el rango y la inversa de una matriz y para resolver sistemas de
ecuaciones lineales.

La traza de una matriz cuadrada es la suma de los elementos de la diagonal, lo que


equivale a la suma de sus n valores propios.

Una matriz de Vandermonde es una matriz cuadrada cuyas filas son las potencias de
un número. Su determinante es fácil de calcular.

Matriz Lógica
Una matriz lógica, matriz binaria, matriz de relación, matriz booleana o matriz
(0,1) es una matriz con entradas del dominio booleano {\displaystyle B=\{0,1\}}
{\displaystyle B=\{0,1\}}. Tal matriz puede ser usada para representar una relación
binaria entre un par de conjuntos finitos.

Representación de una relación matricial


Si {\displaystyle R}R es una relación binaria entre los finitos conjuntos ordenados
{\displaystyle X}X e {\displaystyle Y}Y (tales que {\displaystyle R\subseteq X\cdot
Y}{\displaystyle R\subseteq X\cdot Y}), entonces {\displaystyle R}R puede
representarse por la matriz lógica {\displaystyle M}M cuyos índices de fila y
columna ordenan los elementos de {\displaystyle X}X e {\displaystyle Y}Y,
respectivamente, tales que las entradas de {\displaystyle M}M se definen por:

{\displaystyle M_{i,j}={\begin{cases}1&(x_{i},y_{j})\in R\\0&(x_{i},y_{j})\not \in


R\end{cases}}}{\displaystyle M_{i,j}={\begin{cases}1&(x_{i},y_{j})\in
R\\0&(x_{i},y_{j})\not \in R\end{cases}}}
Con el fin de designar los números de cada fila y columna de la matriz, los
conjuntos X e Y están ordenados con números enteros positivos: i va desde 1 hasta
la cardinalidad (tamaño) de X y j oscila entre 1 y la cardinalidad de Y.

Ejemplo
La relación binaria R en el conjunto {1, 2, 3, 4} se define de manera que aRb se
lleva a cabo si y sólo si a divide b uniformemente, sin resto. Por ejemplo, 2R4
satisface la relación porque 2 divide 4 sin dejar un resto, pero 3R4 no porque
cuando 3 divide 4 hay un resto de 1. El conjunto siguiente es el conjunto de pares
para los que se mantiene la relación R.

{(1, 1), (1, 2), (1, 3), (1, 4), (2, 2), (2, 4), (3, 3), (4, 4)}.
La representación correspondiente como matriz booleana es:

{\displaystyle {\begin{pmatrix}1&1&1&1\\0&1&0&1\\0&0&1&0\\0&0&0&1\end{pmatrix}}.}
{\displaystyle {\begin{pmatrix}1&1&1&1\\0&1&0&1\\0&0&1&0\\0&0&0&1\end{pmatrix}}.}
Algunas Propiedades
La representación matricial de la relación de igualdad en un conjunto finito es la
matriz de identidad, es decir, una matriz cuya diagonal principal es todo unos (1),
mientras que el resto de elementos son ceros(0). Si el dominio booleano es visto
como un semianillo, donde la suma corresponde al OR lógico y la multiplicación al
AND lógico, la representación matricial de la composición de dos relaciones es
igual al producto de la matriz de las representaciones matriciales de esta
relación. Este producto se puede calcular en el tiempo esperado O(n2).

Frecuentemente, las operaciones en matrices binarias están definidas en términos de


la aritmética modular mod 2, es decir, los elementos se tratan como elementos del
campo de Galois GF(2) = ℤ2. Surgen una variedad de representaciones y tienen un
número de formas especiales más restringidas. Se aplican por ejemplo en XOR-
satisfacible (Inglés).

El número de matrices binarias mxn distintas es igual a 2mn, y es, por


consiguiente, finito.

Aplicaciones
Las matrices en la Computación
Las matrices son utilizadas ampliamente en la computación, por su facilidad y
liviandad para manipular información. En este contexto, son una buena forma para
representar grafos, y son muy utilizadas en el cálculo numérico. En la computación
gráfica, las matrices son ampliamente usadas para lograr animaciones de objetos y
formas.

Ejemplo de brazo robótico


El mundo de las matrices es muy amplio aunque parezca tan simple, programas como
Matlab pueden crear sistemas de matrices tan complejos que incluso al programa le
es difícil resolverlos. Aunque no lo parezca las matrices también se pueden aplicar
al mundo de la computación y programación.

Un ejemplo sencillo sería el campo aplicado a la programación en lo que viene


relacionado con la robótica ya que se utiliza en este caso el programa matlab para
poder programar robots como puede ser un brazo biónico. Un ejemplo sería el Lynx6.

El Lynx6 se considera un manipulador de 5 ejes de rotación (base, hombro, codo,


movimiento y rotación de la muñeca); este brazo mecánico entrega movimientos
rápidos, exactos y repetitivos, gracias a los servomotores que lleva incorporados.
Como paso previo se debe desarrollar una aplicación que obtiene el modelo directo
FK e inverso IK del brazo robótico.

Brazo Robótico
-El modelo FK consiste en encontrar una matriz de transformación homogénea T que
relacione la posición cartesiana (Px, Py, PZ) y los ángulos de Euler (φ,ψ,θ)
Escogiendo adecuadamente el sistema de coordenadas ligado a cada segmento es
posible ir de un sistema referencial al siguiente por medio de 4 transformaciones
básicas.

-Matriz de transformación (1) Donde es la matriz resultante que relaciona el


sistema de referencia del segmento i-1 con el sistema de referencia del segmento
ièsimo, Rotz(ϴ1) es la rotación alrededor del eje Z i-1 con un valor de ϴ1, T (0,0,
di) es una traslación de una distancia di, a lo largo del eje Zi-1 , T (a1, 0,0) es
una traslación de una distancia a1, a lo largo del eje Xi . Y finalmente Rotx(αi)
es la rotación alrededor del eje de Xi, con un valor de αi

Los resultados van a depender exclusivamente de las características geométricas del


brazo manipulador. En nuestro caso los parámetros físicos dependen de los valores
de las articulaciones y longitud conocidos en cada sistema de coordenadas, deben
expresarse y asignarse en términos de la convención D-H. Multiplicando las matrices
individuales de la ecuación (1) en el orden correcto, la matriz de transformación,
que resuelve los valores de posición y orientación en cada sistema de coordenadas
es la ecuación (2 ) Los términos individuales de las tres primeras columnas de la
matriz (n, o, a) representan la orientación del eje principal en el sistema de
coordenadas. La última columna P indica la posición (x, y, z) del origen. Cada uno
de los términos de la matriz pueden calcularse a partir de las ecuaciones
siguientes :
La relación entre las matrices de transformación, forma la cadena cinemática de las
articulaciones y segmentos consecutivos del brazo robótico. Donde T es la matriz de
transformación homogénea buscada . Sustituyendo los parámetros de la tabla 2 en las
matrices de transformación se obtienen estas ecuaciones. Calculando la
multiplicación no conmutativa de la ecuación (17, se obtiene la matriz de
transformación homogénea: Donde (n, o, a) es una terna ortogonal que representa la
orientación y P es un vector (Px, Py, Pz) que representa la posición del efector
extremo del brazo. La solución obtenida para una posición en reposo del brazo con
Θ1= 0º , θ2= 90º , θ3 =0º , θ4= -90º y θ5=0º

Teoría de matrices
La teoría de matrices es una rama de las matemáticas que se centra en el estudio de
matrices. Inicialmente una rama secundaria del álgebra lineal, ha venido cubriendo
también los temas relacionados con la teoría de grafos, el álgebra, la combinatoria
y la estadística.

Matrices relacionadas con otros temas


Una matriz puede identificarse a una aplicación lineal entre dos espacios
vectoriales de dimensión finita. Así la teoría de las matrices habitualmente se
considera como una rama del álgebra lineal. Las matrices cuadradas desempeñan un
papel particular, porque el conjunto de matrices de orden n (n entero natural no
nulo dado) posee propiedades de « estabilidad » de operaciones.

Los conceptos de matriz estocástica y matriz doblemente estocástica son


herramientas importantes para estudiar los procesos estocásticos, en probabilidad y
en estadística.

Las matrices definidas positivas aparecen en la búsqueda de máximos y mínimos de


funciones a valores reales, y a varias variables.

Es también importante disponer de una teoría de matrices a coeficientes en un


anillo. En particular, las matrices a coeficientes en el anillo de polinomios se
utilizan en teoría de mandos.

En matemáticas puras, los anillos de matrices pueden proporcionar un rico campo de


contraejemplos para conjeturas matemáticas.

Matrices en teoría de grafos


En teoría de los grafos, a todo grafo etiquetado corresponde la matriz de
adyacencia. Una matriz de permutación es una matriz que representa una permutación;
matriz cuadrada cuyos coeficientes son 0 o 1, con un solo 1 en cada línea y cada
columna. Estas matrices se utilizan en combinatorio.

También existe otro tipo de matriz además de la matriz de adyacencia que es la


conocida como matriz de incidencia en la cual el grafo se muestra en una matriz de
A (serían las aristas) por V (serían los vértices), donde contiene la información
de la arista (1 si está conectado y 0 no conectado).

Si nos dan un grafo {\displaystyle G=(X,U)}{\displaystyle G=(X,U)}, de orden


{\displaystyle n}n, podemos llegar a representar una relación de adyacencia,
mediante una matriz {\displaystyle A=[a_{ij}]}{\displaystyle A=[a_{ij}]} nxn,
también llamada matriz de adyacencia de G.

Se deben de tener en cuenta una serie de observaciones sobre esto:

La matriz de adyacencia es una matriz booleana, como se ha dicho antes es una


matriz que solo puede contener 0 y 1.
Σi xij = semigrado exterior de xi
Σj xij = semigrado interior de xj
En la teoría de grafos, se llama matriz de un grafo a la matriz que indica en la
línea i y la columna j el número de aristas que enlazan el vértice i al vértice j.
En un grafo no orientado, la matriz es simétrica. La suma de los elementos de una
columna permite determinar el grado de un vértice. La matriz {\displaystyle
M^{n}}M^{n} indica en la línea i y la columna j el número de caminos a n aristas
que adjuntan el vértice i al vértice j.

Grafo sobre el que se realiza el estudio.


A continuación mostraremos un ejemplo de un grafo y su matriz de adyacencia:

La matriz de adyacencia de este grafo vendría dada de la forma:

/ V1 V2 V3 V4 V5
V1 0 1 0 0 0
V2 1 0 1 1 0
V3 1 1 0 1 0
V4 0 1 1 1 0
V5 0 0 1 0 0
La matriz de adyacencia se basa en las conexiones que se realizan entre los
vértices del grafo apareciendo así un 1 en los casos en los que dos vértices están
conectados y un 0 en los casos en los que no.

En algunos casos como el de la posición V3/V5 se observa un 0 debido a que la


conexión entre ellos muestra un sentido permitiendo el paso de flujo de V5 a V3
pero no al contrario, motivo por el cual V5/V3 si presenta un 1.

Cabe decir que si se toma otra ordenación de los vértices la matriz de adyacencia
sera diferente, pero todas las matrices de adyacencia resultantes de un mismo grafo
están unidas por una matriz de permutación P tal que P-1 C P = A (Siendo C y A dos
matrices de adyacencia distintas pero provenientes de un mismo grafo).

Análisis y geometría
La Matriz de Hessian de una función diferencial ƒ: Rn → R consiste en la segunda
derivada de f con respecto a las varias direcciones de coordenadas, esto es,

{\displaystyle H(f)=\left[{\frac {\partial ^{2}f}{\partial x_{i}\,\partial


x_{j}}}\right].}{\displaystyle H(f)=\left[{\frac {\partial ^{2}f}{\partial
x_{i}\,\partial x_{j}}}\right].}

En el punto de silla de montar (x = 0, y = 0) (rojo) de la función f(x,−y) = x2 −


y2, la Matriz de Hessians {\displaystyle {\begin{bmatrix}2&0\\0&-2\end{bmatrix}}}
{\displaystyle {\begin{bmatrix}2&0\\0&-2\end{bmatrix}}} es indefinida.
Codifica información sobre el comportamiento creciente de la función: dando un
punto crítico x = (x1, ..., xn), esto es, un punto donde la primera derivada
parcial {\displaystyle \partial f/\partial x_{i}}{\displaystyle \partial f/\partial
x_{i}} de ƒ desaparece, la función tiene un mínimo local si la matriz de Hessian es
definida positiva para todos sus valores. La programación cuadrática puede usarse
para encontrar mínimos y máximos globales de una función cuadrática estrechamente
relacionadas con las asociadas a matrices.

Otra matriz frecuentemente utilizada en situaciones geométricas el la Matriz Jacobi


de un mapa diferenciable f: Rn → Rm. Si f1, ..., fm indica los componentes de f,
entonces la matriz Jacobi es definada como

{\displaystyle J(f)=\left[{\frac {\partial f_{i}}{\partial x_{j}}}\right]_{1\leq


i\leq m,1\leq j\leq n}.}{\displaystyle J(f)=\left[{\frac {\partial f_{i}}{\partial
x_{j}}}\right]_{1\leq i\leq m,1\leq j\leq n}.}
Si n > m, y si el rango de la matriz Jacobi alcanza su valor máximo m, f es
localmente invertible en ese punto, por el teorema de la función implícita. Las
ecuaciones diferenciales parciales pueden clasificarse considerando la matriz de
coeficientes de los operadores diferenciales de orden más alto de la ecuación. Para
las ecuaciones diferenciales elípticas parciales esta matriz es positiva para todos
sus valores, los cuales tienen una influencia decisiva en el grupo de soluciones
posibles de la ecuación en cuestión.

El método de elementos finitos es un importante método numérico para resolver


ecuaciones diferenciales parciales, extensamente aplicado en simulaciones de
sistemas físicos complejos. Intenta aproximar la solución a alguna ecuación de
funciones lineales pieza a pieza, donde las piezas son elegidas con respecto a una
rejilla suficientemente fina, que a su vez puede ser refundida como una ecuación
matricial.

Algunos teoremas
Teorema de Cayley-Hamilton
Teorema de Gerschgorin
Véase también
Descomposición de Schur
Descomposición en valores singulares
Descomposición QR
Determinante (matemática)
Eliminación de Gauss-Jordan
Factorización LU
Forma canónica de Jordan
Lema de Schur
Matlab
Matriz triangular

También podría gustarte