Está en la página 1de 6

28/09/2020

ALGEBRA MATRICIAL
Sylvester – Hamilton
Los comienzos de las matrices y los determinantes datan del siglo II AC, aunque hay
indicios desde el siglo IV AC. Sin embargo, no fue hasta fines del siglo XVII que las
ideas reaparecieron y se desarrollaron con fuerza. Los comienzos de las matrices y
los determinantes surgen a través del estudio de sistemas de ecuaciones lineales. En
Babilonia se estudiaron problemas que involucraban a ecuaciones lineales
simultáneas y algunos de estos son conservados en tabletas de arcilla que
permanecieron en el tiempo.
Los chinos, entre los años 200 AC y 100 AC, estuvieron mucho más cerca de las
matrices que los babilonios. Verdaderamente es justo decir que el texto “Nueve
Capítulos de Arte Matemático”, escrito durante la Dinastía Han, da el primer
ejemplo conocido sobre métodos matriciales.

El origen de las matrices es muy antiguo. Los cuadrados latinos y los cuadrados
mágicos se estudiaron desde hace mucho tiempo. Un cuadrado mágico, por ejemplo
de 3 por 3, se registra en la literatura china hacia el 650 a. C. Los "cuadrados
mágicos" eran conocidos por los matemáticos árabes, posiblemente desde
comienzos del siglo VII, quienes a su vez pudieron tomarlos de los matemáticos y
astrónomos de la India, junto con otros aspectos del análisis combinatorio. Todo
esto sugiere que la idea provino de China. Los primeros "cuadrados mágicos" de
orden 5 y 6 aparecieron en Bagdad en el 983.

Trataremos de hacer un recorrido histórico de la evolución del concepto de matriz,


desde su aparición en el siglo XIX hasta su consolidación en el siglo XX. Conoceremos
las aportaciones de J.J. Sylvester y A. Cayley el año 1850, que introducen la notación
matricial; las escuelas algebraicas inglesas consolidan el concepto de matriz.

JULIO CESAR RODRIGUEZ B. Página 1


En el siglo XX la idea de matriz se transformó en un elemento básico del álgebra. Se
ha pasado de la idea original de Sylvester (1851) de matriz como madre de los
menores de un determinante, por las leyes del cálculo de matrices de Cayley (1858),
hasta los procedimientos de descomposición matricial de Weyr (1885).

Después del desarrollo de la teoría de determinantes por Seki Kowa y Leibniz para
facilitar la resolución de ecuaciones lineales, a finales del siglo XVII, Cramer presentó
en 1750 la ahora denominada regla de Cramer. Carl Friedrich Gauss y Wilhelm
Jordan desarrollaron la eliminación de Gauss-Jordan en el siglo XIX, uno de los dos
fundadores del análisis, desarrolló la teoría de los determinantes en 1693 para facilitar
la Resolución de las ecuaciones lineales. Gabriel Cramer tuvo que profundizar esta
teoría, presentando elmétodo de Cramer en 1750. En los años 1800, el método de
eliminación de Gauss-Jordan se puso a punto.Fue James Joseph Sylvester quien
utilizó por primera vez el término « matriz » en1848/1850.

En 1853, Hamilton hizo algunos aportes a la teoría de matrices. Cayley introdujo en


1858 la notación matricial, como forma abreviada de escribir un sistema de
ecuaciones lineales.

Cayley, Hamilton, Hermann Grassmann, Frobenius, Olga Taussky-Todd y John von


Neumann cuentan entre los matemáticos famosos que trabajaron sobre la teoría de
las matrices. En 1925, Werner Heisenberg redescubre el cálculo matricial fundando
una primera formulación de lo que iba a pasar a ser la mecánica cuántica. Se le
considera a este respecto como uno de los padres de la mecánica cuántica. Olga
Taussky-Todd (1906-1995), durante la II Guerra Mundial, usó la teoría de matrices
para investigar el fenómenode aeroelasticidad llamado fluttering.

Muchos resultados estándar de teoría de matrices elementales aparecieron antes


de que las matrices fueran objeto de investigación matemática. Por ejemplo, de Witt
en “Elementos de curvas”, publicado como una parte de la comentada “Versión
Latina de la Geometría de Descartes” en 1660, muestra como una transformación
de ejes reducen una ecuación dada de una cónica a la forma canónica. Esto resultaba
de la diagonalización de una matriz simétrica pero, de Witt nunca pensó en estos
términos.

JULIO CESAR RODRIGUEZ B. Página 2


RESUMEN CRONOLOGICO
AÑO ACONTECIMIENTO
200 A.C. En China los matemáticos usan series de números.
1850 D.C. J. J. Sylvester introduce el término "matriz".
1858 Cayley publica Memorias sobre la teoría de matrices.
1878 Frobenius demuestra resultados fundamentales en álgebra matricial.
1925 Werner Heisenberg utiliza la teoría matricial en la mecánica cuántica

En matemáticas se puede definir o representar una matriz a partir de criterios


superficiales a criterios muy profundos, una representación muy sencilla: Matriz
será un arreglo bidimensional de números o elementos dispuestos en filas y
columnas, una matriz puede representar una tabla de valores, un determinante, una
familia de vectores, una transformación lineal, un endomorfismo, y en su mayor
generalidad como estructura algebraica serán elementos de un Anillo, un sistema de
ecuaciones diferenciales, una forma bilineal, es decir podemos ver una misma
representación matricial y reiteramos que se puede interpretar de distintas maneras
pero, también, diferentes matrices pueden representar el mismo objeto.

En el marco teórico desarrollaremos el concepto de matriz a partir de conceptos del


algebra moderna que se desarrollo en un curso de Algebra Basica.

1.1 CONJUNTO PRODUCTO

A x B = { (x,y) / x ∈ A, y , x ∈ B }

Ejemplo:

I m  1, 2, 3 ,4...................., m
I m  1, 2, 3 ,4.....................,n

I m  I n  (1,1),(1, 2),.....,(1, n),......(2,1), (2,2),.......(2,n),......,(m,1),(m,2),.............,(m, n)

JULIO CESAR RODRIGUEZ B. Página 3


1.2 CUERPO.- Se define como una estructura algebraica superior

Donde .- 𝕂≠ø : Conjunto no vacío (R, C )

+ : Operación binaria de adición


• : Operación binaria de multiplicación

(K, + , •) se define como un cuerpo ↔

i) Axioma del cerrado


∀𝑎, 𝑏 ∈ 𝕂 ⟹ (𝑎 + 𝑏 ) ∈ 𝕂
ii) Axioma asociativo
∀𝑎, 𝑏, 𝑐 ∈ 𝕂 ⟹ (𝑎 + 𝑏 ) + 𝑐 = 𝑎 + (𝑏 + 𝑐)
iii) Existencia del neutro
∀𝑎 ∈ 𝕂, ∃𝒆 ∈ 𝕂 ⟹ 𝑎 + 𝒆 = 𝒆 + 𝑎 = 𝑎
iv) Existencia del simétrico
∀𝑎 ∈ 𝕂, ∃(−𝒂) ∈ 𝕂 ⟹ 𝑎 + (−𝒂) = (−𝒂) + 𝑎 = 𝒆
v) Axioma conmutativo
∀𝑎, 𝑏 ∈ 𝕂 ⟹ 𝑎 + 𝑏 = 𝑏 + 𝑎

vi) Axioma distributivo


∀𝑎, 𝑏, 𝑐 ∈ 𝕂 ⟹ 𝑎 • (𝑏 + 𝑐) = 𝑎 • 𝑏 + 𝑎 • 𝑐
∀𝑎, 𝑏, 𝑐 ∈ 𝕂 ⟹ (𝑏 + 𝑐) • a = 𝑏 • a + c • a

vii) Axioma del cerrado (clausura)


∀𝑎, 𝑏 ∈ 𝕂 ⟹ (𝑎 • 𝑏 ) ∈ 𝕂

viii) Axioma asociativo


∀𝑎, 𝑏, 𝑐 ∈ 𝕂 ⟹ (𝑎 + 𝑏 ) + 𝑐 = 𝑎 + (𝑏 + 𝑐)
∀𝑎, 𝑏, 𝑐 ∈ 𝕂 ⟹ (𝑎 • 𝑏 ) • 𝑐 = 𝑎 • (𝑏 • 𝑐)
ix) Axioma conmutativo
∀𝑎, 𝑏 ∈ 𝕂 ⟹ 𝑎 • 𝑏 = 𝑏 • 𝑎

x) Existencia del elemento identidad para la multiplicación


∀𝑎 ∈ 𝕂, ∃𝟏 ∈ 𝕂 ⟹ 𝑎 • 𝟏 = 𝟏 • 𝑎 = 𝑎

xi) Existencia del elemento simétrico multiplicativo


∀𝑎 ∈ 𝕂, ∃𝒂−𝟏 ∈ 𝕂 ⟹ 𝑎 • 𝒂−𝟏 = 𝒂−𝟏 • 𝑎 = 𝟏

Esta estructura no cumple con el Teorema de Divisores de cero

Por tanto (K, + , •) es un cuerpo

JULIO CESAR RODRIGUEZ B. Página 4


1.3 FUNCIONES

Recordemos que Función o Aplicación, se define como una relación biunivoca entre
dos conjuntos:

𝑓 ∶ 𝐴 → 𝐵

𝑓 ∶ 𝑥 ↦ 𝑦 Ley de correspondencia
Donde.-
A : Dominio de la función

B : Codominio o Rango de Imágenes

Es decir función o aplicación de A en B es una relación entre A y B, y es subconjunto


de AxB; que satisface condiciones de existencia y unicidad

NOTA : Se define Funcion como Aplicación cuando el Dominio es todo el conjunto de


partida

JULIO CESAR RODRIGUEZ B. Página 5


JULIO CESAR RODRIGUEZ B. Página 6

También podría gustarte