Está en la página 1de 4

Álgebra lineal

Ir a la navegaciónIr a la búsqueda

El espacio euclídeo tridimensional R3 es un espacio vectorial y las líneas y los planos que pasan por
el origen son subespacios vectoriales de R3.

El álgebra lineal es una rama de las matemáticas que estudia conceptos tales
como vectores, matrices, espacio dual, sistemas de ecuaciones lineales y en su
enfoque de manera más formal, espacios vectoriales y sus transformaciones
lineales.
Dicho de otra forma, el Álgebra lineal es la rama de las matemáticas que se
ocupa de las ecuaciones lineales como:

y aplicaciones lineales tales como:

y sus representaciones en espacios vectoriales y a través de matrices.12


3

El álgebra lineal es fundamental en casi todas las áreas de las


matemáticas. Por ejemplo, el álgebra lineal es fundamental en las
presentaciones modernas de la geometría, incluso para definir objetos
básicos como líneas, planos y rotaciones. Además, el análisis funcional,
una rama del análisis matemático, puede considerarse básicamente
como la aplicación del álgebra lineal al espacios de funciones.
El álgebra lineal también se utiliza en la mayoría de las ciencias y
campos de la ingeniería, porque permite modelar muchos fenómenos
naturales, y computar eficientemente con dichos modelos. Para
los sistemas no lineales, que no pueden ser modelados con el álgebra
lineal, se utiliza a menudo para tratar la aproximaciones de primer
orden, utilizando el hecho de que la diferencial de una 'función
multivariante' en un punto es el mapa lineal que mejor aproxima la
función cerca de ese punto así como el análisis funcional,
las ecuaciones diferenciales, la investigación de operaciones, las
gráficas por computadora, la ingeniería entre otras más.
La historia del álgebra lineal moderna se remonta a 1843,
cuando William Rowan Hamilton (de quien proviene el uso del
término vector) creó los cuaterniones inspirado en los números
complejos;4 y a 1844, cuando Hermann Grassmann publicó su libro Die
lineare Ausdehnungslehre (La teoría lineal de extensión)5.

1. Índice

2. Historia[editar]
El procedimiento para resolver ecuaciones lineales simultáneas que
ahora se denomina eliminación gaussiana aparece en el antiguo texto
matemático chino Cálculo de barras#Sistema de ecuaciones lineales;
Capítulo octavo: Matrices rectangulares de Los nueve capítulos sobre el
arte matemático. Su uso se ilustra en dieciocho problemas, con dos a
cinco ecuaciones.6
Los Sistemas de ecuaciones lineales surgieron en Europa con la
introducción en 1637 por René Descartes de las coordenadas en
la geometría. De hecho, en esta nueva geometría, ahora
llamada geometría cartesiana, las líneas y los planos están
representados por ecuaciones lineales, y calcular sus intersecciones
equivale a resolver sistemas de ecuaciones lineales.
Los primeros métodos sistemáticos para resolver sistemas lineales
utilizaban determinantes, considerados por primera vez por Leibniz en
1693. En 1750, Gabriel Cramer los utilizó para dar soluciones explícitas
de sistemas lineales, lo que ahora se llama regla de Cramer. Más
tarde, Gauss describió aún más el método de eliminación, que
inicialmente fue catalogado como un avance en geodesia.7
En 1844 Hermann Grassmann publicó su "Teoría de la Extensión" que
incluía nuevos temas fundacionales de lo que hoy se llama álgebra
lineal. En 1848, James Joseph Sylvester introdujo el término matriz, que
en latín significa vientre.
El álgebra lineal creció con las ideas anotadas en el plano complejo. Por
ejemplo, dos números w y z en ℂ tienen una diferencia w - z, y los

segmentos de línea y tienen la misma longitud y dirección.


Los segmentos son equipolentes. El sistema cuatridimensional ℍ
de cuaterniones se inició en 1843. El término vector fue introducido
como v = x i + y j + z k representando un punto en el espacio. La
diferencia de cuaterniones p - q también produce un segmento

equipolente a la Otros sistemas de números


hipercomplejos también utilizaron la idea de un espacio lineal con
una base.
Arthur Cayley introdujo la multiplicación matricial y la matriz inversa en
1856, haciendo posible el grupo lineal general. El mecanismo
de representación de grupo se hizo disponible para describir los
números complejos e hipercomplejos. Fundamentalmente, Cayley utilizó
una sola letra para denotar una matriz, tratando así una matriz como un
objeto agregado. También se dio cuenta de la conexión entre las
matrices y los determinantes, y escribió "Habría muchas cosas que decir
sobre esta teoría de las matrices que deberían, me parece, preceder a
la teoría de los determinantes".7
Benjamin Peirce publicó su Álgebra lineal asociativa (1872), y su
hijo Charles Sanders Peirce amplió el trabajo posteriormente.8
El telégrafo requería un sistema explicativo, y la publicación en 1873
de A Treatise on Electricity and Magnetism instituyó una teoría de
campos de fuerzas y requirió la geometría diferencial para su expresión.
El álgebra lineal es geometría diferencial plana y sirve en los espacios
tangentes a los colectores. Las simetrías electromagnéticas del
espaciotiempo se expresan mediante las transformaciones de Lorentzs,
y gran parte de la historia del álgebra lineal es la historia de las
transformaciones de Lorentz.
La primera definición moderna y más precisa de un espacio vectorial fue
introducida por Peano en 1888;7 en 1900 había surgido una teoría de
las transformaciones lineales de los espacios vectoriales de dimensión
finita. El álgebra lineal tomó su forma moderna en la primera mitad del
siglo XX, cuando muchas ideas y métodos de siglos anteriores se
generalizaron como álgebra abstracta. El desarrollo de los ordenadores
hizo que aumentara la investigación de algoritmos eficientes para la
eliminación gaussiana y las descomposiciones matriciales, y el álgebra
lineal se convirtió en una herramienta esencial para la modelización y
las simulaciones.7

3. Contexto general[editar]

De manera más formal, el álgebra lineal estudia conjuntos denominados


espacios vectoriales, los cuales constan de un conjunto de vectores y
un conjunto de escalares que tiene estructura de campo, con una
operación de suma de vectores y otra de producto entre escalares y
vectores que satisfacen ciertas propiedades (por ejemplo, que la suma
es conmutativa).
Estudia también transformaciones lineales, que son funciones entre
espacios vectoriales que satisfacen las condiciones de linealidad:

A diferencia del ejemplo desarrollado en la sección anterior, los vectores


no necesariamente son n-adas de escalares, sino que pueden ser
elementos de un conjunto cualquiera (de hecho, a partir de todo
conjunto puede construirse un espacio vectorial sobre un campo fijo).
Finalmente, el álgebra lineal estudia también las propiedades que
aparecen cuando se impone estructura adicional sobre los espacios
vectoriales, siendo una de las más frecuentes la existencia de
un producto interno (una especie de producto entre dos vectores) que
permite introducir nociones como longitud de vectores y ángulo entre un
par de los mismos.

También podría gustarte