Está en la página 1de 78

UNIDAD 1

NUMEROS COMPLEJOS
1.1 Definición y origen de los números complejos.
1.2 Operaciones fundamentales con números complejos.
1.3 Potencia de un numero imaginario (i), modulo o valor absoluto de un
numero complejo.
1.4 Forma polar y exponencial de un número complejo.
1.5 Teorema de Moire, potencias y extracción de un número complejo.
1.6 Ecuaciones polinómicas

UNIDAD II
MATRICES Y DETERMINANTES
2.1 Definición de una matriz, notación y orden.
2.2 Operaciones con matrices.
2.3 Clasificación de matrices.
2.4 Transformaciones elementales por renglón, escalonamiento de una matriz,
rango de una matriz.
2.5 Calculo de la inversa de una matriz.
2.6 Definición de determinante de una matriz.
2.7 Propiedades de las determinantes
2.8 Inversa de una matriz cuadrada a través de la adjunta.
2.9 Aplicación de matrices y determinantes

UNIDAD III
SISTEMAS DE ECUACIONES LINEALES
3.1 Definición de sistemas de ecuaciones lineales
3.2 Clasificación de los sistemas de ecuaciones lineales y tipos de solución
3.3 Interpretación geométrica de las soluciones.
3.4 Métodos de solución de un sistema de ecuaciones lineales por Gauss-Jordán,
inversa de una matriz y regla de Krammer
3.5 Aplicaciones.

UNIDAD IV
ESPACIOS VECTORIALES
4.1 Definición de un espacio vectorial.
4.2 Definición de un sub-espacio vectorial y sus propiedades.
4.3 Combinación lineal, independencia lineal.
4.4 Base y dimensión de un espacio vectorial, cambio de base.
4.5 Espacio vectorial con producto interno y sus propiedades.
4.6 Base orto-normal, proceso de ortonormalizacion.

UNIDAD V
TRANSFORMACIONES LINEALES

5.1 Definición de las transformaciones lineales.


5.2 Núcleo e imagen de una transformación lineal.
5.3 La matriz de una transformación lineal.
5.4 Aplicación de las transformaciones lineales en la reflexión, dilatación y
transformación.
1.1 DEFINICION Y ORIGEN DE LOS NUMEROS
COMPLEJOS

L os números complejos conforman un grupo de cifras resultantes de la suma


entre un número real y uno de tipo imaginario. Un número real, de acuerdo a la
definición, es aquel que puede ser expresado por un número entero (4, 15, 2686)
o decimal (1,25; 38,1236; 29854,152). En cambio, un número imaginario es aquél
cuyo cuadrado es negativo. El concepto de número imaginario fue desarrollado
por Leonhard Euler en 1777, cuando le otorgó a v-1 el nombre de i (de
“imaginario”).
La noción de número complejo aparece ante la imposibilidad de los números
reales de abarcar a las raíces de orden par del conjunto de los números negativos.
Los números complejos pueden, por lo tanto, reflejar a todas las raíces de los
polinomios, algo que los números reales no están en condiciones de hacer.

Gracias a esta particularidad, los números complejos se emplean en diversos


campos de las matemáticas, en la física y en la ingeniería. Por su capacidad para
representar la corriente eléctrica y las ondas electromagnéticas, por citar un caso,
son utilizados con frecuencia en la electrónica y las telecomunicaciones. Y es que
el llamado análisis complejo, o sea la teoría de las funciones de este tipo, se
considera una de las facetas más ricas de las matemáticas.
Cabe resaltar que el cuerpo de cada número real está formado por pares
ordenados (a, b). El primer componente (a) es la parte real, mientras que el
segundo componente (b) es la parte imaginaria. Los números imaginarios puros
son aquellos que sólo están formados por la parte imaginaria (por lo tanto, a=0).
Los números complejos componen el denominado cuerpo complejo (C). Cuando el
componente real a es identificado con el correspondiente complejo (a, 0), el
cuerpo de estos números reales (R) se transforma en un sub cuerpo de C. Por
otra parte, C conforma un espacio vectorial de dos dimensiones sobre R. Esto
demuestra que los números complejos no admiten la posibilidad de mantener un
orden, a diferencia de los números reales.

ORIGEN

Ya desde el siglo I antes de Cristo, algunos matemáticos griegos, como ser Herón
de Alejandría, comenzaron a esbozar el concepto de números complejos, ante
dificultades para construir una pirámide. Sin embargo, recién en el siglo XVI
empezaron a ocupar un lugar importante para la ciencia; en ese momento, un
grupo de personas buscaba fórmulas para obtener las raíces exactas de los
polinomios de grados 2 y 3.
En primer lugar, su interés era dar con las raíces reales de las ecuaciones antes
mencionadas; sin embargo, también debieron enfrentarse a las raíces de números
negativos. El famoso filósofo, matemático y físico de origen francés Descartes fue
quien creó el término de números imaginarios en el siglo XVII, y recién más de 100
años más tarde sería aceptado el concepto de los complejos. Sin embargo, fue
necesario que Gauss, científico alemán, lo redescubriera un tiempo después para
que éste recibiera la atención que merecía.
El plano complejo
Para interpretar de manera geométrica los números complejos es necesario
valerse de un plano complejo. En el caso de su suma, ésta puede ser relacionada
con la de los vectores, mientras que su multiplicación es posible expresarla
mediante coordenadas polares, con las siguientes características:
* La magnitud de su producto es la multiplicación de las magnitudes de los
términos;
* El ángulo que va desde el eje real del producto resulta de la suma de los ángulos
de los términos.
A la hora de representar las posiciones de los polos y los ceros de una función en
un plano complejo, a menudo se utilizan los denominados diagramas de Argand.
1.2 OPERACIONES FUNDAMENTALES CON
NUMEROS COMPLEJOS

“Los números complejos pueden ser sumados, restados multiplicados o divididos


(salvo la división por 0 + 0i), las reglas formales y definiciones son iguales a las
que usamos con los números reales.

1) a + bi = c + di si y solo si a= c y b = d

2) (a + bi) + (c + di) = (a +c) + (b +d) i

3) (a + bi) - (c + di) = (a-c) + (b - d) i

4) (a + bi)(c+di) = ac + (bc+ad)i +bdi² = (ac – bd) + (bc + ad)i


Conjugado:
El conjugado de un número complejo z = x + iy, está dado por= x – iy.
Ejemplo:
Si z = 3 – 2i, el conjugado de z es = 3 – (-2i) = 3 + 2i
Suma y resta:
La suma y resta con números complejos se realiza de la misma manera que con
números reales.
Ejemplos:

(7 - 2i) + (3 - 3i) = 10 - 5i

(3 - i) + (2 + 3i) = 5 + 2i

2i + (-4 – 2i) = -4
(-4 + 2i) – (6 - 8i) = -10 – 10i

(5 + 2i) + (−8 + 3i) = −3 + 5i

Multiplicación con números complejos:


En la multiplicación se siguen las mismas reglas algebraicas que con números
reales solo que con números complejos, llegamos a un resultado donde
encontramos i2, donde i2 = -1.
Ejemplos:

División de números complejos:


En la división se hace uso del conjugado del denominador.
Ejemplo:

Lo primero que hacemos es calcular el conjugado del denominador, y luego


multiplicarlo por la división.
1.3 POTENCIA DE UN NUMERO IMAGINARIO (i),
MODULO O VALOR ABSOLUTO DE UN NUMERO
COMPLEJO

Valor absoluto. El valor absoluto, módulo o magnitud de un número complejo z


viene dado por la siguiente expresión: Si pensamos en z como un punto en el
plano; podemos ver, por el teorema de Pitágoras, que el valor absoluto de un
número complejo coincide con la distancia euclídea desde el origen del plano. Si el
complejo está escrito en forma polar z = r eiφ, entonces |z| = r. Podemos
comprobar con facilidad estas tres importantes propiedades del valor absoluto
para cualquier complejo z y w. Por definición, la función distancia queda como
sigue d(z, w) = |z – w| y nos provee de un espacio métrico con los complejos
gracias al que se puede hablar de límites y continuidad. La suma, la resta, la
multiplicación y la división de complejos son operaciones continuas. Si no se dice
lo contrario, se asume que ésta es la métrica usada en los números complejos.
Módulo de un vector
Se llama módulo de un complejo a la longitud del vector que lo representa, lo
designaremos por ½ Z½ o simplemente por r. Su valor se obtiene por la conocida
relación: ½ Z1½ = r = Que es la relación que nos permite determinar la longitud de
un vector. Sea Z un número complejo. Explique cómo determinar Sea Z= a +bi.
Valor absoluto. El valor absoluto, módulo o magnitud de un número complejo z
viene dado por la siguiente expresión: Si pensamos en z como un punto en el
plano; podemos ver, por el teorema de Pitágoras, que el valor absoluto de un
número complejo coincide con la distancia euclídea desde el origen del plano. Si el
complejo está escrito en forma polar z = r eiφ, entonces |z| = r. Podemos
comprobar con facilidad estas tres importantes propiedades del valor absoluto
para cualquier complejo z y w. Por definición, la función distancia queda como
sigue d(z, w) = |z – w| y nos provee de un espacio métrico con los complejos
gracias al que se puede hablar de límites y continuidad. La suma, la resta, la
multiplicación y la división de complejos son operaciones continuas. Si no se dice
lo contrario, se asume que ésta es la métrica usada en los números complejos.
Aplicaciones en Ingeniería.
En ingeniería los números complejos se usan para muchísimas cosas.
La razón principal detrás de esto es que los matemáticos desarrollaron una
enorme cantidad de herramientas de análisis y álgebra para trabajar con ellos y
los ingenieros encontraron una forma práctica de representar vectores con ellos.
Esta última afirmación es un poco hiperbólica, lo se, pero se ajusta bastante a la
realidad y justifica el hecho de que se usen tan ampliamente.
En ingeniería eléctrica permiten representar muy fácilmente los parámetros de
magnitud y fase cuando se representan corrientes y tensiones alternas; el gran
vinculador de ellas, la impedancia (cociente de la tensión y la corriente) se
representa con un número complejo. Una parte real, una imaginaria, que
representan resistencia (real) inductancia y capacitancia (imaginario).
Este último ejemplo es un ícono para iniciados y no iniciados. Sin embargo los
mismos mecanismos se utilizan para analizar el campo magnético resultante en la
armadura de un motor, etc.
En ingeniería electrónica el uso es el mismo que en eléctrica, pero además se
aplica (para mencionar sólo un ejemplo) a ondas electromagneticas, en donde se
representa la relación entre campos eléctricos y magnéticos.
En control para representar los retardos entre las señales de realimentación,
corrección y error en un sistema.
En ingeniería mecánica para representar la relación espacial de los esfuerzos en
un sistema o internamente en un material.
En ingeniería civil para representar esfuerzos en estructuras, pendeos…
En ingeniería hidráulica para poner en números el comportamiento de los fluidos
En aeronáutica para representar las fuerzas resultantes (en las estructuras
mecánicas) pero también en las fuerzas de sustentación
Control: para el análisis de señales en frecuencia, determinación de polos y ceros
de las funciones o modelos matemáticos y estabilización de procesos de control.
1.4 FORMA POLAR Y EXPONENCIAL DE UN
NUMERO COMPLEJO
Forma polar:
“Sean r y θ coordenadas polares del punto (x, y) que corresponde a un número
complejo no nulo z = x + iy. Como x = r cos θ e y = r sen θ

En análisis complejo, no se admiten r negativos; sin embargo, como en el Cálculo,


θ tiene infinitos valores posibles, incluyendo valores negativos”[1].
r cosθ = x
r senθ =
Para convertir de forma polar o rectangular
z = 5 – 5i
Forma exponencial:
“La ecuación eiθ = cos θ + i sen θ que define el símbolo eiθ, o exp (iθ), para todo
valor real de θ, se conoce como fórmula de Euler. Si escribimos un número
complejo no nulo en forma polar.
z = r(cos θ + i sen θ),
la fórmula de Euler permite expresar z más compactamente en forma exponencial:
z = reiθ”[1].

EJEMPLOS:
“Convertir de rectangular a polar:
Z = 5 - 5i
. Se saca el modulo de |z| = r

Después de tener el módulo se obtiene teta.


(El resultado de la operación es -45 pero el punto (5,-5) se encuentra en el cuarto
cuadrante, al encontrarse ahí significa que a 360 se le restara el valor de teta.)
1.5 TEOREMA DE MOIRE, POTENCIAS Y
EXTRACCION DE UN NUMERO COMPLEJO

“Fórmula de De Moivre se aplica para cualquier número complejo z = r(cosθ +


isenθ) y para cualquier n∈ Z: z = rn(cosnθ + isennθ).

“La "raíz n-ésima" de un valor dado, cuando se multiplica n veces da el valor inicial
" n-ésima " .
1ª, 2ª, 3ª, 10ª (décima), 20ª (vigésima),... n-ésima ...
En vez de hablar de la "4ª (cuarta)", "16ª (decimosexta)", etc., si queremos hablar
en general decimos la "n-ésima".

Así como la raíz cuadrada es lo que se multiplica dos veces para tener el valor
original y la raíz cubica es lo que se multiplica tres veces para tener el valor
original, la raíz n-ésima es lo que se multiplica n veces para tener el valor original.

USOS:
Se podría usar la raíz n-ésima en una pregunta así:

Pregunta:

¿cuánto es "n"?
Respuesta: 5 × 5 × 5 × 5 = 625, así que n=4 (es decir 5 se usa 4 en la
multiplicación).
O podríamos usar "n" porque queremos hablar de algo en general:
Ejemplo: Si n es impar entonces

PROPIEDADES:

Multiplicación y división
Puedes "separar" así multiplicaciones dentro de la raíz:

(Suponemos que a y b son ≥ 0)


Esto te ayudará a simplificar ecuaciones en álgebra, y también algunos cálculos:
Ejemplo:

Tambien fnciona con la division


(b no puede ser cero porque no se puede dividir entre cero)
Ejemplo:

Suma y restas
No se puede hacer lo mismo con sumas y restas
1.6 TEOREMA DE MOIRE, POTENCIAS Y EXTRACION
DE UN NUMERO COMPLEJO

Las funciones polinómicas


Una función polinómica es aquella que tiene por expresión un polinomio. En
general, suelen estudiarse según el grado del polinomio: Las funciones afines Una
función afín es una función polinómica cuya expresión es un polinomio de grado 1,
del tipo: f(x) = ax + b La gráfica de una función afín es una recta. Al número a se le
denomina pendiente de la recta e informa de la inclinación de ésta. Por ejemplo:

Puntos de corte con los ejes: con el eje X: (–b/a,0) con el eje Y: (0,b) Crecimiento:
la función es creciente si a >0 la función es constante si a = 0 la función es
decreciente si a < 0 Un tipo especial de funciones afines son las funciones
lineales: una función lineal es una función afín cuyo término independiente es 0.
Su representación es una recta que pasa por el origen. Por ejemplo:

Las funciones polinómicas Una función polinómica es una función cuya expresión
es un polinomio; por ello, a veces, se le denomina simplemente polinomio. En la
gráfica de una función polinómica pueden diferenciarse dos elementos: las ramas
y la parte central, también los máximos y los mínimos, y los puntos de corte con
los ejes:
2.1 DEFINICION DE UNA MATRIZ, NOTACION Y
ORDEN

Se llama matriz a un conjunto ordenado de números, dispuestos en m filas y n


columnas. Las líneas horizontales reciben el nombre de filas, renglones o hileras y
las líneas verticales se llaman columnas. El numero de filas puede ser menor,
igual o mayor que el numero de las columnas.
- Las filas se numeran de arriba hacia abajo y las columnas de izquierda a
derecha. En el ejemplo a): La primera fila de la matriz es la segunda fila es , la
primera columna es y la segunda columna es.
Las matrices se denotarán usualmente por letras mayúsculas, A, B, ..., y los
elementos de las mismas por minúsculas, a, b, ...
EJEMPLO:

2.2 OPERACIONES CON MATRICES

Se considera un álgebra de matrices, en la que definimos sobre ellas operaciones


con sus respectivas propiedades.
Las operaciones más comunes son:
- Operaciones de transposición: la transpuesta de una matriz A = de orden (m,n)
es una matriz de orden (n,m), que se obtiene intercambiando filas por columna (o l
que es igual, columnas por filas).
- Suma: Dadas dos matrices del mismo orden A = [ ] y B = se definen la suma
como otra matriz C= de igual orden.
- Diferencia: Dadas dos matrices del mismo orden A = [ ] y B = [ ] se definen la
diferencia como otra matriz C=[ ] de igual orden.
- Producto por un numero: Dada una matriz y un número, el producto B = que
se obtiene multiplicando por cada uno de los elementos de la matriz A.
- Combinación lineal: Dadas las matrices A = , todas del mismo orden y los
números, se dice que la matriz A + = N, es combinación lineal.
Suma
Las matrices se pueden sumar y restar entre sí, con la condición que sean del
mismo orden. La suma se obtiene sumando los elementos de dos matrizes que
pertenecen a la misma fila y a la misma columna. Dada las matrices A y B del
mismo orden, la matriz sumante se obtiene sumando cada término de A
correspondiente en B:

=Propiedades de la suma=
Asociativa: (A+B)+C = A + (B+C)
Conmutativa: A + B= B + A
Elemento neutro: A + 0 = A
Elemento simétrico: A - B = A + ( - B )
=Producto por un escalar=
Con un nombre real k y la matriz A de orden (m,n), definimos el producto de K por
A el producto de cada elemento que les forma cada uno. Igual que la siguiente
forma: cuando K=2
=Propiedades del producto escalar=
k ( A + B ) = kA + kB
( k + h )A = kA + hA
k ( hA) = ( kh ) A
1A = A

2.3 CLASIFICACION DE MATRICES

Se llama matriz a un conjunto ordenado de números, dispuestos en m filas y n


columnas. Las líneas horizontales reciben el nombre de filas, renglones o hileras y
las líneas verticales se llaman columnas. El número de filas puede ser menor,
igual o mayor que el número de las columnas.
Y las podemos clasificar de la siguiente manera:
- matriz cuadrada.
- Esta es un matriz diagonal.
- matriz nula.
- matriz cuadrada.
- matriz asimétrica
- Matriz escalar.
- Matriz identidad.
- Matriz transpuesta.

=Triangular superior=
En una matriz triangular superior los elementos situados por debajo de la diagonal
principal son ceros.

=Triangular inferior=
En una matriz triangular inferior los elementos situados por encima de la diagonal
principal son ceros.
=Diagonal=
En una matriz diagonal todos los elementos situados por encima y por debajo de
la diagonal principal son nulos.

=Escalar=
Una matriz escalar es una matriz diagonal en la que los elementos de la diagonal
principal son iguales.

=Identidad=
Una matriz identidad es una matriz diagonal en la que los elementos de la
diagonal principal son iguales a 1.

=Traspuesta=
Dada una matriz A, se llama matriz traspuesta de A a la matriz que se obtiene
cambiando ordenadamente las filas por las columnas
=Simétrica=
Una matriz simétrica es una matriz cuadrada que verifica: A = At.

=Antisimetrica=
Una matriz antisimétrica o hemisimétrica es una matriz cuadrada que verifica: A =
-At.

=Compleja=
Sus elementos son números complejos aij e ¬

=Conjugada=
Matriz conjugada de una matriz A Aquella que se obtiene sustituyendo cada
elemento por su complejo conjugado (igual parte real, pero la parte imaginaria
cambiada de signo).

=Hermitiana o hermitica=
Una matriz hermitiana (o hermítica) es una matriz cuadrada de elementos
complejos que tiene la característica de ser igual a su propia traspuesta
conjugada. Es decir, el elemento en la i-ésima fila y j-ésima columna es igual al
conjugado del elemento en la j-ésima fila e i-ésima columna, para todos los índices
i y j:
=Ortogonal=
Una matriz ortogonal es necesariamente cuadrada e invertible: A-1 = AT La
inversa de una matriz ortogonal es una matriz ortogonal. El producto de dos
matrices ortogonales es una matriz ortogonal. El determinante de una matriz
ortogonal vale +1 ó -1.

2.4 TRANSFORMACIONES ELEMENTALES POR


RENGLON, ESCALONAMIENTO DE UNA MATRIZ,
RANGO DE UNA MATRIZ

La idea que se persigue con las transformaciones elementales es convertir una


matriz concreta en otra matriz más fácil de estudiar. En concreto, siempre será
posible conseguir una matriz escalonada, en el sentido que definimos a
continuación.
Sea A una matriz y F una fila de A. Diremos que F es nula si todos los números de
F coinciden con el cero. Si F es no nula, llamamos pivote de F al primer número
distinto de cero de F contando de izquierda a derecha.
Una matriz escalonada es aquella que verifica las siguientes propiedades:
Todas las filas nulas (caso de existir) se encuentran en la parte inferior de la
matriz.
El pivote de cada fila no nula se encuentra estrictamente más a la derecha que el
pivote de la fila de encima.
Por ejemplo, entre las matrices:

A no es escalonada, mientras que B y C si lo son.


Dada una matriz escalonada E se define el RANGO de E, que representamos por
rg (E), como el numero de filas no nulas de E.
En los ejemplos B y C de arriba se tiene rg (B) = rg(C) = 2, sin embargo no
podemos decir que rg(A) = 3 ya que A no está escalonada. Otro ejemplo, las
matrices nulas tienen rango cero y la matriz identidad de orden n cumple rg (In) =
n.

La siguiente cuestión que abordaremos es la definición de rango para una matriz


cualquiera que no esté escalonada. La idea será la de transformar la matriz dada
en otra que sea escalonada mediante las llamadas transformaciones elementales
por filas que describimos a continuación.
Dada una matriz A cualquiera, las transformaciones elementales por filas de A
son tres:
Intercambiar la posición de dos filas.
Multiplicar una fila por un número real distinto de cero.
Sustituir una fila por el resultado de sumarle a dicha fila otra fila que ha sido
previamente multiplicada por un número cualquiera.
Nota: Análogamente podríamos hacerlo todo por columnas; sin embargo, son las
transformaciones por filas las que son importantes en los sistemas de ecuaciones
lineales que estudiaremos después.
El siguiente resultado nos garantiza que siempre podemos transformar una matriz
cualquiera en otra escalonada.
=Teorema=
A partir de cualquier matriz A se puede llegar, mediante una cantidad finita de
transformaciones elementales, a una matriz escalonada E.
Veamos en un ejemplo cómo se hace. Obsérvese que, primero, hacemos que la
componente (1,1) de la matriz de partida sea igual a uno. Luego, se hace que el
resto de componentes de la primera columna sean cero. Después se pasa a la
componente (2,2), y así sucesivamente.

El teorema anterior nos permite hacer una definición importante:


Dada una matriz A cualquiera se define el RANGO de A y lo denotamos rg(A)
como el rango de cualquier matriz escalonada E equivalente con A (se demuestra
que este número no depende de la matriz escalonada E a la que se llegue). El
rango siempre es un número menor o igual que el número de filas y el número de
columnas de A. Además, el rango es cero si y sólo si A = 0. En nuestro ejemplo de
antes, el rango es 3.
2.5 CALCULO DE LA INVERSA DE UNA MATRIZ

Cálculo de la matriz inversa usando determinantes Dada una matriz cuadrada A,


se llama matriz adjunta de A, y se representa por Adj(A), a la matriz de los
adjuntos, Adj(A) = (Aij).
Si tenemos una matriz tal que det (A) ¹ 0, se verifica

Esto es fácil probarlo puesto que sabemos que la suma de los productos de los
elementos de una fila por sus adjuntos es el valor del determinante, y que la suma
de los productos de los elementos de una fila por los adjuntos de otra fila diferente
es 0 (esto sería el desarrollo de un determinante que tiene dos filas iguales por los
adjuntos de una de ellas).

Método de Gauss-Jordán para el cálculo de la matriz inversa El método de Gauss


- Jordán para calcular la matriz inversa de una dada se basa en una
triangularización superior y luego otra inferior de la matriz a la cual se le quiere
calcular la inversa.
Sabemos ya multiplicar matrices y hemos visto algunas de las propiedades de
esta operación. Recordemos, en primer lugar, que no siempre es posible efectuar
la multiplicación de dos matrices, y en segundo lugar, que aunque sea posible
hacer esta multiplicación, en general no es conmutativo, es decir A·B es distinto de
B*A.
En el caso particular de que tratemos con matrices cuadradas del mismo orden A
y B, es claro que podemos efectuar los productos A·B y B·A, que darán como
resultado otra matriz del mismo orden, aunque, como ya se ha dicho, las matrices
resultantes serán, en general, distintas.
Sabemos también que el elemento neutro del producto de matrices es la matriz
identidad In. Por analogía con el caso de los números reales, podemos
plantearnos la siguiente cuestión: Si tenemos un número real, por ejemplo el 2,
podemos interesarnos en buscar el inverso del 2 para el producto, es decir un
número real x tal que 2·x = 1, el producto de 2 por x sea igual al elemento neutro,
el 1.
Evidentemente, en el caso de los números reales es bien fácil despejar x para
obtener, en nuestro caso, que x =12, es decir, el inverso de un número real es otro
número que multiplicado por ´el da el elemento neutro, el 1.
Todo número real, salvo el 0, tiene inverso.
Trasladando esto a las matrices, nos podemos plantear si dada una matriz
cuadrada A de orden n, cualquiera, existe su inversa X para el producto de
matrices, tal que A ・ X = In es decir, el producto de A por su inversa produce el
elemento neutro matricial, la matriz identidad In. Sin embargo, hay algunas
diferencias con respecto al caso de los números reales:
No podemos “despejar” la matriz X del modo X = In A, porque no hemos definido
la división de matrices.
No todas las matrices cuadradas no nulas tienen matriz “inversa” (sea lo que sea,
por analogía con los números).
Definamos, en primer lugar, el término de matriz inversa: Dada una matriz
cuadrada de orden n , A, se dice que A es invertible (o que posee inversa o que es
no singular o que es regular ), si existe otra matriz del mismo orden, denominada
matriz inversa de A y representada por A−1 y tal que: A * A−1 = In y A−1 * A = In
Si A no tiene inversa, se dice que es singular o no invertible.
Si una matriz tiene inversa, dicha matriz inversa es única (sólo hay una).
2.6 DEFINICION DE UNA DETERMINANTE DE UNA
MATRIZ

El determinante de una matriz cuadrada es un número real cuya definición exacta


es bastante complicada. Por ello, definiremos primero el determinante de matrices
pequeñas, y estudiaremos métodos y técnicas para calcular determinantes en
general. Solamente se puede calcular el determinante a matrices cuadradas.
En cuanto a la notación, a veces el determinante se escribe con la palabra det, y
otras veces se indica sustituyendo los paréntesis de la matriz por barras verticales.
El determinante de una matriz determina si los sistemas son singulares o mal
condicionados. En otras palabras, sirve para determinar la existencia y la unicidad
de los resultados de los sistemas de ecuaciones lineales.
• El determinante de una matriz es un número.
• Un determinante con valor de cero indica que se tiene un sistema singular.
• Un determinante con valor cercano a cero indica que se tiene un sistema mal
condicionado.
Un sistema singular es cuando en el sistema de ecuaciones se tiene a más de una
ecuación con el mismo valor de la pendiente. Por ejemplo ecuaciones que
representan líneas paralelas o ecuaciones que coinciden en los mismos puntos de
graficación.
En un sistema mal condicionado es difícil identificar el punto exacto en que las
líneas de las ecuaciones se interceptan.

2.7 PROPIEDADES DE LAS DETERMINANTES

1.- |At|= |A| El determinante de una matriz A y el de su traspuesta At son iguales.


2.-|A|=0 Si: Posee dos líneas iguales

Todos los elementos de una línea son nulos.

Los elementos de una línea son combinación lineal de las otras.

-Un determinante triangular es igual al producto de los elementos de la diagonal


principal
Si en un determinante se cambian entre sí dos líneas paralelas su determinante
cambia de signo.

-Si a los elementos de una línea se le suman los elementos de otra paralela
multiplicados previamente por un nº real el valor del determinante no varía.

Si se multiplica un determinante por un número real, queda multiplicado por dicho


número cualquier línea, pero sólo una.

-Si todos los elementos de una fila o columna están formados por dos sumandos,
dicho determinante se descompone en la suma de dos determinantes.
2.8 INVERSA DE UNA MATRIZ CUADRADA A
TRAVEZ DE LA ADJUNTA
Definición: Una matriz cuadrada se llama matriz identidad si todos los
componentes de su diagonal principal son iguales a uno y todos los demás
componentes que no están en la diagonal principal son iguales a cero. La matriz
identidad se representa con la letra I (la letra i mayúscula).
Definición: Sea A una matriz cuadrada n x n. Entonces una matriz B es la inversa
de A si satisface A ∙ B = I y B ∙ A = I, donde I es la matriz identidad de orden n x
n.
La inversa de A se representa por A-1. Así que A ∙ A-1 = A-1 ∙ A = I.
No toda matriz cuadrada tiene una inversa.
Si A tiene inversa, entonces decimos que A es invertible.
Teoremas:
Sea A una matriz cuadrada n x n, entonces AI = IA = A.
Si A es una matriz invertible, entonces A-1 es invertible y (A-1)-1 = A.
Si una matriz cuadrada A es invertible, entonces la inversa es única.
Sean A y B matrices de orden n x n invertibles. entonces AB es invertible y (AB)-1
= B-1A-1.
Para hallar la inversa de una matriz cuadrada comenzamos con la matriz A/I,
donde I representa la matriz identidad del mismo orden que la matriz A.
Efectuamos operaciones elementales con las filas de A/I hasta que la matriz A se
transforme en la matriz identidad I. Luego la matriz que contiene los componentes
a la derecha de la línea vertical es la inversa de A, esto es, A-1.

Sea A una matriz de nxn. Entonces A es invertible si y solo si detA≠0. Si detA≠0,


entonces

Si detA≠0, entonces se demuestra que (1/detA)(adjA) es la inversa de A


multiplicándola por A y obteniendo la matriz identidad:
Si AB=I, entonces B=A-1. Así, (1/detA)adjA=A-1
2.9 APLICACIÓN DE MATRICES Y
DETERMINANTES

Las matrices se utilizan en el contexto de las ciencias como elementos que sirven
para clasificar valores numéricos atendiendo a dos criterios o variables.
Ejemplo: Un importador de globos los importa de dos colores, naranja (N) y fresa
(F). Todos ellos se envasan en paquetes de 2, 5 y 10 unidades, que se venden al
precio (en euros) indicado por la tabla siguiente:

Sabiendo que en un año se venden el siguiente número de paquetes:

Resumir la información anterior en 2 matrices A y B, de tamaño respectivo 2x3 y


3x2 que recojan las ventas en un año (A) y los precios (B).
Nos piden que organicemos la información anterior en dos matrices de tamaño
concreto. Si nos fijamos en las tablas, es sencillo obtener las matrices:

Estas matrices se denominan matrices de información, y simplemente recogen los


datos numéricos del problema en cuestión.
Otras matrices son las llamadas matrices de relación, que indican si ciertos
elementos están o no relacionados entre sí. En general, la existencia de relación
se expresa con un 1 en la matriz y la ausencia de dicha relación de expresa con
un 0.
Estas matrices se utilizan cuando queremos trasladar la información dada por un
grafo y expresarla numéricamente.
En Matemáticas, un grafo es una colección cualquiera de puntos conectados por
líneas. Existen muchos tipos de grafos. Entre ellos, podemos destacar:
Grafo simple: Es el grafo que no contiene ciclos, es decir, líneas que unan un
punto consigo mismo, ni líneas paralelas, es decir, líneas que conectan el mismo
par de puntos.
Grafo dirigido: Es el grafo que indica un sentido de recorrido de cada linea,
mediante una flecha.
Estos tipos de grafo pueden verse en la figura :

Relacionadas con los grafos se pueden definir algunas matrices. Entre todas ellas,
nosotros nos fijaremos en la llamada matriz de adyacencia, que es aquella
formada por ceros y unos exclusivamente, de tal forma que:
Un 1 en el lugar (i,j) expresa la posibilidad de ir desde el punto de la fila i hasta el
punto de la columna j mediante una linea que los una directamente.
Un 0 en el lugar (i,j) expresa la imposibilidad de ir del primer punto al segundo
mediante una linea que los una directamente.
La matriz de adyacencia del grafo dirigido de la figura anterior será:
3.1 DEFINICION DE SISTEMAS DE ECUACIONES
LINEALES

Es un conjunto finito de ecuaciones lineales de las variables


X1, X2,. . . . . . . . . Xn
Por ejemplo un, sistema general de tres ecuaciones lineales en tres incógnitas se
escribe así:

Un sistema de m ecuaciones lineales en n incógnitas se puede abreviar


escribiendo únicamente el arreglo rectangular de números:

Esto se conoce como Matriz Aumentada del sistema. (El término matriz se emplea
en matemáticas para denotar un arreglo rectangular de números, las matrices
aparecen en varios contextos).
Coeficientes: aij para i = 1, 2, ....., m j = 1, 2, ..... n
Términos independientes: bi para i = 1, 2, ....., m
Incógnitas del sistema: x1, x2,.... xn
Diremos que un conjunto de n números ordenados() es una solución del sistema si
satisfacen todas las ecuaciones del sistema.
Sistemas equivalentes.
Diremos que dos sistemas de ecuaciones son equivalentes si tienen las mismas
soluciones.(Observese que no necesariamente han de tener el mismo número de
ecuaciones.)
Clasificación de un sistema de ecuaciones lineales.
Atendiendo a la existencia o no de soluciones, los sistemas lineales se clasifican
en:
Incompatibles: si no tienen solución.
Compatibles: si tienen al menos una solución.
A su vez los sistemas de ecuaciones lineales compatibles se clasifican, en función
del número de soluciones, en:
Determinados: si tienen una única solución.
Indeterminados: si tienen más de una, en cuyo caso tendrán infinitas soluciones.
Notemos que los sistemas homogéneos tienen siempre, al menos, la solución (0,
0,… ,0) que recibe el nombre de solución trivial, por ello siempre son compatibles.
El método básico para resolver un sistema de ecuaciones lineales consiste en
reemplazar el sistema dado por un nuevo sistema que tenga el mismo conjunto
solución, pero que sea más fácil de resolver. Por lo general, este nuevo sistema se
obtiene en una serie de etapas, aplicando los siguientes tres tipos de operaciones.

Pasos para resolver la matriz:

Multiplicar una ecuación (o renglón) por una constante diferente de cero.


Intercambiar dos ecuaciones (renglones).
Sumar un múltiplo de una ecuación (renglón) a otra.
Dado que los renglones (líneas horizontales) de una matriz aumentada
corresponden a las ecuaciones del sistema asociado, estas tres operaciones
equivalen a las operaciones con renglones de la matriz aumentada.

3.2 CLASIFICACION DE LOS SISTEMAS DE


ECUACIONES LINEALES Y TIPOS DE SOLUCION
Los sistemas de ecuaciones se pueden clasificar según el número de soluciones
que pueden presentar.
Pueden presentar los siguientes casos:
Sistema incompatible si no tiene ninguna solución.
Sistema compatible si tiene alguna solución, en este caso además puede
distinguirse entre:
Sistema compatible determinado cuando tiene un número finito de soluciones.
Sistema compatible indeterminado cuando admite un conjunto infinito de
soluciones.
Teniendo así la clasificación:

Sabemos que una ecuación lineal o de primer grado es aquella que involucra
solamente sumas y restas de variables elevadas a la primera potencia (elevadas a
uno, que no se escribe). Son llamadas lineales por que se pueden representar
como rectas en el sistema cartesiano.
Se pueden presentar tres tipos de ecuaciones lineales:
a) Ecuaciones lineales propiamente tales
En este tipo de ecuación el denominador de todas las expresiones algebraicas es
igual a 1 y no se presentan como fracción, aunque el resultado sí puede serlo.

Para proceder a la resolución se debe:


Eliminar paréntesis.
Dejar todos los términos que contengan a "x" en un miembro y los números en el
otro.
Luego despejar "x" reduciendo términos semejantes.

EJEMPLO:

b) Ecuaciones fraccionarias
En este tipo de ecuación lineal el denominador de a lo menos una de las
expresiones algebraicas es diferente de 1 (es una fracción).
Para proceder a la resolución se debe:
Llevar a ecuación lineal (eliminar la fracción) multiplicando la ecuación por el
mínimo común múltiplo de los denominadores (m.c.m.)
Ejemplo:

c) Ecuaciones literales:
Pueden ser lineales o fraccionarias. Si son fraccionarias, se llevan al tipo lineal,
pero en el paso de reducir términos semejantes se factoriza por "x" para
despejarla.

Ejemplo:
3.3 INTERPRETACION GEOMETRICA DE LAS
SOLUCIONES

Los finitos pares ordenados (x; y) que satisfagan a la ecuación lineal a.x + b - y +
c=0 corresponden a los infinitos puntos de una recta del plano. Por tanto, el
problema de resolver un sistema lineal de dos ecuaciones con dos incognitas es el
problema de estudiar la posición de sendas rectas.
Sistema incompatible (carece de solución) rectas paralelas.
Sistema compatible y determinado (solución única) rectas secantes.
Sistema compatible e indeterminado (infinitas soluciones) rectas coincidentes.
Un sistema de ecuaciones diferenciales son aquellas que tienen varias
posibilidades para su solución. Estas son:
1. Solución única: Sólo es posible obtener una solución única para un sistema
de ecuaciones lineales intersectado en un único punto determinado, por lo
tanto, el sistema de ecuaciones donde tenemos todas las rectas
entrecruzándose en un solo punto, se denomina como la solución única del
sistema de ecuaciones. Ese sistema de ecuaciones lineales es llamado
sistema de ecuaciones lineales consistente independiente.
2. Sin solución: Es posible que un sistema de ecuaciones lineales no tenga
solución cuando ningunas de sus rectas se intersectan entre sí ni siquiera
en el infinito, ya que sólo el punto de intersección es la solución para el
sistema de ecuaciones lineales Esto sólo puede ocurrir en el caso de las
rectas paralelas, por lo tanto, para un sistema con este tipo de ecuación
tenemos varias ecuaciones que corresponden a la misma recta y que sólo
difieren por la pendiente. Dicho sistema se denomina sistema de
ecuaciones lineales inconsistente independiente.
3. Infinitas soluciones: Sólo en la situación que las rectas de determinado
sistema se encuentren unas con otras en un punto infinito, podemos
obtener soluciones infinitas. Esto sólo puede suceder si todas las rectas son
la misma recta, ya que es en este escenario que se superpondrán unas con
otras dándonos puntos infinitos de intersección, es decir, infinitas
soluciones. Este sistema es llamado sistema de ecuaciones lineales
consistente dependiente.

EJEMPLO:
Un punto único. Sistema compatible determinado.. Los tres planos se cortan en P
Una recta. Son soluciones todos los puntos representativos de la recta común.
Sistema compatible indeterminado con un grado de libertad. Los planos se cortan
en r.

Un plano. Los planos son coincidentes. El sistema es compatible indeterminado


con dos grados de libertad.

Ningún punto. El sistema es incompatible. Esta situación se presenta


geométricamente de distintas maneras. Para estudiar las posiciones relativas de
los planos hay que tomarlos de dos en dos.
Se pueden presentar varios casos: Que los planos sean paralelos:
3.4METODOS DE SOLUCION DE UN SISTEMA DE
ECUACIONES LINEALES POR GAUSS JORDAN,
INVERSA DE UNA MATRIZ Y REGLA DE KRAMMER

MÉTODO DE RESOLUCIÓN DE GAUSS-JORDAN


Es el método de resolución de sistemas de ecuaciones lineales, que consiste
en llegar a un sistema "escalonado" transformando la matriz ampliada en una
matriz escalonada por filas. El método de Gauss es una generalización del
método de reducción, que utilizamos para eliminar una incógnita en los
sistemas de dos ecuaciones con dos incógnitas. Consiste en la aplicación
sucesiva del método de reducción, utilizando los criterios de equivalencia de
sistemas, para transformar la matriz ampliada con los términos independientes
( A* ) en una matriz triangular, de modo que cada fila (ecuación) tenga una
incógnita menos que la inmediatamente anterior. Se obtiene así un sistema,
que llamaremos escalonado, tal que la última ecuación tiene una única
incógnita, la penúltima dos incógnitas, la antepenúltima tres incógnitas, y la
primera todas las incógnitas.
El siguiente esquema muestra cómo podemos resolver un sistema de
ecuaciones lineales aplicando este método.
Partimos, inicialmente, de un sistema de n ecuaciones lineales con n
incógnitas, compatible determinado:

En primer lugar, aplicando sucesivamente el método de reducción, eliminamos


en todas las ecuaciones, excepto en la primera, la incógnita x1, obteniéndose
un sistema equivalente:
En segundo lugar, aplicando nuevamente el método de reducción de forma
sucesiva, eliminamos en todas las ecuaciones, excepto en las dos primeras, la
incógnita x2, obteniéndose un sistema equivalente:

Para resolverlo despejamos, en primer lugar, la única incógnita de la última


ecuación. Luego sustituimos ésta en la penúltima ecuación y despejamos la
otra incógnita. Posteriormente, sustituimos dos de las tres incógnitas de la
antepenúltima ecuación por sus valores y despejamos la que queda, y así
sucesivamente hasta llegar a la primera ecuación.

Las transformaciones que podemos realizar en dicha matriz para transformar


el sistema inicial en otro equivalente son las siguientes:
Multiplicar o dividir una fila por un número real distinto de cero.
Sumarle o restarle a una fila otra fila.
Sumarle a una fila otra fila multiplicada por un número distinto de cero.
Cambiar el orden de las filas.
Cambiar el orden de las columnas que corresponden a las incógnitas del
sistema, teniendo en cuenta los cambios realizados a la hora de escribir el
nuevo sistema equivalente. Es decir: si, por ejemplo, la 2ª columna
corresponde a la incógnita y y la tercera a la incógnita z, y cambiamos el orden
de las columnas, ahora la 2ª columna corresponde a la incógnita z y la tercera
a la incógnita y.
Eliminar filas proporcionales o que sean combinación lineal de otras.
Eliminar filas nulas (0 0 0 ... 0).
Después de realizar las transformaciones que se consideren pertinentes, se
obtendrá un sistema escalonado. Suponiendo que hubiésemos eliminado, si
las hubiera, las filas nulas (0 0 0 ... 0), que corresponden a ecuaciones del tipo
0 = 0, el sistema equivalente tendría ahora k ecuaciones lineales con n
incógnitas.
Analizando el sistema resultante, podemos efectuar su discusión del siguiente
modo:
Si alguna de las ecuaciones es del tipo 0 = b (siendo b distinto de cero), el
sistema es incompatible y no tiene solución.
Si no hay ecuaciones del tipo 0 = b, y además k = n, es decir, el número de
ecuaciones del sistema equivalente es igual al número de incógnitas, el
sistema es compatible determinado y, por lo tanto, tiene una única solución.
Si no hay ecuaciones del tipo 0 = b y k < n, es decir, el número de ecuaciones
es menor que el número de incógnitas, el sistema es compatible
indeterminado y, en consecuencia, tiene infinitas soluciones. En este caso,
tenemos que separar las incógnitas principales de las no principales.
Pero, ¿cuáles son las incógnitas principales? Se puede dar el siguiente
criterio: Si el sistema es escalonado y tiene k ecuaciones, las k primeras
incógnitas serán las principales y las n - k restantes serán las no principales
que pasaremos al segundo miembro como parámetros.

MÉTODO DE RESOLUCIÓN DE CRAMER. REGLA DE CRAMER


La regla de Cramer utiliza las propiedades de las matrices y sus determinantes
para despejar, por separado, una cualquiera de las incógnitas de un sistema
de ecuaciones lineales.
REGLA DE CRAMER
Un sistema de ecuaciones lineales recibe el nombre de sistema de Cramer
cuando se cumplen las dos condiciones siguientes:
El número de ecuaciones es igual al número de incógnitas.
El determinante de la matriz de los coeficientes (matriz del sistema) es distinto
de cero (det ( A ) ≠ 0)
Un sistema de Cramer es, por definición, compatible determinado, puesto que
se cumple que rango (A) = rango (A*) = n (nº de incógnitas).
Consideremos un sistema de Cramer, es decir, un sistema de n ecuaciones
lineales con n incógnitas, cuya expresión general es la siguiente:

Llamaremos matriz asociada a la incógnita xi y la designaremos por Ai a la matriz


que se obtiene al sustituir en la matriz del sistema la columna i por la matriz
columna de los términos independientes. Es decir:

Todos los sistemas de Cramer son compatibles determinados. El valor de cada


incógnita se obtiene dividiendo el determinante de la matriz asociada a dicha
incógnita por la matriz del sistema (matriz de los coeficientes de las incógnitas).
¿Se puede aplicar la regla de Cramer para resolver sistemas de ecuaciones
lineales compatibles que tengan más ecuaciones que incógnitas? La respuesta es
afirmativa. Basta con obtener un sistema equivalente al inicial eliminando las
ecuaciones superfluas o dependientes (proporcionales, nulas o que sean
combinación lineal de otras).
El procedimiento a seguir es el siguiente: Supongamos que tenemos un sistema
de m ecuaciones lineales con n incógnitas, siendo m > n y tal que: rango (A) =
rango (A*) = n. Por lo tanto, sobran m - n ecuaciones. Para averiguar cuáles son
las ecuaciones de las que podemos prescindir, basta encontrar en la matriz de los
coeficientes ( A ) un menor de orden n distinto de cero, por ejemplo, el que
utilizamos para averiguar el rango de la matriz A.
Las filas que intervienen en este menor son las que corresponden a las
ecuaciones principales. Las restantes ecuaciones las podemos suprimir.
Ejemplo:
Sea el sistema de ecuaciones lineales formado por dos ecuaciones con dos
incógnitas:

Encontrar el valor de x e y mediante la regla de Cramer.


Empezaremos con el primer paso, que consiste en hallar la matriz ampliada A b
asociada al sistema de ecuaciones lineales:

El segundo paso es calcular el determinante de A. Así pues:

Y el tercero y último paso consiste en calcular las incógnitas:

MÉTODO DE LA MATRIZ INVERSA


Consideremos un sistema de n ecuaciones lineales con n incógnitas, cuya
expresión general es la siguiente:

Hemos visto que este sistema se puede escribir en forma matricial del siguiente
modo: A X = B.
La matriz A se llama matriz del sistema, es de dimensión n x n y sus elementos
son los coeficientes de las incógnitas.

La matriz X es una matriz columna, de dimensión n x 1, formada por las incógnitas


del sistema. Por último, la matriz B es otra matriz columna, de dimensión n x 1,
formada por los términos independientes. Es decir:
Si el determinante de la matriz A es distinto de cero (det (A) ≠ 0 ), la matriz A tiene
inversa ( A-1 ). Por lo tanto, podemos calcular la matriz de las incógnitas X del
siguiente modo:

Es decir, para calcular la matriz columna de las incógnitas ( X ), multiplicamos la


inversa de la matriz A ( A-1 ) por la matriz columna de los términos
independientes, obteniéndose otra matriz columna de la misma dimensión que X.
¿Se puede aplicar el método de la matriz inversa para resolver sistemas de
ecuaciones lineales compatibles que tengan más ecuaciones que incógnitas? La
respuesta es afirmativa. Basta con obtener un sistema equivalente al inicial
eliminando las ecuaciones superfluas o dependientes (proporcionales, nulas o que
sean combinación lineal de otras).
El procedimiento a seguir es el siguiente: Supongamos que tenemos un sistema
de m ecuaciones lineales con n incógnitas, siendo m > n y tal que: rango (A) =
rango (A*) = n. Por lo tanto, sobran m - n ecuaciones. Para averiguar cuáles son
las ecuaciones de las que podemos prescindir, basta encontrar en la matriz de los
coeficientes ( A ) un menor de orden n distinto de cero, por ejemplo, el que
utilizamos para averiguar el rango de la matriz A. Las filas que intervienen en este
menor son las que corresponden a las ecuaciones principales. Las restantes
ecuaciones las podemos suprimir.
¿Se puede aplicar el método de la matriz inversa para resolver sistemas de
ecuaciones lineales compatibles indeterminados? La respuesta es también
afirmativa. El procedimiento a seguir es el siguiente: Supongamos que tenemos un
sistema de m ecuaciones lineales con n incógnitas, tal que: rango (A) = rango (A*)
= k < n. Por lo tanto, sobran m - k ecuaciones y, además, hay n - k incógnitas no
principales. Para averiguar cuáles son las ecuaciones de las que podemos
prescindir, y cuáles son las incógnitas no principales, basta encontrar en la matriz
de los coeficientes ( A ) un menor de orden k distinto de cero, por ejemplo, el que
utilizamos para averiguar el rango de la matriz A. Las filas que intervienen en este
menor son las que corresponden a las ecuaciones principales o independientes.
Las restantes ecuaciones las podemos suprimir. Las columnas que figuran en
dicho menor corresponden a las incógnitas principales
3.5 APLICACIONES

Las matrices son utilizadas en aplicaciones de gráficos de geometría, física e


informática. La matriz de las cantidades o expresiones definidas por filas y
columnas; tratados como un solo elemento y manipulados de acuerdo con las
reglas. Cálculos de matriz pueden entenderse como un conjunto de herramientas
que incluye el estudio de métodos y procedimientos utilizados para recoger,
clasificar y analizar datos. En muchas aplicaciones es necesario calcular la matriz
inversa donde esta calculadora en línea matriz inversa puede ayudarle a sin
esfuerzo facilitan sus cálculos para las respectivas entradas.
En casos simples, es relativamente fácil resolver una ecuación siempre y cuando
se satisfagan ciertas condiciones. Sin embargo, en casos más complicados, es
difícil o engorroso obtener expresiones simbólicas para las soluciones, y por ello a
veces se utilizan soluciones numéricas aproximadas.
Ejemplos de la aplicación de un método de solución de sistemas de ecuaciones:
1.- En una empresa se fabrica un producto que tiene costo variable de $5 por
unidad y costo fijo de $80,000. Cada unidad tiene un precio de venta de $12.
Determine el número de unidades que deben venderse para que la compañía
obtenga utilidades de $60,000.
Solución: Costo = 5u + 80,000. Venta = 12. Utilidades = 60,000.

Entonces: C = 5u + 80,000. V = 12u. U = 60,000.


U=V-C 60,000 = 12u - (5U+80000) 60,000 = 12u - 5u - 80,000 60,000 +
80,000 = 7u 140,000 = 7u 140,000/7 = u 20,000 = u
Al obtener nuestro coeficiente pasamos a sustituirlo:
C = 5(20,000) + 80,000 = 180,000.
V = 12(20,000) = 240,000.
U = 240,000 - 180,000 = 60,000.
Al terminar nos damos cuenta que por este método de sustitución e igualación se
puede llegar al resultado.
2.- La empresa “Organicomputer”, fabrica tres modelos de computadoras
personales: cañón, clon, y lenta_pero_segura. Para armar una computadora
modelo cañón necesita 12 horas de ensamblado, 2.5 para probarla, y 2 más para
instalar sus programas. Para una clon requiere 10 horas de ensamblado, 2 para
probarla, y 2 para instalar programas. Y por último, para una lenta_pero_segura
requiere 6 para ensamblado, 1.5 para probarla, y 1.5 para instalar programas. Si la
fábrica dispone en horas por mes de 556 para ensamble, 120 para pruebas, y 103
horas para instalación de programas, ¿cuántas computadoras se pueden producir
por mes?
Solución
En nuestro caso las incógnitas es el número de cada tipo de computadora a
producir:
x = número de computadoras cañón
y = número de computadoras clon
z = número de computadoras lenta_pero_segura
Para determinar las ecuaciones debemos utilizar los tiempos de ensamblado
pruebas, e instalación de programas

En esta ocasión se resolverá por Cramer, pero se puede utilizar cualquiera de los
métodos (Gauss, Gauss Jordán, Usando la inversa), el resultado debe ser el
mismo.
X = |Δ1|/|A| = -51/-1.5 = 34
Y = |Δ2|/|A| = -6/-1.5 = 4
Z = |Δ3|/|A| = -27/-1.5 = 18
Al resolver este sistema obtenemos:
X = 34, Y = 4, Z = 18
34 computadoras Cañón.
4 computadoras Clones.
18 computadoras lentas pero seguras.
4.1 DEFINICION DE UN ESPACIO VECTORIAL

Espacio vectorial real.


Un espacio vectorial real V es un conjunto de objetos, denominados vectores,
junto con dos operaciones binarias llamadas suma y multiplicación por un escalar
y que satisfacen los diez axiomas enumerados a continuación.
Notación. Si “x” y “y” están en V y si a es un número real, entonces la suma se
escribe como
“x + y” y el producto escalar de a y x como ax.
Antes de presentar la lista de las propiedades que satisfacen los vectores en un
espacio vectorial deben mencionarse dos asuntos de importancia. En primer lugar,
mientras que puede ser útil pensar en R2 o R3 al manejar un espacio vectorial,
con frecuencia ocurre que el espacio vectorial parece ser muy diferente a estos
cómodos espacios (en breve tocaremos este tema). En segunda instancia, la
definición 1 ofrece una definición de un espacio vectorial real. La palabra “real”
significa que los escalares que se usan son números reales. Sería igualmente
sencillo definir un espacio vectorial complejo utilizando números complejos en
lugar de reales. Este libro está dedicado principalmente a espacios vectoriales
reales, pero las generalizaciones a otros conjuntos de escalares presentan muy
poca dificultad. [1]
Axiomas de un espacio vectorial. [1]
1- Si X pertenece a V y Y pertenece a V, entonces X+Y pertenece a V.
2- Para todo X, Y y Z en V, (x+y)+z = x(y+z).
3- Existe un vector |0 pertenece V tal que para todo X pertenece a V,
X+0=0+X=X.
4- Si x pertenece a V, existe un vector –x en V tal que x+(-x)=0.
5- Si X y Y están en V, entonces x+y=y+x.
6- Si x pertenece a V y a es un escalar, entonces ax pertenece a V.
7- Si X y Y están en V y a es un ecalar, entonces a(x+y)= ax + ay
8- Si X pertenece a V y a y b son escalares, entonces (a+b) x = ax+ by.
9- Si X pertenece a V y a y b son escalares, entonces a(bx) = (ab)x.
10- Para cada vector X pertenece a V, 1x = x
4.2 DEFINICION DE UN SUB ESPACIO VECTORIAL
Y SUS PROPIEDADES

Sea H un subconjunto no vacío de un espacio vectorial V y suponga que H es en


sí un espacio vectorial bajo las operaciones de suma y multiplicación por un
escalar definidas en V. Entonces se dice que H es un sub espacio de V.
Existen múltiples ejemplos de sub espacio, sin embargo, en primer lugar, se
demostrará un resultado que hace relativamente sencillo determinar si un
subconjunto de V es en realidad sub espacio de V
Teorema de sub espacio
Un subconjunto no vacío de H de un espacio vectorial V es un sub espacio de V si
se cumplen las dos reglas de cerradura:
Reglas de cerradura para ver si un subconjunto no vació es un sub espacio
i) Si x € H y y € H, entonces x + y € H.

ii) Si x € H, entonces αx € H para todo escalar α.


Es obvio que si H es un espacio vectorial, entonces las dos reglas de cerradura se
deberán cumplir. De lo contrario, para demostrar que es un espacio vectorial, se
deberá demostrar que los axiomas i) a x) de la definición cumplen bajo las
operaciones de suma de vectores y multiplicación por un escalar definidas en V.
Las dos operaciones de cerradura [axiomas i) y iv)] se cumplen por hipótesis,
como los vectores en H son también vectores en V, las identidades asociativa,
conmutativa, distributiva y multiplicativa [axiomas ii), v), vii), viii), ix) y x)] se
cumplen.
Este teorema demuestra que para probar si H es o no es un sub espacio de V, es
suficiente verificar que:
x + y y αX están en H cuando x y y están en H y α es un escalar.

PROPIEDADES DE SUB ESPACIO VECTORIAL


1). El vector cero de V está en H.2
2). H es cerrado bajo la suma de vectores. Esto es, para cada u y v en
H, la suma u + v está en H.
3). H es cerrado bajo la multiplicación por escalares. Esto es, para cada
u en H y cada escalar c, el vector cu está en H.
Ejemplo: sean U y W subespacios de un espacio vectorial V. probemos que la
intersección UÇW es también subespacio de V. claramente, 0ÎU y 0ÎW, porque U y
W son subespacios, de donde 0ÎUÇW. supongamos ahora que u, vÎUÇW.
entonces u, vÎU y u, vÎE y, dado que U y W son subespacios, u+v, kuÎU y u+v,
kuÎW para cualquier escalar k. así u+v, kuÎUÇW y por consiguiente UÇW es un
subespacio de V. El resultado del ejemplo precedente se generaliza como sigue.
Teorema: la intersección de cualquier número de subespacios de un espacio
vectorial V es un subespacio de V.
Recuérdese que toda solución de un sistema de ecuaciones lineales con n
incógnitas AX=B puede verse como un punto en Kn y por tanto el conjunto
solución de tal sistema es un subconjunto de Kn. Supongamos que el sistema
homogéneo, es decir, supongamos que el sistema tiene la forma AX=0.
Denotemos por W su conjunto solución. Como A0=0, el vector cero 0ÎW además,
si u y v pertenecen a W, esto es, si u y v son soluciones de AX=0, necesariamente
Au=0 y Av=0. Por esta razón, para todo par de escalares a y b en K, tendremos
A(au+bv)=aAu+bAv=a0+b0=0+0=0. De esta manera, au + bv es también una
solución de AX=0 o, dicho de otro modo, au+bvÎW. En consecuencia, según el
corolario, hemos demostrado:
Teorema: el conjunto solución W de un sistema homogéneo con n incógnitas
AX=0 es un subespacio de kn.
Hacemos énfasis en que el conjunto solución de un sistema inhomogéneo AX=B
no es subespacio de Kn. De hecho, el vector cero, 0, no pertenece a dicho
conjunto solución.
4.3 CONVINACION LINEAL, INDEPENDENCIA
LINEAL

Una combinación lineal de dos o más vectores es el vector que se obtiene al


sumar esos vectores multiplicados por escalares.
Cualquier vector se puede poner como combinación lineal de otros que tengan
distinta dirección.
Esta combinación lineal es única.
Sean v1,v2,…,vn vectores en un espacio vectorial V. Entonces cualquier vector de
la forma:
α1v1+α2v2+…+αnvn
donde α1v1+α2v2+…+αnvn son escalares se denomina combinación lineal de
v1,v2,…,vn.
Todo vector V = (a, b, c) en R3 se puede expresar como
i = (1,0,0);
j = (0,1,0);
k =(0,0,1)
V = (a, b, c) = a(i) + b(j) + c(k)
Entonces se dice que V es una combinación lineal de los 3 vectores i,j,k.
Dependencia e Independencia lineal
Los vectores son linealmente independientes si tienen distinta dirección y sus
componentes no son proporcionales.
Un conjunto de vectores {v1,v2,…,vk} es un espacio vectorial V es linealmente
dependiente si existen escalares c1,c2,…,ck, al menos uno de los cuales no es
cero, tales que:
c1v1+c2v2+…+ckvk=0
Si los vectores no son linealmente dependientes, se dice que son linealmente
independientes.

Criterios de Independencia Lineal


Sean u1, u2, …,uk k vectores en Rn y A la matriz que tiene como columnas a
estos vectores, los vectores son linealmente independientes si el sistema Ax = 0
tiene únicamente solución trivial.
Los vectores son linealmente dependientes si el sistema Ax=0 tiene soluciones no
triviales (solución múltiple).
Si k=n
Los vectores son linealmente independientes si A es invertible
Si k>n
Los vectores son linealmente dependientes.
Dos vectores en un espacio vectorial son linealmente dependientes si uno de ellos
es múltiplo escalar del otro.
Un conjunto de vectores linealmente independientes en n contiene a lo más n
vectores.
Tres vectores en 3 son linealmente dependientes si y sólo si son coplanares, esto
es, que están en un mismo plano.
Teoremas

Cualquier conjunto que contenga al vector 0 es linealmente dependiente.


Cualquier conjunto que contenga un único vector diferente de cero, v ≠0, es
linealmente independiente.
Cualquier conjunto formado por dos vectores diferentes de cero, S = {v1, v2},
donde v1 ≠ 0, v2 ≠ 0, es linealmente dependiente si, y sólo si, uno de los vectores
es múltiplo escalar del otro.
Cualquier conjunto que contenga un subconjunto linealmente dependiente es
linealmente dependiente.
Cualquier subconjunto de un conjunto linealmente independiente es linealmente
Independiente.

4.4 BASE Y DIMENSION DE UN ESPACIO


VECTORIAL, CAMBIO DE BASE

Se ha visto en R2 conviene escribir vectores como una combinación lineal de los


vectores

. En R3 se escribieron los vectores en términos de:

Ahora se generalizara esta idea. Basándose en un conjunto finito de vectores

Es una base para un espacio vectorial V si:

Todo conjunto de n vectores linealmente independiente en Rn es una base en Rn


En Rn se define:
Puesto que los vectores e, son las columnas d una matriz identidad (que tiene
determinante 1),

Es un conjunto linealmente independiente y, por lo tanto, constituye una base en


Rn. Esta base especial se denomina base canónica en Rn. Ahora se encontraran
bases para otros espacios.
Unicidad representación de la base
Si S = {v1, v2,…, vn} es una base de un espacio vectorial V, entonces todo vector
en V puede escribirse de una y solo una forma como combinación lineal de
vectores en S.
Para demostrar la unicidad (que en un vector dado puede representarse sólo de
una manera), se supone que u tiene otra representación u= b1v1 + b2v2+…+bnvn.
Al restar la segunda representación de la primera se obtiene:

u-u = (c1-b1)v1 + (c2-b2)v2 +… + (cn-bn)vn = 0.


Sin embargo como S es linealmente independiente, entonces la única solución de
esta ecuación es la trivial,
c1-b1=0 c2-b2=0, …, cn-bn=0.
Ejemplo: Unicidad de la Representación de la Base
Sea u = (u1, u2, u3) cualquier vector en R3. Demuestre que la ecuación u= c1v1+
c2v2 + c3v3 tiene solución única para la base S= {v1, v2, v3}= {(1,2,3),(0,1,2), (-
2,0,1).
Solución: Con base en la ecuación
(u1, u2, u3)= c1(1,2,3) + c2(0,1,2)+c3(-2,0,1)
= (c1-2c, 2c1 + c2, 3c1 + 2c2 + c3),
Se obtiene el siguiente sistema de ecuaciones
C1 -2c3= u1

2C1 + C2 = u2

3C1 + 2C2 + C3= u3

4.5 ESPACIO VECTORIAL CON PRODUCTO


INTERNO Y SUS PROPIEDADES

Producto Interno:

Un producto interno sobre un espacio vectorial V es una operación que asigna a


cada par de vectores u y v en V un número real <u, v>.
Un producto interior sobre V es una función que asocia un número real ‹u, v› con
cada par de vectores u y v cumple los siguientes axiomas:
Propiedades:
i. (v, v) ≥ 0

ii. (v, v) = 0 si y sólo si v = 0.

iii, (u, v +w) = (u, v)+ (u, w)

iv. (u + v, w) = (u, w)+(v, w)

v. (u, v) = (v, u)

vi. (αu, v) = α(u, v)


vii. (u, αv) = α(u, v)

Espacios con producto interior:


El producto interior euclidiano es solo uno más de los productos internos que se
tiene que definir en Rn Para distinguir entre el producto interno normal y otros
posibles productos internos se usa la siguiente notación.
u ●v = producto punto (producto interior euclidiano para Rn)
‹u, v› = producto interno general para espacio vectorial V.

Propiedades de los productos interiores:

1. ‹0, v› = ‹v, 0› = 0

2. ‹u + v, w› = ‹u, w› + ‹v, w›

3. ‹u, cv› = c‹u, v›.

Un espacio vectorial con producto interno se denomina espacio con producto


interno.
4.6 BASE ORTONORMAL, PROCESO DE
ORTONORMALIZACION

Conjunto ortonormal en Rn
Se dice que un conjunto de vectores S={u1, u2, …, uk} en Rn es un conjunto
ortonormal si (1) (2)

Si solo satisface la ecuación (1), se dice que el conjunto es ortogonal.


Si u, v y w en Rn y α es un número real, entonces (3) (4) (5) (6)(7)

Proceso de ortonormalizacion de Gram-Schmidt


Sea H un subespacio de dimensión m de Rn. Entonces H tiene una base
ortonormal.
Sea S=

Una base de H. se probara el teorema construyendo una base ortonormal a partir


de vectores en S. antes de dar los pasios para esta construccion, se observa el
hecho sencillo de que un conjunto de vectores linealmente independiente no
contiene al vector cero.
Paso 1. Elección del primer vector unitario
Sea (12)

Entonces:

De manera que |u|=1.


Paso 2. Elección de un segundo vector ortogonal a u
Como anteriormente se ha visto que, en R2, el vector:

es la ortogonal a v. en este caso

es la proyección de u sobre v. esto se ilustra en la siguiente figura.


5.1 DEFINICION DE LAS TRANSFORMACIONES
LINEALES

Ocurren con mucha frecuencia en el álgebra lineal y otras ramas de las


matemáticas. Estas tienen una gran variedad de aplicaciones importantes. Antes
de definirlas, se estudiaran dos ejemplos sencillos para ver lo que es posible
realizar.
Ejemplo 1: reflexión respecto al eje x
En R2 se define una función T mediante la fórmula T(x;y)=(x;-y).
Geométricamente, T toma un vector en R2 y lo refleja respecto al eje x. esto se
ilustra en la figura. Una vez que se ha dado la definición básica, se verá que T es
una transformación lineal de R2 en R2.
Ejemplo 2: transformación de un vector de producción en un vector de materia
prima.
Un fabricante elabora cuatro tipos de productos distintos, de los cuales cada uno
requiere tres tipos de materiales. Se identifican los cuatro productos como P1, P2,
P3, y P4 y a los materiales por R1, R2 y R3. La tabla siguiente muestra el numero
de unidades de cada materia prima que se requieren para fabricar 1 unidad de
cada producto.
Ejemplo 2: transformación de un vector de producción en un vector de materia
prima.
Un fabricante elabora cuatro tipos de productos distintos, de los cuales cada uno
requiere tres tipos de materiales. Se identifican los cuatro productos como P1, P2,
P3, y P4 y a los materiales por R1, R2 y R3. La tabla siguiente muestra el numero
de unidades de cada materia prima que se requieren para fabricar 1 unidad de
cada producto.

Surge una pregunta natural: si se produce cierto número de los cuatro productos,
¿Cuántas unidades de cada material se necesitan? Sean p1, p2, p3 y p4 el
número de artículos fabricados en los cuatro productos y sean r1, r2, y r3 el
número de unidades necesarios de los tres materiales. Entonces se define
Por ejemplo, suponga que P=(10,30,20,50). ¿Cuántas unidades de R1 se
necesitan para producir estos números de unidades de los cuatro productos? De
la tabla se tiene que
r=p1*2+p2*1+p3*3+p4*4=10*2+30*1+20*3+50*4=310 unidades
de manera similar r2=10*4+30*2+20*2+50*1=190 unidades
y r3=10*3+30*3+20*1+50*2=240 unidades
en general se ve que

o Ap= r.
Esto se puede ver de otra manera. Si a p se le conoce como le vector de
producción y a r como el vector de materia prima, se define la función T por = T(p)
= Ap. Esto es, T es la función que “transforma” el vector de producción en el vector
de materia prima y se hace mediante la multiplicación de matrices ordinaria.
Como se verá , esta función es también una transformación lineal.
Antes de definir una transformación lineal, hablaremos un poco sobre las
funciones. En la sección 1.7 se escribió un sistema de ecuaciones como
Ax=b
Donde A es una matriz de m*n, x R” y b R”. Se pidió encontrar x cuando A y b se
conocían. No obstante, esta ecuación se puede ver de otra forma: suponga que A
se conoce. Entonces la ecuación Ax=b “dice” : proporcione una x en R´´ y yo le
daré una b en R´´´; es decir , A representa una función con dominio R´´ e imagen
en R´´´.
La función que se acaba de definir tiene las propiedades de que A ( si es un
escalar y A(x + y) = Ax + Ay. Esta propiedad caracteriza las transformaciones
lineales.
Definición 1 transformación lineal
Sean V y W espacios vectoriales reales. Una transformación lineal T de V en W es
una función que asigna a cada vector v V un vector único Tv W y que satisface,
para cada u y v en V y cada escalar.
5.2 NUCLEO E IMAGEN DE UNA
TRASNFORMACION LINEAL

Teorema 1. Sea T: V W una transformación lineal. Entonces para todos los


vectores u, v, v1, v2,….vn en V y todos los escalares

Nota en la parte i el 0 de la izquierda es el vector cero en v; mientras que el cero


de la derecha es el vector cero en W.
i. T(0) = T(0 + 0)= T(0) + T(0). Así 0= T(0) – T(0) = T(0) + t(0) – T(0) = T(0)
ii.T(u-v) = T[u + (-1)v] = Tu + T[(-1)v] = Tu + (-1)Tv = Tu – Tv.
iii.Esta parte se prueba por inducción (vea el apéndice 1). Para n = 2 se tiene
T(α1v1 + α2v2) = T (α1v1) + T(α2v2) = α1Tv1 + α2Tv2. Así, la ecuación (1) se
cumple para n = 2. Se supone que se cumple para n = k y se prueba para n=k + 1:
T(α1v1 + α2v2+ ….+ αkvk+αk+1vk-1 ) = T(α1v1 + α2v2+….+αkvk) + T(αk+1vk+1),
y usando la ecuación en la parte iii para n= k, esto es igual a (α1Tv1 + α2Tv2+
….αkTvk) + αk+1Tvk+1, que es lo que se quería demostrar. Esto completa la
prueba.
Observación. Los incisos i) y ii) del teorema 1 son casos especiales del inciso iii).
Un dato importante sobre las transformaciones lineales es que están
completamente determinadas por el efecto sobre los vectores de la base.
Teorema 2 Sea v un espacio vectorial de dimensión finita con base B= {v1,v2,
….vn}. Sean w1,w2,….wn vectores en W. Suponga que T1 y T2 son dos
transformaciones lineales de V en W tales que T1vi = T2vi = wi para i = 1, 2,…,n.
Entonces para cualquier vector v ϵ v, T 1v = T2v; es decir T1 = T2.
Como B es una base para V, existe un conjunto único de escalares α1, α2,…., αn.
Tales que v = α1v1 + α2v2 + …+ αn vn.
Entonces, del inciso iii) del teorema 1, T1v = T1(α1 v1 + α2v2 + …+ αnvn) =
α1T2v1 + α2T2v2 +… + αnTnvn= α1w1 + α2w2 +…+ αnTnvn

De manera similar T2v = T2(α1v1 + α2v2 + …+ αnvn) = α1T2v1 + α2T2v2 +…+


αnTnvn = α1w1 + α2w2 +…+ αnvn
Por lo tanto, T1v =T2v.
El teorema 2 indica que si T:v W y V tiene dimensión finita, entonces sólo es
necesario conocer el efecto que tiene T sobre los vectores de la base en V. Esto
es, si se conoce la imagen de cada vector básico, se puede determinar la imagen
de cualquier vector en V. Esto determina T por completo. Para ver esto, sean v1,
v2,….vn una base en V y sea v otro vector en V. Entonces, igual que en l aprueba
del teorema 2, Tv = α1Tv1 + α2Tv2 +…+ αnTvn
Así, se puede calcular Tv para cualquier vector vϵ V si se conocen Tv1,Tv2,….Tvn
Ejemplo: Si se conoce el efecto de una transformación lineal sobre los vectores de
la base, se conoce el efecto sobre cualquier otro vector.
Sea T una transformación lineal de R3 en R2 y suponga que

Solución. Se tiene
Entonces:

Surge otra pregunta; si w1,w2,….,wn son n vectores en W, ¿existe una


transformación lineal T tal que Tv1 = w1 para i = 1,2,…,n? La respuesta es sí.
Como lo muestra el siguiente teorema.
Definición 1 Núcleo e imagen de una transformación lineal
Sean V y W dos espacios vectoriales y sea T:V W una transformación lineal.
Entonces

. El núcleo de T, denotado por un, está dado por

La imagen de T, denotado por Im T, esta dado por


Observacion 1. Observe que un T es no vacio porque, de acuerdo al teorema 1,
T(0) = 0 de manera que 0 ϵ un T para cualquier transformación lineal T. Se tiene
interés en encontrar otros vectores en V que “se transformen en 0”. De nuevo,
observe que cuando escribimos T(0) = 0, el 0 de la izquierda está en V y el de la
derecha en W

5.3 LA MATRIZ DE UNA TRANSFORMACION


LINEAL

Si A es una matriz de m*n y T: Rn-Rm está definida por Tx = Ax, entonces, T es


una transformación lineal. Ahora se verá que para toda transformación lineal de
Rn en Rm existe una matriz A de m*n tal que Tx = Ax para todo x ϵ Rn. Este hecho
es de gran utilidad. Si Tx = Ax. Entonces un T = NA e Im T = RA. más aun, v(T) =
dim un T = v(A) y p(T) = dim Im T = p(A). Así se puede determinar el núcleo, la
imagen, la nulidad y el rango de una transformación lineal de Rn-Rm
determinando el espacio nulo y la imagen de la matriz correspondiente.
Adicionalmente, una vez que se sabe que Tx = Ax. Se puede evaluar Tx para
cualquier x en Rn mediante una simple multiplicación de matrices.
Pero esto no es todo. Como se verá, cualquier transformación lineal entre
espacios vectoriales de dimensión finita se puede representar mediante una
matriz.
Teorema 1
Sea T:Rn -Rm una transformación lineal. Existe entonces una matriz única de m*n,
AT tal que
Demostración
Sea w1 = Te1,w2 = Te2,….,wn = Ten. Sea AT la matriz cuyas columnas son w1,
w2,…., wn y hagamos que AT denote también ala transformación de Rn-Rm, que
multiplica un vector en Rn por AT. Si

Entonces:

De esta forma, ATei = wi para i = 1,2,….n., T y la transformación AT son las


mismas porque coinciden en los vectores básicos.
Ahora se puede demostrar que AT es única. Suponga que Tx = ATx y que Tx =
BTx para todo x ϵ Rn. Entonces ATx = BTx, o estableciendo CT= AT – BT, se tiene
que CTx = 0 para todo x ϵ Rn. En particular, CTei es la columna i de CT. Así, cada
una de las n columnas de CT es el m-vector cero, la matriz cero de m*n. Esto
muestra que AT = BT y el teorema queda demostrado.
Definición 1 Matriz de transformación
La matriz AT en el teorema 1 se denomina matriz de transformación
correspondiente a T o representación matricial de T.
NOTA. La matriz de transformación AT está definida usando las bases estándar
tanto en Rn como en R3. Si se utilizan otras bases, se obtendrá una matriz de
transformación diferente.
TEOREMA 2 sea AT la matriz de transformación correspondiente a laa
transformación lineal T. entonces.
i. Im T = Im A = CAT
ii. P(T) = p(AT)
iii. Un T = NAT
iv. v(T) = v(AT
Ejemplo Representación matricial de una transformación de proyección
Encuentre la matriz de transformación AT correspondiente ala proyección de un
vector en R3 sobre el plano xy.
Solución

Teorema 4
Sean V y W espacios vectoriales de dimensión finita con dim V = n. sea T:V-W una
transformación lineal y sea AT una representación matricial de T respecto a las
bases B1 en V y B2 en W. entonces
i. p(T) =p(AT) ii. V(A) = v(AT) iii. V(a) + p(T) = n

Teorema 5 Sea T:Rn-Rm una transformación lineal. Suponga que C es la matriz


de transformación de T respecto a las bases estándar Sn y Sm en Rn y Rm,
respectivamente. Sea A1 la matriz de transición de B2 a base Sm en Rm. Si AT
denota la matriz de transformación de T respecto a las bases B1 y B2, entonces.
5.4 APLICACIÓN DE LAS TRANSFORMACIONES
LINEALES EN LA REFLEXION Y DILATACION
Reflexión sobre el eje x
En este caso, queremos averiguar cómo está definida la transformación T de R2
en R2 que cada vector

Lo refleja sobre el eje x, para obtener un vector

En una gráfica, vemos la situación como sigue:


En este caso, la situación es más sencilla ya que claramente tenemos dos
triángulos rectángulos que son congruentes, de donde T queda definida como
sigue:

Esta transformación se llama la reflexión sobre el eje x, y es lineal, ya que:

Ejemplo dilatación o expansión


Una dilatación es una transformación que incrementa distancias.
Sea V= (2 4) encontrara la expansión vertical cuando K=2
Expansión horizontal (k71) o contracción (0<k<1)
Expansión vertical (k71) o contracción (0<k<1)
Ejemplo contracción
Una contracción es una transformación que decrece distancias. Bajo una
contracción, cualquier par de puntos es enviado a otro par a distancia
estrictamente menor que la original.
Sea V= (2 4) encontrara la contracción horizontal cuando K=1/2
Haciendo la gráfica el punto disminuye en el eje horizontal.

También podría gustarte