Está en la página 1de 12

AYUDA MEMORIA DE ESPACIOS VECTORIALES EN Rn

Dr. Rolando Morales Anaya. Junio 2010

1. Introduccin
Esta Ayuda Memoria trata de operaciones que se pueden hacer en conjuntos de n-uplas de
nmeros reales. Estos conjuntos se escriben E=Rn . Cada elemento de este conjunto est
conformado por n nmeros reales; por ejemplo, si n=3, x={2,1,4} es un elemento de R3.
Por convencin, se escribe estos elementos en forma de una lista vertical de nmeros. Por
ejemplo:

2
1
4

Tambin por convencin, estos elementos son llamados vectores en Rn.


Vectores especiales:
Vector uno: se trata de un vector cuyas componentes son todas iguales a 1.
Vector cero: se trata de un vector cuyas componentes son todas iguales a 0.
Vector unidad j: se trata de un vector cuyas componentes son iguales a cero, salvo la jisima que es igual a 1.
Vector unitario: se trata de un vector cuya suma de elementos al cuadrado es igual a 1.

2. Operaciones con vectores


Las operaciones bsicas entre vectores son la suma y la multiplicacin por un nmero.
Ambas estn definidas a partir de operaciones realizadas individualmente en cada una de
las componentes de los vectores.

2.1 Suma
1
2
3

2
2
6

3
0
9

2.2 Multiplicacin por un nmero (llamado tambin escalar)


1
5 2
3

5
10
15

2.3 Combinacin lineal


Una combinacin lineal de un conjunto de vectores es un nuevo vector obtenido por sumas
y multiplicaciones por escalares de los vectores contenidos en ese conjunto. Por ejemplo, el
vector y=a1x1+a2x2 donde x1 y x2 son vectores en Rn y a1, a2 son dos nmeros (o escalares)
es una combinacin lineal de los vectores x1, x2. El vector siguiente es una combinacin
lineal de los dos vectores de los cuales es funcin
1
4 2
3

2
3

2
6

10
2
18

2.4 Dependencia e independencia lineal


Sea E=[x1, x2,...xm] un conjunto de vectores en Rn.
Si ninguno de estos vectores puede expresarse como combinacin lineal de los otros,
entonces se dice que estos vectores son linealmente independientes (se abrevia LIN).
Si alguno de ellos puede expresarse como combinacin lineal de los otros, entonces estos
vectores no son LIN.
Al interior de un conjunto de m-vectores puede que el nmero mximo de vectores LIN sea
r. Ello significa que el resto de los vectores son combinaciones lineales de ellos.
Ejemplos
Vectores linealmente independientes

1
0
4
2
2
0
....
......
0
1
2
3
3
5

Obsrvese que si los vectores son lienealmente independientes, una relacin del tipo:
1x1+ 2x2 + 3x3 = 0 implica 1= 2= 3=0
Vectores linealmente dependientes

1
0
2
2
2
6
.... ....
0
1
1
3
3
9
Si los vectores son linealmente dependientes, una relacin del tipo 1x1+ 2x2 + 3x3 = 0
puede darse sin que todos los i sean simultneamente iguales a cero.

3. (Sub-) Espacio vectorial en Rn


Un (sub)-espacio vectorial asociado al conjunto de vectores E=[x1, x2,...xm] es (por
definicin) el conjunto de combinaciones lineales que se puede realizar con los vectores
que pertenecen a E. Se dice que E es el conjunto generador de ese espacio que (sin
limitacin alguna) se lo llamara V (u otra cosa).
En frmulas, puede escribirse:
V = {v / v= a1x1 +a2x2,..+.amxm para todos los valores posibles de los aj, j=1,m }
Acorde con la definicin todo espacio vectorial contiene el vector cero.
La dimensin del espacio vectorial es igual (por definicin) al nmero mximo de vectores
LIN en E (o, en forma equivalente, en V).
Si un conjunto E=[x1, x2,...xm] o un conjunto generado por E no contiene todas sus
combinaciones lineales no es un espacio vectorial.

4. Representacin grfica
Los vectores en Rn son puntos en un espacio n-dimensional.
Los espacios vectoriales son lneas en R1, planos en R2 , hiperplanos en Rn que pasan por el
origen.

5. Producto escalar, distancias, normas y ngulos


5.1 Producto escalar
Sea V un espacio vectorial en Rn . La aplicacin VxV en R definida de la siguiente manera:
xy = x1y1 + x2y2 +...xnyn
es llamada producto escalar clsico. (con frecuencia se omite el adjetivo clsico)

5.2 Norma
La norma de un vector x en Rn es igual a la raz cuadrada del producto escalar por s mismo
y se escribe (con frecuencia) de la siguiente manera:
|x| = xx
Desde el punto de vista de la interpretacin geomtrica, la norma corresponde a la distancia
entre el punto que representa al vector x y el origen (o vector cero). Para convencerse de
esto es suficiente utilizar el teorema de Pitgoras.

5.3 Distancia
La distancia euclidiana entre dos vectores x,y en Rn es igual a la raz cuadrada del producto
escalar del vector (x-y) por si mismo. Es decir:
dist(x,y) = (x-y)(x-y)
Esta interpretacin de la distancia, se obtiene considerando a los vectores x,y como puntos
en el plano y aplicando el Teorema de Pitgoras.
El concepto de distancia es fundamental en matemticas; permite, entre otras cosas, definir
una bola de centro a y de radio 3 de la siguiente manera:
B(a) = {x/dist(x,a)<r}
Si esta definicin es aplicada en R2, la bola es el conjunto de puntos que se encuentran al
interior de un crculo de centro a y de radio 3.

La distancia euclidiana es un tipo de distancia particular usada en espacios vectoriales del


tipo Rn, pero, el concepto de distancia es mucho ms amplio y es aplicado a diferentes
conjuntos o espacios. Se lo introduce a travs de la siguiente axiologa:
d(x,y)=d(y,x)
d(x,y)=0 si y solamente si x=y
d(x,y)<=d(x,z) + d(z,y)
Donde x,y,z son elementos de un conjunto cualquiera E y d() es una funcin definida en
ExE.
En estadstica descriptiva, la distancia euclidiana permite definir la media y la varianza de
un conjunto de valores {x1, x2,..xm}. La media es definida como el valor ms prximo en el
sentido de la distancia euclidiana a todos estos valores simultneamente y la varianza cmo
la distancia media a la media.
El concepto de distancia es utilizado en todos los estudios que tienen que ver con similitud
y/o disimilitud.

5.4 Coseno del ngulo entre dos vectores y coeficiente de


correlacin lineal
Utilizando propiedades de la geometra, es posible verificar que el coseno del ngulo que
conforman dos vectores con el origen puede definirse de la siguiente manera:
cos(x,y) = xy/[xxyy]
El coseno entre los vectores x,y constituye una medida de dependencia lineal. Si su valor
absoluto es igual a 1, significa que los dos vectores son mltiplos el uno del otro, es decir,
se encuentran en la misma lnea que los une al origen. Si este coseno vale 0, ello significa
que los vectores son ortogonales entre s con relacin al origen.
Ejemplos:
Los vectores siguientes estn sobre una misma lnea que los une al origen:

1
2
3
2
4
6
.... ....
0
0
0
3
6
9
Ejemplo, los dos vectores siguientes son ortogonales entre s:

1
5
2 .......... 10
1
15

Si la media de los vectores x,y es igual a cero, cos(x,y) es igual al coeficiente de correlacin
lineal entre entre x,y. Si no es el caso, es suficiente de centrarlos a su media para llegar a
una misma conclusin. Asociado a la idea de (in)dependencia lineal, se entiende la
significacin del coeficiente de correlacin lineal.

6. Combinaciones lineales y matrices


6.1 Matrices
Una matriz es una coleccin de vectores columna. Por ejemplo:

2.... 2
5.... 1
6.... 4

Esta matriz tiene 3 lnea y 2 columnas; puede ser considerada como un conjunto de 2
vectores columna en R3
Cuando se desea representar una matriz A escribiendo sus vectores columna como lneas,
la nueva matriz se denomina transpuesta de A y se escribe A.
Matrices particulares
Matriz cero: contiene slo ceros
Matriz uno: contiene slo unos
Matriz identidad: es una matriz cuadrada con unos en su diagonal principal y 0 en el resto,
puede considerarse como una coleccin ordenada de vectores unidad-j.
Matriz simtrica: matriz cuadrada donde las i-sima lnea es igual a la i-sima columna; una
matriz simtrica es idntica a su transpuesta.
La escritura matricial facilita mucho las operaciones con vectores.
Rango de una matriz
El rango de una matriz es igual al mximo nmero de vectores columna linealmente
independientes que contiene (es equivalente a decir el mximo nmero de vectors linea
linealmente independientes que contiene).
Traza de una matriz
6

La traza de una matriz cuadrada es igual a la suma de los elementos que se encuentran en su
diagonal principal.

6.2 Producto de una matriz y un vector == combinacin lineal


El producto de una matriz por un vector es otra forma de escribir una combinacin lineal de
los vectores columna de esa matriz. Por ejemplo, sea A=[a1, a2, ...am] una matriz con nlneas y m-columnas conformadas por los m-vectores aj. Sea x un vector en Rm cuyas
componentes son {x1, x2, ...xm}. El producto de la matriz A por el vector x es un nuevo
vector y:
y = Ax
y= x1a1 + x2a2 +....xmam
Es decir, es una combinacin lineal de los vectores columna a1, a2, ...am de la matriz A.

6.3 Operaciones con matrices


La suma de dos matrices A y B (del mismo nmero de lneas y del mismo nmero de
columnas) es otra matriz C=A+B donde sus elementos son cij=aij + bij
El producto de un escalar por una matriz A es una nueva matriz donde todos sus
elementos han sido multiplicados por ese escalar.
El producto de una matriz A con n-lneas y m-columnas por una matriz B=[b1, b2, 0 bk] con
m-lneas y k columnas es una nueva matriz C con n-lneas y k columnas donde sus
columnas cj son combinaciones lineales de las columnas de la matriz A. Es decir:
cj=Abj, j=1,2,..k.
A veces es tambin til representar el producto de dos matrices usando el producto escalar:
Si C=AB, y si se llama i a las lneas de la matriz A y bj a las columnas de la matriz B, se
demuestra fcilmente que cij= ibj (producto escalar de la i-sima lnea de A por la j-isima
columna de B).

6.4 Ms matrices particulares


Matriz inversa. Se dice que B es la matriz inversa de A si AB=BA=I donde I es la matriz
identidad. Generalmente, se escribe B=A-1. Slo las matrices cuadradas de rango mximo
admiten un inverso.

Matriz A ortogonal por columnas: es una matriz tal que el producto AA da una matriz
diagonal. En otras palabras, es una matriz cuyos vectores columna son ortogonales entre s.
Si la matriz diagonal es igual a la matriz identidad, se dice que esta matriz es ortonormada.
Matriz A idempotente. Es una matriz que AA = A
Proyector. Es una matriz simtrica e indempotente. Por ejemplo la matriz Q=A(AA)-1A
es un proyector, donde A es una matriz nxm de rango igual a m.

6.5 Kernel o Ncleo de una matriz. Definicin (subespacio


vectorial)
El ncleo o Kernel de una matriz est compuesto por todas las combinaciones lineales de
vectores xj tales que Axj=0 donde 0 representa un vector lleno de ceros.
Se demuestra fcilmente que el Kernel de una nxm- matriz A de rango r, es un espacio
vectorial de dimensin m-r.
Ejemplo:

1...... 3
2...... 6
3...... 9

Esta matriz es de rango 1, pues teniendo 2 vectores columna, el segundo es mltiplo del
primero. Un vector x que verifica Ax=0 es el vector siguiente:
x

3
1

Y, el Kernel de A es ker(A) = {v / v= x, para todo escalar en R}

7. Ecuaciones lineales
Sea A una matriz mxn de rango r. Sea b un vector mx1. Se supone que A y b son
conocidos. Se llama sistema de ecuacin lineal en x a la relacin: Ax=b, donde x es un
vector mx1 desconocido que se trata de determinar.
Un sistema de ecuaciones lineales puede no tener solucin o tener varias soluciones. Si
tiene una o ms soluciones, una forma general de representarlas es la siguiente:
xj=x0 + vj

Donde x0 + vj es cualquier solucin al sistema; los vectores vj conforman una Base para el
Kernel de A (es decir, son LIN, verifican Avj =0 y generan todo el ker(A)). Luego, existen
n-r+1 soluciones de este tipo.
Un sistema de n-ecuaciones no admite solucin, si sus n-ecuaciones no son compatibles
entre s.

8. Formas bilineales
Sea V, W dos espacios vectoriales. Una aplicacin g(x,y) de VxW en R, con x en V, y en
W, se llama bilineal con relacin a la matriz A si g(x,y)=xAy. Como podr observarse,
esta aplicacin es lineal con relacin a cada uno de sus argumentos.
Con V=W, x un vector en V y una matriz A simtrica, la aplicacin g(x,x)= xAx es una
forma cuadrtica. Obsrvese que:

x' Ax

xixjaij
i

Algunas matrices tienen la importante propiedad de que todas sus formas cuadrticas son
siempre positivas (xAx>0 para todo x). Se dice que estas matrices son definidas positivas.
De manera simtrica, si para todo vector x, xAx <0, se dice que la matriz A est definida
negativa.
Se aade en ambos caso el prefijo semi cuando la matriz no es de rango mximo lo que
implica que existe algn vector x tal que xAx=0
Para que una matriz est definida positiva o negativa, se necesita que sea de rango mximo.
Si H es una matriz definida positiva, (x-y)H(x-y) define igualmente una distancia entre los
vectores x,y.

9. Funciones de varias variables


Sea f(x1, x2,..xn) una funcin continua y dos veces derivable para cualquiera de sus
argumentos. Se suele listar las n-variables que participan en esta funcin en la forma de un
vector x, y se escribe simplemente f(x).
Gradiante. El gradiante de la funcin f(x) es un vector con n-componentes conteniendo sus
derivadas parciales. f(x) es creciente con relacin a alguno de sus argumentos xj en una
vecindad dada si su derivada parcial es positiva. Es decreciente en el caso contrario.

Hesiano. El Hesiano de la funcin f(x) es una matriz nxn conteniendo las segundas
derivadas de la funcin f(x).
Jacobien. Es el determinante del Hesiano
Funcin cncava. f(x) es cncava en la vecindad V(x0) si su Hesiano es una matriz
definida negativa en esa vecindad.
Funcin convexa. f(x) es convexa en la vecindad V(x0) si su Hesiano es una matriz
definida positiva en esa vecindad.
Las dos definiciones siguientes son vlidas para funciones continuas, dos veces derivables
al interior de un intervalo abierto.
Mximo. f(x) tiene un mximo en el punto x0 si en ese punto grad f(x)=0 y si en la
vecindad V(x0) su Hesiano es una matriz definida negativa.
Mnimo. f(x) tiene un mnimo en el punto x0 si en ese punto grad f(x)=0 y si en la vecindad
V(x0) su Hesiano es una matriz definida positiva.

10.
Esperanza matemtica; matriz de varianzas
covarianzas
Sea X=(X1, X2,...Xn) un vector conteniendo n-variables aleatorias. La Esperanza
Matemtica de este vector es un vector cuyas componentes son las esperanzas matemticas
de cada una de estas variables: E(X)=(E(X1), E(X2),...E(Xn))
E( ) es un operador lineal. Luego, verifica las dos propiedades siguientes:
E(aX) = aE(X) donde a es una constante
E(X+Y)= E(X) + E(Y)
E(XX) es una matriz nxn cuyos componentes son E(XiXj).
La matriz de varianzas y covarianzas del vector aleatorio X es definida de la siguiente
manera:
E(X-E(X))(X-E(X))
Se trata de una matriz nxn cuyos elementos en la diagonal principal son las varianzas de
cada una de los componentes del vector X y en el resto se encuentran las covarianzas. Con
alguna frecuencia, se abrevia esta matriz con alguna letra griega mayscula, por ejemplo,
, , etc. Si la abreviacin es , sus elementos son ij. Obsrvese que entonces:

10

ij = E(Xi-E(Xi)(Xj-E(Xj))
Las matrices de varianzas y covarianzas, por construccin, son semi-definidas positivas. Si
tienen rango mximo, son definidas positivas.
Dos variables son independientes en probabilidad si la realizacin de una de ellas no
modifica la probabilidad de realizacin de la otra. Como se sabe, la covarianza entre dos
variables independientes es igual a 0. Luego, si X1, X2,Xm son independientes en
probabilidad su matriz de varianzas-covarianzas ser diagonal.
Si todas las componentes de X tienen la misma esperanza matemtica, la misma varianza y
son independientes en probabilidad, se dice que el vector X est conformado por variables
i.i.d (independientes, idnticamente distribuidas).

11.

Vector aleatorio Normal

X es un vector aleatorio Normal si sus componentes son variables aleatorias normales.


Se dice en ese caso que X es N(, ) donde = E(X) es el vector de esperanzas
matemticas y la la matriz de varianzas-covarianzas.
Si es una matriz diagonal las variables que componen el vector X son independientes en
probabilidad y vice-versa.
Si =0 y =I, el vector X est conformado por variables i.i.d N(0,1). Se dice que es un
vector Normal Estndar.
Sea X un n-vector N(, ) y sea Y=a+BX donde a es un vector de constantes y B una
matriz mxn de constantes. Se demuestra que Y es N(+a, BB).
Se puede demostrar que para toda matriz de varianza-covarianza existe una mxn, con
m<=n, matriz B tal que BB =I.. Luego, con una matriz de ese tipo, y con a=- , el vector
Y=a + BX es un vector Normal Estndar.
Sea Y=AX, Z=BX, la matriz de varianza-covarianza de Y es igual a =AB. Si =I,
=AB. Si =AB = 0, los vectores Y, Z son independientes en probabilidad y viceversa.

12.

Variables derivadas del vector Normal

Sea X un n-vector Normal Estndar.

12.1 Variable Chi-Cuadrado

11

Sea Q una matriz simtrica, definida positiva, de rango r<=n. La variable W = XQX es
una variable Chi-Cuadrado con r grados de libertad. El caso ms simple y de ms fcil
interpretacin de esta variable es cuando Q=I; en este caso, W=|x|2.

12.2 Variable de Student


Sea Xi una variable aleatoria Normal Estndar, W una variable Chi-Cuadrado con r-grados
de libertad independiente en probabilidad de Xi. La variable Y=Xi/(W/r) es una variable
Student con r-grados de libertad.
De lo anterior, se concluye el siguiente resultado: Sea X un vector aleatorio Normal
estndar y sean Z=aX, W=XQX donde a es un vector de constantes y Q una matriz
simtrica e idempotente de rango r tales que aQ=0 . En ese caso, Z, W son independientes
en probabilidad y la variable Y=aX/XQX/r es una variable Student con r-grados de
libertad.

12.3 Variable de Fisher


Sean W1 y W2 dos variables Chi-Cuadrado con r y me grados de libertad respectivamente,.
La variable Y=[W1/r]/[W2/m] es una variable Fisher con r grados de libertad en el
numerador y m grados de libertad en el denominador (Fisher(r,m)).
Extensin. Sea X un vector aleatorio Normal Estndar. Sean A,B dos matrices simtricas
idempotentes de rango r y m y tales que AB=0. La variable Y=[XAX/r]/[XBX/m] es una
variable Fisher(r,m).

12

También podría gustarte