Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Dado un experimento aleatorio, los posibles resultados que puedan ocurrir son sucesos
que dependen del azar y que dan lugar a una variable cuyos valores tendrán una cierta
probabilidad de repetirse. Estas nuevas variables se llaman variables aleatorias.
Los conceptos variable aleatoria y probabilidad son conceptos teóricos que resultan de
una abstracción hecha sobre los conceptos de variable estadística y frecuencia,
conceptos estos últimos que se consideran después de la ejecución del experimento,
mientras que los primeros se consideran antes de la ejecución.
Una variable aleatoria es discreta cuando sólo puede tomar un número finito de
valores.
MEDIDAS DE CENTRALIZACION
Mediana
Es el valor de la variable estadística que divide en dos partes iguales a los individuos
de una población, supuestos ordenados en orden creciente. En general, es el valor
donde la función de distribución F(x) toma el valor 1/2, pero así definida puede no ser
única en cuyo caso se toma la media aritmética de los valores de mediana, o no existir
en cuyo caso se toma como mediana el valor de la población más cercano a esa
mediana 'ideal'.
Moda
Si la variable es discreta, puede darse el caso de que haya más de una mediana.
Media aritmética
Es la suma de los productos de los posibles valores que tome la variable xi, entre el
número de valores que esa variable contenga.
MEDIDAS DE DISPERSION
Son medidas que representan el grado en el que los valores numéricos tienden a
extenderse alrededor de un valor medio.
Recorrido
Varianza.
pero como habrá valores por encima y por debajo de la media que se compensarán,
calcularemos mejor el cuadrado de las diferencias. Se define así varianza de una
variable estadística, como la media de los cuadrados de las desviaciones de sus valores
respecto a su media. Se representa por s2:
EXPERIMENTOS BIVARIANTES
Hasta ahora se han considerado experimentos en los que tomábamos una sola medida
o valor en cada ensayo. Pero muy corrientemente, al efectuar un experimento, se
deben medir dos características. Estos experimentos se conocen por el nombre de
bivariantes. Por ejemplo en un grupo de personas se miden el peso y la altura.
Es una medida del grado de asociación lineal entre las variables X e Y. Se representa
por r:
donde sx, sy son las desviaciones típicas de las variables X e Y respectivamente, y Sxy es
la covarianza muestral de X e Y, que se define como la media de los productos de las
desviaciones correspondientes de X e Y y de sus medias muestrales.
Propiedades
1. Se trata de una medida matemática que luego hay que interpretar. Aunque un
alto grado de correlación indique buena aproximación a un modelo matemático
lineal, su interpretación puede no tener ningún sentido. Por ejemplo puede
haber un alto grado de correlación entre el número de usuarios de IDL y el
consumo de alcohol en Rusia, pero ambas variables están claramente
disociadas.
2. Aunque el grado de correlación sea cercano a cero (pobre aproximación al
modelo lineal) eso no significa que no haya relación entre las dos variables.
Puede ser que dicha relación sea no lineal.
MATRIZ DE CORRELACION
Sea un experimento de n variables (X1, X2, ... Xn). Podemos ordenar en una matriz los
diferentes coeficientes de correlación de cada variable con el resto y consigo misma,
obteniendo una matriz con cada elemento igual a:
Sea un experimento de n variables (X1, X2, ... Xn). Podemos ordenar en una matriz las
diferentes covarianzas entre variables y varianzas de variables.
Sean dos nubes de puntos (representadas como en la figura, por elipsoides que las
rodean). La varianza es una medida de la dispersión. Las variables X e Y tienen ambas
la misma varianza en el caso de la elipse y del círculo, pero la covarianza en el círculo
es cero y la de la elipse es más o menos alta, y positiva.
Si las n variables tienen medidas incompatibles (kg, m, s, ...) las varianzas no son
comparables. Entonces se recurre a la matriz de correlación. Las correlación es la
covarianza medida para valores estandarizados. Por eso la correlación de una variable
consigo misma da uno; es la varianza de cualquier variable estandarizada.
TRANSFORMACION DE KARHUNEN-LOEVE
Su origen está en la redundancia que hay muchas veces entre distintas variables. La
redundancia son datos, no información. Lo que se pretende es:
Facilitar el estudio de las relaciones existentes entre las variables.
Facilitar el análisis de la dispersión de las observaciones (poniendo en evidencia
posibles agrupamientos, detectando las variables que son responsables de dicha
dispersión).
FORMULACION DESCRIPTIVA
por eso la diagonal principal es todo unos. Por tanto utilizaremos si podemos, la matriz
de varianza-covarianza, y si no, la de correlación.
A partir de esas matrices, se calculan sus valores y vectores propios. Los valores
propios dan la longitud de los ejes principales de la elipsoide n-dimensional. Los
vectores propios apuntan precisamente en las direcciones de esos ejes principales.
Además, equivalen a los coeficientes de regresión en una transformación lineal
estándar, siendo las variables a transformar las variables independientes y las
componentes principales, las dependientes.
Las nuevas variables así obtenidas, pierden el sentido físico que pudieran tener las
variables originales.
FORMULACION MATEMATICA
Sea una serie de datos, en este caso bidimensionales (una imagen) de la forma:
Podemos ordenar esa matriz en forma de un vector, bien poniendo una fila tras otra, o
bien por columnas. Lo importante no es tomar uno u otro tipo de ordenación sino que
éste sea consistente con todas las imágenes que vayan a participar en la
transformación.
A priori ya podemos conocer dos cosas de M: que esta será simétrica, ya que rab
= rba y que la diagonal principal será todo unos, esto porque raa = 1.
Los vectores propios asociados a esos valores propios, se calcularán sustituyendo los
valores propios en la fórmula:
Para cada valor propio li, obtenemos una ecuación diferente, y de esta ecuación
obtenemos también un vector propio vi diferente y asociado a su respectivo li.
Componentes principales
Obteniendo las variables CP1, CP2, ..., CPp. Podemos realizar simples cálculos para
comprobar que:
Para el caso concreto que nos ocupa, reconocimiento facial, donde las variables eran
originalmente bidimensionales pero los cálculos se han efectuado unidimensionales,
puede ser interesante visualizar esas componentes principales (llamadas eigenfaces en
este caso) como imágenes bidimensionales. Para ello simplemente hay que deshacer el
cambio del comienzo y reordenar el vector de (n x m) valores como una matriz
bidimensional de m filas por n columnas.
Coordenadas
Ya sólo resta calcular las coordenadas de las variables originales en la nueva base de
variables componentes principales. Este cálculo se realiza por mero producto matricial,
de la forma:
INICIO