Documentos de Académico
Documentos de Profesional
Documentos de Cultura
MULTIVARIADO
UNIDAD IV
DISCRIMINACION Y CLASIFICACION
INTRODUCCÓN
La discriminación y la clasificación son técnicas multivariantes que se ocupan de separar
conjuntos distintos de objetos (u observaciones) y asignar nuevos objetos (observaciones) a
grupos previamente definidos.
Objetivo 2. Clasificar los objetos (observaciones) en dos o más clases etiquetadas. El objetivo
es en derivar una regla que pueda utilizarse para asignar óptimamente nuevos objetos a las
clases etiquetadas.
DISCRIMINACION Y CLASIFICACION
PARA 2 PABLACIONES
Para fijar las ideas, enumeremos las situaciones en las que uno puede estar interesado en
separar dos clases de objetos o asignar un nuevo objeto a una de las dos clases. Es
conveniente etiquetar las clases y 2 Los objetos se separan o clasifican ordinariamente sobre la
base de medidas sobre, por ejemplo, p variables aleatorias asociadas X' = [X 1, X2 , ….. , Xp].
Los valores observados de X difieren en cierta medida de una clase a otra.
Podemos pensar que la totalidad de los valores de la primera clase son la población de valores
de x para y los de la segunda clase son la población de valores de x para 2 .Estas dos
poblaciones pueden describirse mediante funciones de densidad de probabilidad f 1(x) y f2(x),
y en consecuencia, podemos hablar de asignar observaciones a poblaciones u objetos a clases
indistintamente.
DISCRIMINACION Y CLASIFICACION
PARA 2 PABLACIONES
Por otra parte, existe un cierto solapamiento entre los dos grupos. Si, por ejemplo, asignamos
los valores de (X1,X2) que caen en la región R1 (según la línea continua de la figura) a ,
propietarios de segadoras y los valores de (X1,X2) que caen en la región R2 a 2 , los no
propietarios, cometeríamos algunos errores. Algunos propietarios de cortacéspedes se
clasificarían incorrectamente como no propietarios y, a la inversa, algunos no propietarios
como propietarios. La idea es crear una regla (regiones RI y R2 ) que minimice las
posibilidades de cometer estos errores.
DISCRIMINACION Y CLASIFICACION
EJEMPLO
Un buen procedimiento de clasificación debería dar lugar a pocas clasificaciones erróneas. En
otras palabras, las posibilidades, o probabilidades, de clasificación errónea deben ser
pequeñas. Como veremos, hay otras características que debe poseer una regla de clasificación
"óptima".
Puede ser que una clase o población tenga una mayor probabilidad de aparecer que otra
porque una de las dos poblaciones es relativamente mucho mayor que la otra. Por ejemplo,
suele haber más empresas financieramente sólidas que empresas en quiebra. Otro ejemplo:
una especie de pamplina puede ser más frecuente que otra.
DISCRIMINACION Y CLASIFICACION
EJEMPLO
Una regla de clasificación óptima debería tener en cuenta estas probabilidades "previas" de
ocurrencia". Si realmente creemos que la probabilidad (a priori) de que una empresa entre en
crisis y acabe quebrando es muy pequeña o Si realmente creemos que la probabilidad (a
priori) de que una empresa tenga problemas financieros y acabe quebrando es muy pequeña,
deberíamos clasificar una empresa seleccionada al azar como no quebrada, a menos que los
datos favorezcan de forma abrumadora la quiebra.
Otro aspecto de la clasificación es el coste. Supongamos que clasificar un objeto como que
pertenezca a 2 representa un error más grave que clasificar un objeto 2 como perteneciente a .
En ese caso, hay que ser prudente a la hora de hacer la primera asignación.
DISCRIMINACION Y CLASIFICACION
EJEMPLO
Como ejemplo, no diagnosticar una enfermedad potencialmente mortal es sustancialmente
más "costoso" que concluir que la enfermedad está presente cuando, en realidad, no lo está.
Un procedimiento óptimo de Un procedimiento de clasificación óptimo debe tener en cuenta,
siempre que sea posible, los costes asociados a la clasificación errónea. con la clasificación
errónea.
Sean f1(x) y f2(x) las funciones de densidad de probabilidad asociadas a la pX1 vector
aleatorio X para las poblaciones y 2 , respectivamente. Un objeto con medidas asociadas debe
asignarse a o 2 . Sea Ω el espacio muestral, es decir, la colección de todas las posibles
observaciones .
DISCRIMINACION Y CLASIFICACION
EJEMPLO
Sea R1 ese conjunto de valores de x para los que clasificamos los objetos como y R2 = Ω - R 1
el resto de valores de valores de x para los que clasificamos los objetos como 2 . Dado que
cada objeto debe ser asignado a una y sólo una de las dos poblaciones, los conjuntos RI y R2
son mutuamente excluyentes y exhaustivos. Para p = 2, La probabilidad condicional P(2/1),
de clasificar un objeto como 2 cuando, en realidad es de es
DISCRIMINACION Y CLASIFICACION
EJEMPLO
Por ejemplo incluso una probabilidad aparentemente pequeña como 0,06 = P(2/1) puede ser
demasiado grande si el coste de hacer una asignación incorrecta a 2 es extremadamente alto.
Una regla que ignore los costes puede causar problemas. Los costes de la clasificación errónea
pueden definirse mediante una matriz de costes:
DISCRIMINACION Y CLASIFICACION
EJEMPLO
Los costes son cero para la clasificación correcta, (2) c(1/2) cuando una observación de se
2
clasifica incorrectamente como , y (3) c(2/1) cuando una observación de se clasifica
incorrectamente como 2 .
Para cualquier regla, el coste medio o esperado de la clasificación errónea (ECM) se obtiene
multiplicando las entradas no diagonales de la tabla por sus probabilidades de ocurrencia. En
consecuencia,
Una regla de clasificación razonable debería tener un ECM tan pequeño, o casi, como sea
posible.
DISCRIMINACION Y CLASIFICACION
Clasificación con dos poblaciones normales multivariantes
Los procedimientos de clasificación basados en poblaciones normales predominan en la
práctica estadística debido a su simplicidad y a su eficacia razonablemente alta en una amplia
variedad de modelos de población. Suponemos ahora que f1(x) y f2(x) son densidades
normales multivariadas, la primera con vector medio µ1 y matriz de covarianza ∑1 y la
segunda con vector medio µ2 y matriz de covarianza ∑2 .
El enfoque de Fisher no supone que las poblaciones sean normales. Sin embargo, asume
implícitamente que las poblaciones son normales y que las matrices de covarianza de las
poblaciones son iguales, porque se utiliza una estimación conjunta de la matriz de covarianza
común.
DISCRIMINACION Y CLASIFICACION
Enfoque de Fisher para la clasificación con dos poblaciones
Una combinación lineal fija de las x toma los valores Y 11, Y12, ... Y1n1 para las observaciones
de la primera población y los valores Y21, Y22, ... , Y2n2 para las observaciones de la segunda
población. La separación de estos dos conjuntos de Y univariantes se evalúa en términos de la
diferencia entre 1 e 2. expresada en unidades de desviación estándar. Es decir,
Considerar:
DISCRIMINACION Y CLASIFICACION
¿Es la clasificación una buena idea?
Para dos poblaciones, la máxima separación relativa que puede obtenerse considerando
combinaciones lineales de las observaciones multivariantes es igual a la distancia D 2. Esto es
conveniente porque la D2 puede utilizarse, en ciertas situaciones, para probar si las medias
poblacionales µ1 y µ2 difieren significativamente.
En consecuencia, una prueba de las diferencias en los vectores de las medias puede
considerarse como una prueba de la "importancia" de la separación que puede lograrse.
DISCRIMINACION Y CLASIFICACION
¿Es la clasificación una buena idea?
Supongamos que las poblaciones y 2 son normales multivariantes con una matriz de
covarianza común ∑. Entonces, como en la sección anterior, una prueba de Ho: µ 1 = µ2 frente
a H1: µ1 ≠ µ2 se lleva a cabo refiriendo
Si los datos no son normales multivariantes, existen dos opciones. En primer lugar, los datos
no normales pueden transformarse en datos más cercanos a la normalidad, y se puede realizar
una prueba de igualdad de las matrices de covarianza para ver si la regla lineal o la regla
cuadrática (11-29) es apropiada.
En segundo lugar, podemos utilizar una regla lineal (o cuadrática) sin preocuparnos por la
forma de las poblaciones y esperar que funcione razonablemente bien. Los estudios han
demostrado, sin embargo, que hay casos no normales en los que una función de clasificación
función de clasificación lineal no funciona bien, aunque las matrices de covarianza de la
población sean las mismas.