Documentos de Académico
Documentos de Profesional
Documentos de Cultura
En la vida cotidiana existen un sinnúmero de situaciones en las que una persona plantea una
hipótesis sobre algún acontecimiento, sin embargo, el tipo de hipótesis en las que estaremos
interesados, son las llamadas hipótesis estadı́sticas.
Ejemplo: En una investigación educativa, se desea probar el efecto que puede tener enseñar
ESTADÍSTICA con R. Para llevar a cabo este estudio, se selecciona al azar una muestra de
estudiantes. A algunos de ellos se les enseña con el método tradicional, y al resto con R.
Hipótesis nula: “Enseñar con R no tiene ningún efecto en el nivel de aprendizaje de es-
tadı́stica de los estudiantes”
“MÁS MEJOR”
Supongamos que el nivel de aprendizaje de los estudiantes bajo “R” se distribuye como una
Normal(µR , σ 2 ) y de los del tradicional “T” como una Normal(µT , σ 2 ). Con σ 2 conocida.
Entonces, podrı́amos enunciar estas hipótesis como:
H0 : µR = µT vs. Ha : µR > µT
Entonces H0 , conocida como hipótesis nula, enuncia que enseñar con R no tiene ningún
efecto en el aprendizaje de los estudiantes, mientras que Ha o hipótesis alternativa, usual-
1
mente la hipótesis del investigador, enuncia que que enseñar con R tiene un efecto positivo
en el incremento del aprendizaje.
MUY IMPORTANTE
¿Porqué?.
Pero...!µR y µT son desconocidos!. Entonces, la tarea es demostrar, de alguna forma, que los
estimadores de estos parámetros son ESTADÍSTICAMENTE DISTINTOS, es decir,
µ̂R 6= µ̂T , este es justamente, el objetivo de las pruebas de hipótesis estadı́sticas.
ESTADÍSTICOS DE PRUEBA
Para realizar las pruebas por este procedimiento, es necesario determinar las distribución
de los estimadores de los parámetros (conocidas como distribuciones de muestreo) que es-
pecifiquen nuestras hipótesis. Una vez que se conocen estas distribuciones, mediante pro-
cedimientos probabilı́sticos, debemos determinar la distribución de nuestro estadı́stico de
prueba.
2
En el caso que nos ocupa (dos muestras independientes), si denotamos por Xi a los estudi-
antes del método R y por Yi a los del método tradicional, tenemos que:
2 2
X̄ ∼ N (µR , σn ) Ȳ ∼ N (µT , σm )
X̄ − Ȳ X̄ − Ȳ
q ∼ N (0, 1) o q ∼ t(n+m−2)
σ2 σ2 (n−1)S12 +(m−1)S22 1 1
n
+m n+m−2 n
+ m
Un caso especial de pruebas de dos muestras es cuando éstas son pareadas, es decir, pruebas
del tipo “antes” y “después” o experimentos “pre-post” en los cuales las mediciones se toman
en los mismos sujetos antes y después de que han sido sometidos a algún tratamiento o ma-
nipulación experimental. Por ejemplo, estudiantes evaluados antes y después de un curso.
Las dos muestras están relacionadas en el sentido de que están formadas por mediciones
tomadas sobre los mismos sujetos. El objetivo en este diseño es controlar la varianza entre
las dos poblaciones a comparar.
3
µX − µY < 0
H0 : µX − µY = 0 vs. Ha : µX − µY > 0
µX − µY =
6 0
d¯
t = q 2 ∼ t(n−1)
Sd
n
n
P n
P
di ¯2
(di − d)
d¯ = i=1
Sd2 = i=1
n n−1
Diferencia de proporciones
Si se trata de probar la diferencia entre dos proporciones, se asume que cada una de las
proporciones maestrales se distribuye asintóticamente normal, y se procede como en la com-
paración de dos muestras, esto es, sin ni es grande
Pi (1 − Pi ) Pˆ1 − Pˆ2
P̂i ∼
= N (Pi , ) i = 1, 2 ⇒ q ∼
= N (0, 1)
ni Pˆ1 (1−Pˆ1 ) Pˆ2 (1−Pˆ2 )
n1
+ n2
P1 > P2
P1 = P2 vs. Ha : P1 < P2
P1 6= P2
Cociente de verosimilitudes
4
Hacer una prueba de hipótesis a través de un estadı́stico, tiene grandes limitaciones en cuanto
al número de parámetros que involucran las hipótesis y la distribución del estadı́stico uti-
lizado. Existe un proceso conocido como cociente de verisimilitudes que es más general y en
el que las hipótesis pueden tener más de un parámetro.
La idea intuitiva de este método es comparar el valor de la verosimilitud obtenido con los
estimadores máximo verosı́miles de los parámetros involucrados en las hipótesis, i.e., el valor
de la verosimilitud EVALUADA en los estimadores máximo verosı́miles, contra el valor
de esta misma verosimilitud, evaluada en los valores máximo verosı́miles bajo la restricción
que impone la hipótesis nula. Intuitivamente, si estos valores son muy “parecidos” los datos
darán evidencia a favor de la hipótesis nula. Ya que los valores que maximizan la probabili-
dad de observar ESA MUESTRA PARTICULAR, serán muy parecidos a los obtenidos
SUPONIENDO VÁLIDA LA HIPÓTESIS NULA, luego, LA HIPÓTESIS NULA
ES CIERTA. En notación matemática, el cociente de verosimilitudes se expresa como:
Sup
θ ∈ Θ0 L(θ, X)
Λ= Sup
θ ∈ Θ L(θ, X)
H0 : λ = 1 vs. Ha : λ = 4
13 ·e−1
P oisson(X = 3|λ = 1) 1
Λ= = 3!
43 ·e−4
= 0.3138 ∼
=
P oisson(X = 3|λ = 4) 3!
3
5
¿Si sirve?. ¿Cómo interpretamos este resultado?
Cuando los datos provienen de algún modelo especı́fico, es posible hacer inferencias exac-
tas con este cociente de verosimilitudes, en el sentido que se puede conocer su distribución
exacta; sin embargo, un resultado IMPORTANTÍSIMO, es que, en casi cualquier circun-
stancia, una transformación de este cociente tiene una distribución aproximada ji-cuadrada,
a saber:
−2Log(Λ) ∼
= χ2(dim(Θ)−dim(Θ0 ))
este es, tal vez, el resultado más importante que existe para hacer inferencias asintóticas. De
hecho, es el resultado en donde se basan las inferencias que se realizan a través de una com-
putadora. De este resultado se desprenden las pruebas de Zeta, Score y Wald que aparecen
en las “salidas” de los programas computacionales para hacer análisis estadı́stico.
Alternativas No paramétricas
FX > FY
FX = FY vs. Ha : FX < FY
FX 6= FY
Entonces, ¿porqué se usa como alternativa para la comparación de medias? Cuando real-
izamos la prueba paramétrica de comparación de medias, suponemos que la única diferencia
6
entre las dos poblaciones es su media (conocida como medida de localización), bajo esta
lógica, cuando realizamos la prueba Mann-Whitney, debemos suponer que las poblaciones
también difieren sólo en una medida de localización, que, para pruebas no paramétricas,
usualmente es la mediana. Entonces, las hipótesis pueden “reescribirse” como:
MX > MY
MX = MY vs. Ha : MX < MY
MX 6= MY
Estadı́stica de prueba
Para calcular su valor, se combinan las dos muestras y se ordenan las observaciones de menor
a mayor. A las observaciones empatadas se les asigna el promedio de las posiciones de los
rangos que habrı́an ocupado de no haber existido empates. Entonces, se suman los rangos
de las observaciones de la población 1 (de las x’s). Si el parámetro de localización de la
población 1 es menor que el parámetro de localización de la población 2 (las y’s), se espera
que la suma de los rangos de las observaciones muestreadas en la población 1 sea menor que
la suma de los rangos de las observaciones provenientes de la población 2. De manera similar,
si el parámetro de localización de la población 1 es mayor que el parámetro de localización de
la población 2, se espera lo contrario. La estadı́stica de prueba basada en este razonamiento
es tal que, dependiendo de la hipótesis nula, ya sea un valor muy grande o muy pequeño de
la suma de los rangos asignados a las observaciones de la primera población, trae consigo
que se rechace la hipótesis nula. La estadı́stica de prueba es:
n(n + 1)
T =S−
2
Regla de decisión
7
correspondientes cuantiles de la distribución de T.
Md > 0
Md = 0 vs. Ha : Md < 0
Md 6= 0
Estadı́stica de Prueba
El procedimiento para obtener el valor numérico del estadı́stico de prueba es como sigue:
di = Xi − Yi
2. Ordenar los valores absolutos de estas diferencias de menor a mayor; es decir, ordenar
|di | = |Xi − Yi |
3. Asignar a cada uno de los rangos resultantes el signo de la diferencia de la pareja sin
considerar el valor absoluto.
4. Calcular
8
T + = la suma de los rangos con signos positivos
T − = la suma de los rangos con signos negativos
Empates. Existen dos tipos de empates; uno o ambos pueden ocurrir en una situación dada.
El primer tipo ocurre cuando Xi = Yi para una pareja dada. Se eliminan del análisis to-
das las parejas de observaciones para las cuales di = Xi − Yi = 0 lo que reduce el tamaño
muestral. El otro tipo de empate ocurre cuando dos o más valores de |di | son iguales. Para
empates de este tipo, las |di | reciben el promedio de los rangos que se les habrı́an asignado
si no hubieran empates.
Las extensiones naturales de estas dos pruebas para más de dos poblaciones son: ANOVA
para pruebas paramétricas, Friedman (muestras relacionadas) y Kruskal-Wallis (mues-
tras independientes) para pruebas no paramétricas.
ANOVA
Acrónimo de análisis de varianza, es el término que se usa en estadı́stica para comparar las
medias de un grupo de mediciones continuas, donde los grupos están definidos por los niveles
de un factor. Supondremos que el número de grupos k es mayor que dos.
El nombre de análisis de varianza, proviene de la manera en que se hace la prueba. Sin tomar
en cuenta la pertenencia de las observaciones a los grupos, la media global, se estimarı́a por
k P
P n
Yij
j=1 i=1
µ̂ =
N
Es decir, la suma de todas las observaciones de todas las muestras, dividida entre el total de
individuos en la muestra, N = n ∗ k, suponiendo que las poblaciones son del mismo tamaño
(n). Y la varianza serı́a:
9
k P
P n
(Yij − µ̂)2
j=1 i=1
σ̂ 2 =
N
k X
X n k X
X n k X
X n
(Yij − µ̂)2 = (Yij − µˆj )2 + (µ̂j − µ̂)2
j=1 i=1 j=1 i=1 j=1 i=1
| {z } | {z } | {z }
S.C.T. S.C.I. S.C.E.
con µˆj la correspondiente media estimada, de la j-ésima población. Con S.C.T. conocida
como la suma de cuadrados totales, S.C.I. la suma de cuadrados intra-grupos (dentro de los
grupos) y S.C.E. suma de cuadrados entre los grupos. Si H0 es cierta, entonces la variabil-
idad dentro de los grupos (S.C.I.) y la variabilidad entre los grupos (S.C.E.) no deberı́an
de ser muy diferentes, ya que si H0 es cierta, implica que NO HAY TALES GRUPOS,
es decir, que todas las poblaciones SON IGUALES, o bien que µj = µ para toda j=1,2...,k.
Para realizar la prueba de ANOVA, lo primero que hay que hacer es especificar y, posteri-
ormente, verificar sus supuestos.
S.C.E
k−1 ∼F
(k−1,N −k)
S.C.I.
N −k
10
Es común desplegar la información relevante para hacer esta prueba, en una tabla conocida
como tabla de análisis de varianza.
Si rechazamos H0 , concluimos que al menos una de las medias es distinta del resto, pero la prueba
no dice cuál, ni cuántas.
Existen varios procesos para realizar las comparaciones individuales entre cada para de poblaciones.
Algunos de los más utilizados son los de Bonferroni, Tukey y el de Scheffè. Esta última es más
conservadora que la de Tukey.
Alternativas no paramétricas
Como puede observarse, la prueba ANOVA tiene dos supuestos muy fuertes: la normalidad de
cada población y la igualdad de las varianzas entre estas poblaciones. La alternativa no paramétrica
para esta prueba es la Kruskal-Wallis (K-W), que es la generalización para más de dos muestras
de la Mann-Whitney. Nuevamente, lo que hace K-W es probar si las distribuciones de las k
poblaciones son iguales o son distintas, de manera similar a lo que dijimos en la prueba M-W,
supondremos que esta diferencia se debe a una diferencia en la medida de localización, la mediana.
Entonces las hipótesis a contrastar son:
Supongamos que los tamaños de muestra de cada población son nj j = 1, 2, ..., k. Entonces, hay
que asignar rangos a la muestra combinada. Sea Rj la suma de rangos de cada muestra. La es-
tadı́stica de prueba es:
k
X Rj2
12
T = − 3(N + 1)
N (N + 1) nj
j=1
k
P
Con N = nj . Si cada nj > 5, esta estadı́stica se distribuye como una χ2 con k-1 grados de lib-
j=1
ertad. Si alguno de los tamaños de muestra es ≤ 5, se utiliza la distribución para muestras pequeñas.
11
Si rechazamos H0 , lo único que concluimos nuevamente, es que al menos alguna de las poblaciones
tiene una mediana diferente del resto, pero no sabemos cuál ni cuántas.
Comparaciones múltiples
Una manera de hacer las comparaciones entre cada para de poblaciones es la siguiente:
s
Rj Ri N (N + 1) 1 1
− > Z(1−α/2) + i 6= j i, j = 1, 2, ..., k
nj ni 12 nj ni
Cuando las k poblaciones están relacionadas, entonces se viola el supuesto de independencia entre
ellas. Una manera natural para obtener esta estructura de la información, es que cada sujeto dentro
del estudio, sea medido en k ocasiones (para fijar ideas, digamos k tratamientos). Una prueba no
paramétrica para realizar la comparación de poblaciones entre muestras relacionadas es la de
Friedman.
El primer paso para construir la estadı́stica es asignar rangos a las observaciones. Como cada
individuo tiene k observaciones, vamos a asignarles rangos a estas k mediciones. Si H0 es cierta,
todos los tratamientos tienen el mismo efecto, entonces los rangos asignados a cada tratamiento
por todos los individuos (Rj ), deben sumar aproximadamente lo mismo. Entonces, la prueba se
basa en la comparación de estas sumas por tratamiento, contra la media de estas sumas de rangos.
La estadı́stica de prueba es:
k
12 X n(k + 1) 2
T = Rj −
nk(k + 1) 2
j=1
12
con n el número de individuos en la muestra y k el número de tratamientos.
r
nk(k + 1)
|Rj − Ri | > Z(1−α/2) i 6= j i, j = 1, 2, ..., k
6
13