Está en la página 1de 7

1 Test de significación (NHST)

Una prueba de significación consta de una hipótesis H0 (hipótesis nula) que consiste en establecer
que el valor de un parámetro (llamémosle θ) es un número concreto (llamémosle θ0):

Para poder comprobar la coherencia de los resultados o la fuerza de la evidencia,


Se tratará de ver la diferencia entre lo observado en la muestra y lo que dice la hipótesis nula

Para ello se elige el llamado estadístico T( estadístico pivote) del test y se calcula su valor sobre los datos
de una muestra observada (x1,x2,...,xn)lo que se denota como T(x1,x2,...,xn)

Se escribe simbólicamente

Si p-valor <<0,05, el resultado del test es significativo porque permite rechazar la hipótesis
nula H0
La teoría de Neyman-Pearson
2
La teoría de Neyman-Pearson utilizó el NHST de Fisher y el p -valor como parte de un proceso formal de
decisión. El contraste de hipótesis quedó convertido en un método para discernir entre dos hipótesis: la
hipótesis nula y la hipótesis alternativa H1.

Ejemplo 1: Un acusado ante un tribunal: H0 es inocente H1: Culpable

El error de tipo I: rechazar que es inocente, siéndolo.


El error de tipo II: Es rechazar que es culpable: cuando es inocente.

Ejemplo 2: Una alarma de incendio. Cuando suena una alarma, ante un exceso de calor, o bien que un gamberro
ha acercado un mechero al sensor (se ve en las películas), la alarma puede sonar y no haber fuego. H0: Fuego
H1: No fuego
El error de tipo I es, rechazar que hay fuego , cuando en realidad lo hay
El error tipo II es aceptar que hay fuego, cuando en realidad no lo hay
Contrastes paramétricos y no paramétricos
3
Los contrastes pueden ser de tipo paramétrico o no paramétrico, según se refieran o no a parámetros de una
población (a la media, a la varianza, a una proporción…).

Una hipótesis paramétrica es una afirmación sobre una o más características (parámetros) de una población. Si
dicha hipótesis especifica un único valor para el parámetro la llamaremos hipótesis simple; Si se especifica
más de un valor para el parámetro la llamaremos hipótesis compuesta.

En un supermercado venden dos clases de naranjas, A y B. Las naranjas difieren en el diámetro, siendo en ambos
casos de medias 25 y 30cm, respectivamente. El diámetro sigue una distribución normal que, en ambos casos,
tiene una desviación típica de 2cm.
Al llegar a casa, un señor ve que no le han puesto etiqueta a las bolsas, por lo que, en principio, no sabe cuál es cual.
Teniendo en cuenta que las naranjas de la clase A son para él y las de la clase B para el vecino, necesita poder
diferenciarlas.
Después de pensar un rato, el señor decide realizar el siguiente proceso para clasificar las naranjas: coge las de una
bolsa (que son 20), y las mide.
Aceptará que son del tipo normal si la media de las longitudes no supera los 28 cm.

Vamos a calcular las probabilidades de los errores que es posible cometer.


Resolución:
4

Se plantea el contraste:  H0:μ=30  frente a H1:μ=25.


La regla de decisión es aceptar H0 si ¯x>28.

Si X1,X2,...,Xn son variables normales de media o esperanza μi=E(Xi) y varianza  σ2i=Var(Xi),i=1,...,n, la


variable suma Y=X1+X2+...+Xn es también una variable normal, de media la suma de las medias, y varianza
la suma de varianzas (desviación típica = raíz de la suma de varianzas), es decir:

X∈N(μ,σ) entonces, dada una muestra de tamaño n, la


media muestral  x∈N(μ/σ√n).

P(P(Error tipo I)=P(Rechazar  H0 siendo cierta)= P( x ≤ 28/H0)

P(P(Error tipo II)=P(Aceptar H0 siendo falsa)=P( x> 28/H0)


5 Si H0 es cierta, μ=30, luego x∈ (30,2/√20).

Comprobamos que las probabilidades de cometer los errores de tipo I y II son prácticamente cero, por
lo que el señor ha inventado una regla de decisión estupenda.
Ejemplos de hipótesis no paramétricas:
6

Supongamos que un investigador desarrolla un método o tratamiento para reducir el dolor.


Para comprobar que el método es efectivo, habrá que observar una muestra de pacientes con dolor y, tras
aplicarles el tratamiento, ver si el dolor ha disminuido

X= dolor antes del tratamiento


Tenemos n datos, x1, x2,…xn.
Una vez realizado el tratamiento, volvemos a observar la variable:
Y= dolor después del tratamiento

Tendremos otros n datos y1,y2,...,yn.
A continuación, restamos el dolor antes y el dolor después Z=X−Y y tenemos los
datos z1,z2,..,zn donde zi=xi−yi.

De manera general, si el tratamiento es efectivo, los valores de X serán mayores que los
de  (el dolor antes era más alto que el dolor después)
Pero, en general, el descenso de dolor no va a ser igual en todos los pacientes.
7 En unos se reducirá más, en otros menos. Por ello lo que interesa comprobar es si la reducción de
dolor, en media, es grande o no lo es (porque si la reducción de dolor es pequeña, o casi nula, el
tratamiento a lo mejor ni interesa por ser caro).

La hipótesis nula a comprobar, entonces, será de la forma:


H0:μ=0

Por lo tanto, lo interesante será (para demostrar que el tratamiento es efectivo) que la media de la
muestra (z1,z2,...,zn) no sea un número próximo a cero.

También podría gustarte