Está en la página 1de 3

Los investigadores cuando realizan un contraste de hipótesis y concluyen que

se rechaza la hipótesis nula, suelen declarar que su resultado es


"estadísticamente significativo". Por el contrario, cuando el resultado del
contraste no es lo suficientemente grande como para rechazar la hipótesis
nula, es un poco mayor que 0,05 suelen decir que no hay diferencias
"significativas" (o estadísticamente significativas), se encuentra en la región de
aceptación y no se rechaza la hipótesis nula.

En este último caso, los investigadores suelen discutir sus resultados como si
hubieran probado que el nuevo tratamiento no tiene ningún efecto. En realidad,
lo que no han conseguido es demostrar que el tratamiento tiene un efecto. Es
muy sutil la diferencia entre demostrar claramente que un tratamiento no tiene
efecto y no conseguir demostrar que hay un efecto. Pero es muy importante,
porque en ello interviene el número de individuos (tamaño del estudio) incluidos
en la investigación.

En estadística, un resultado es estadísticamente significativo cuando no es


probable que haya sido debido al azar. Una "diferencia estadísticamente
significativa" solamente significa que hay evidencias estadísticas de que hay
una diferencia; no significa que la diferencia sea grande, importante, o
significativa en el sentido estricto de la palabra.
El nivel de significación de un test es un concepto estadístico asociado a
la verificación de una hipótesis, entonces para calcularlo tienes que
asumir que la hipótesis nula es cierta. En pocas palabras, se define como la
probabilidad de tomar la decisión de rechazar la hipótesis nula cuando
ésta es verdadera (decisión conocida como error de tipo I, o "falso positivo").
La decisión se toma a menudo utilizando el valor p (o p-valor): si el valor p es
inferior al nivel de significación, entonces la hipótesis nula es rechazada.
Cuanto menor sea el valor p, más significativo será el resultado. El valor de p
es una probabilidad de error, de que nos estemos equivocando, mide la
inseguridad o seguridad que tenemos al rechazar la hipótesis nula
De alguna forma el valor de p es una especie de medida de cómo de
improbable es la hipótesis nula con respecto a nuestros datos. Es el área que
hay desde al valor del estadístico hacia abajo o hacia arriba. En vez de medir la
distancia entre el parámetro y el valor del estadístico, es decir la significación, a
mayor diferencia más significativa y viceversa.
En otros términos, el nivel de significación de un contraste de hipótesis es una
probabilidad p tal que la probabilidad de tomar la decisión de rechazar
la hipótesis nula - cuando ésta es verdadera - no es mayor que p.
*La significación viene asociada tanto a las diferencias existentes como a el
tamaño de la muestra, debido a ello las diferencias nos llevan a afirmar que un
test es estadísticamente significativo, pero asimismo al aumentar el tamaño
muestral disminuye el error muestral, y aumenta la significación (se separan las
curvas), para una misma proporción. Sin embargo es no significativo cuando
las diferencias son pocas y el error muestral es mayor, es decir, al tomar una
muestra pequeña.

* Por otra parte cuando el nivel de significación (0,05- 0,09) disminuye, también
lo hace el error tipo I o α, y por tanto aumenta el erro tipo II o β, que es la
probabilidad de no rechazar la hipótesis nula siendo falsa, falso negativo.

COMPARACIONES MÚLTIPLES:

La comparación de medias, en aquellos casos en los que tenemos más de dos


grupos, se podría hacer comparando dos a dos mediante la prueba de
comparación de medias (la t de student o la de Mann-Whitney).

Pero esas comparaciones están expuestas al problema de las comparaciones


múltiples. Al comparar dos a dos, la probabilidad de que aparezca más de una
resultado estadísticamente significativo aumenta artificialmente, llevándonos a
la conclusión de que exista una diferencia cuando no hay suficientes evidencias
para llegar a esa conclusión. A que rechacemos la Ho siendo verdadera (error
tipo I).

La solución estadística es un contraste de hipótesis llamado “análisis de la


varianza”. Pero, como queremos comparar medias, como se comparan usando
varianzas.

Las hipótesis como hemos dicho que se comparan medias corresponde a un


contraste de homogeneidad, y la hipótesis nula es:

Ho: μ1=μ2=…μi

Y la alternativa es que al menos una media es distinta al resto


Varianza intra-grupos y entre-grupos

Las observaciones provienen de distintos grupos, definidos por una


característica (un tratamiento, un rasgo, etc). Si suponemos que las medias de
los grupos son iguales, tienen que ser iguales a un valor común, que
llamamos la media total, porque la obtenemos con el total de observaciones.
Las diferencias entre las medias de cada grupo y la media total deben ser
iguales o muy parecidas:

Estas diferencias se llaman entre grupos. Como recordaremos, esas


distancias las debemos elevar al cuadrado, para evitar que se anulen. ¡Y ya
empiezan a parecerse a una varianza!

Por otro lado en cada grupo encontraremos que las observaciones varían
alrededor de la media de ese grupo:

Estas distancias nos permiten calcular la varianza intragrupo

El análisis de la varianza se basa en comparar la varianza entregrupos con la


intragrupos. Si la primera es mucho menor, estaremos más inclinados a pensar
que los grupos no muestran diferencias. Sin embargo, cuando ocurre lo
contrario, nuestra opinión se inclinará hacia el rechazo de la hipótesis nula,
declarando el resultado como estadísticamente significativo.

También podría gustarte