Está en la página 1de 5

Estadística Inferencial

Estadística inferencial
 Se pretende generalizar los resultados. Los parámetros pueden ser inferidos (siempre con cierto margen de
error) de los estadísticos y de ahí el nombre de estadística inferencial.
 Se utiliza para probar hipótesis y estimar parámetros.
 En estos casos consiste en el cálculo de un intervalo numérico, con centro en el estimador muestral, conocido
como intervalo de confianza, que contiene al valor del parámetro, con una probabilidad conocida y elegida por el
investigador (90%, 95%, 99%). Las generalizaciones, a semejanza de las restantes pruebas estadísticas,
también están sujetas a error; nunca se puede estar absolutamente confiado de que la generalización sea
correcta.
 En la práctica, los investigadores no construyen una distribución de muestreo y calculan las regiones críticas de
la distribución, los datos recolectados en el estudio se emplean para calcular una estadística de prueba por
medio de una fórmula apropiada. Con cada estadística de prueba se relaciona una distribución teórica.
 El investigador puede comparar el valor de la estadística de prueba calculada con los valores de un cuadro que
especifican los limites críticos para la distribución aplicable.
 Al designar un nivel de significación (probabilidad de cometer un error) se establece una regla de decisión, que
consiste en rechazar la hipótesis nula si la estadística que se prueba cae en un región crítica de la distribución
teórica aplicable y en aceptarla en caso contrario.

Prueba de Hipótesis
 Hipótesis (proposición respecto a uno o varios parámetros) lo que el investigador hace a través de las pruebas
es observar si la hipótesis es congruente con los datos obtenidos en la muestra (probabilística)
 Si es congruente con los datos, se sostiene como un valor aceptable del parámetro. Sino lo es se rechaza.

Pruebas de hipótesis con análisis paramétricos


 Debe cuidarse que la o las poblaciones estudiadas cumplan las siguientes condiciones:
1) La distribución poblacional de la variable dependiente debe ser normal: el universo tiene una distribución normal
en la variable estudiada.
2) Cuando dos o más poblaciones son estudiadas, deben tener una varianza homogénea: las poblaciones en
cuestión poseen una dispersión similar en sus distribuciones.
 Si alguna de ellas no se cumpliera, los resultados obtenidos no son confiables. Como muchas veces el
investigador no puede determinar a priori con certeza alguna de ellas, los presupone como ciertas, bajo
determinadas condiciones. (Teoría de las probabilidades, guarda cierto margen de error)
 Las pruebas estadísticas paramétricas más utilizadas son:
 Coeficiente de correlación de Pearson y regresión lineal
 Prueba T
 Prueba de contraste de la diferencia de proporciones
Coeficiente de correlación de Pearson (r)
 Analiza la relación entre dos variables de una misma población, medidas en un nivel por intervalos o de razón.
 Se calcula a partir de las puntuaciones obtenidas para dos variables en un muestra. Se relacionan la
puntuaciones obtenidas de un variable con las puntuaciones obtenidas de otra variable, en los mismos sujetos.
 Resultados: 0.00 no existe correlación entre las variables +1.00 correlación positiva perfecta. (el signo indica la
dirección de la correlación (positiva o negativa) y el valor numérico, la magnitud de la correlación.

Correlación positiva perfecta (directa) Correlación negativa perfecta (inversa)

Correlación positiva (directa) Correlación negativa (inversa)

Correlación nula

Regresión lineal
 Cuando se estudian dos características simultáneamente sobre una muestra, se puede considerar que una de
ellas influye sobre la otra de alguna manera. El objetivo principal de la regresión es descubrir el modo en que se
relacionan.
 Se estima el efecto de una variable sobre otra. Está asociado con el coeficiente r de Pearson.
 Si se grafican en un sistema de ejes cartesianos (eje horizontal el valor de la variable independiente, y en el eje
vertical el valor de la variable dependiente)
 Los pares ordenados que corresponden a los valores que toman ambas variables en una misma medición, se
observará una distribución de puntos que si se aproxima a una recta, implica una correlación más fuerte,
mientras que si los puntos se distribuyen de manera amorfa, mostrarán una correlación débil. Si la pendiente de
la recta es positiva, la correlación es positiva, y si la pendiente es negativa, la correlación es negativa.
La prueba t (de Student)
 Evalúa si dos grupos difieren entre sí de manera significativa respecto a sus medias
 La hipótesis de investigación propone que los grupos difieren significativamente entre sí y la hipótesis nula
propone que los grupos no difieren.
 La comparación se realiza sobre una misma variable, en dos grupos diferentes. Si hay diferentes variables, se
efectuarán varias pruebas t ( una para cada variables). Por ejemplo: un experimento con dos grupos, donde a
uno se le aplica el estímulo experimental y el otro grupo es el control.

Los pasos de la prueba de hipótesis


 Planteo de Hipótesis---------------- Formulación estadística
Hipótesis Nula Ho:μ (de la muestra) = valor hipotetizado
Hipótesis Alternativa H1:μ (de la muestra) ≠ valor hipotetizado
 Existen otras posibilidades de formular estas hipótesis
 La Ho establece una relación entre un estadístico y un parámetro, que se pone a prueba. Formula coincidencia,
igualdad o no diferencia entre el valor poblacional de la muestra y el valor hipotetizado.
 En caso de rechazar Ho debe existir una hipótesis alternativa respecto del valor del parámetro.
 La hipótesis alternativa es la que afirma que la diferencia de resultados entre las condiciones se debe a la
variable independiente del experimento.
 La hipótesis determina la ubicación de la zona de rechazo y puede establecer un planteo uni direccional o
bidireccional para la prueba de hipótesis.
 Prueba será bidireccional: cuando la hipótesis alternativa no especifica la dirección en que el valor se aparta
del señalado en la hipótesis nula, esto origina que la región de rechazo se encuentre a ambos lados de la
distribución.
 Ejemplo: Ho: μ = μ
H1 : μ ≠ μ
 Prueba unidireccional: cuando la hipótesis alternativa especifica una dirección del efecto de la variable
independiente como mayor (o menor) que el valor hipotetizado del parámetro.
 Planteo unidireccional derecho: Si el investigador tiene como hipótesis alternativa que el valor de la muestra (y
por lo tanto el valor de la población de la cual proviene) será significativamente mayor que el valor hipotetizado,
la región de rechazo se encontrará en el extremo derecho de la distribución.
 Ejemplo: Ho: μ ≤ μ
H1: μ > μ

 Planteo unidireccional izquierdo: Si el investigador tiene como hipótesis de que el valor muestral (y por lo tanto el
valor poblacional de la cual proviene) es menor que el valor hipotetizado para la población, la región de rechazo
entonces estará ubicada en el extremo izquierdo de la distribución.
 Ejemplo: Ho: μ ≥ μ
H1: μ < μ
 Establecer el nivel de significación estadística. El investigador debe fijar criterio para la regla de decisión
(aceptar o rechazar la hipótesis nula) Un nivel α de 0,05 suele ser aceptable. Si se requiere de una prueba más
rigurosa, el nivel α puede fijarse en 0,01 o 0,001
 Seleccionar una prueba de una o dos colas. En la mayor parte de los casos debe emplearse una prueba de
dos colas.
 Calcular los grados de libertad (número de observaciones)
 Obtener un valor tabulado para la prueba estadística. Para todas las estadísticas de prueba se han
desarrollado distribuciones teóricas que permiten determinar si los valores obtenidos de la estadística de prueba
rebasan el rango de probabilidad de que la hipótesis nula sea verdadera. Para ello debe consultarse la tabla
teórica correspondiente a la estadística de prueba que se ha utilizado e identificar el valor crítico localizando el
punto de cruce correspondiente a los grados de libertad y al nivel de significancia estadística pertinente.
 Comparar la estadística de prueba con el valor tabulado. En el paso final se compara el valor de la estadística
tabulado con el obtenido mediante el cálculo. Si el valor absoluto de la estadística de prueba es mayor que el
tabulado, el resultado es estadísticamente significativo; si es menor, el resultado es no significativo.
Nivel de significación
 El análisis de los datos nos puede llevar a rechazar Ho, cuando es cierta y en ese caso estamos cometiendo un
error de inferencia, denominado error tipo I. Este error lo debe fijar el investigador previo a realizar el estudio, es
un valor de probabilidad y se simboliza con α. Este valor nos dará el tamaño de la región de rechazo y como α
es la probabilidad de tomar una decisión incorrecta, es preferible que dicho valor sea bajo.
Realidad
Decisión
Hipótesis nula verdadera Hipótesis nula  falsa
Rechazar la hipótesis nula Error alfa o tipo I Correcto
No rechazar la hipótesis nula Correcto Error beta o tipo II

 Ejemplo: puedo emplear α= 0,05 o 0,01 o 0,001 son los más comunes
 Si se trabaja con α= 0,05 quiere decir que Ho sería rechazada en 5 % de los estudios en los que es cierta. Pero
por otro lado 95 de 100 de los estudios repetidos bajo las mismas condiciones no rechazará Ho si es cierta.
 Si el α= 0,01 estamos dispuesto a cometer el error tipo I rechazar Ho en menos de 1 decisión de 100 cuando Ho
es cierta.

Pruebas de diferencias de proporciones


 Es una prueba estadística para analizar si dos proporciones (dos grupos) difieren significativamente entre sí.
 La comparación se realiza sobre una misma variable, en dos grupos diferentes. Si hay varias, se efectuará una
prueba de diferencia de proporciones por variable.

Prueba de hipótesis con análisis no paramétricos.


 La mayoría de estos análisis no requiere de presupuestos acerca de la forma de la distribución poblacional.
Aceptan distribuciones no normales.
 La prueba no paramétrica más utilizada es: la ji cuadrado o X2

La Chi cuadrada o ji cuadrado o X2


 Es una prueba estadística para evaluar hipótesis acerca de la relación entre dos variables categóricas, de nivel
nominal o ordinal. No considera relaciones causales.
 Permite decidir si una diferencia de esta magnitud en las proporciones refleja un probable efecto experimental
real o si obedece únicamente a fluctuaciones al azar.
 Se calcula a partir de tablas de contingencia para describir las frecuencias de los casos que caen en las
diferentes clases.
 Las frecuencias esperadas se calculan con base a las frecuencias esperadas totales de los renglones y
columnas de una tabla de contingencia; estas frecuencias representan los valores que podrían obtenerse en las
celdas de la tabla de contingencia si no hubiera relación entre las dos variables.

 

 Ejemplo de che cuadrada


Adherencia del paciente al tratamiento Grupo experimental Grupo control Total
No adherencia 23   (63,89) 13 (36,11) 36 (100)
Adherencia 46   (88,46) 6  (11,54) 52 (100)
Total 69  (78,41) 19 (21,59) 88 (100)
 Para comprobar si ha variado la adherencia del paciente al tratamiento. Usaremos la prueba Chi-cuadrado de
Pearson, con corrección de Yates. Obteniendo como resultado un valor de p = 0,0127. Esto nos indica que han
disminuido significativamente la adherencia en el grupo control.
Análisis de Varianza (ANOVA)
 Es una técnica estadística diseñada para comparar la varianza de dos poblaciones a partir del análisis de las
varianzas de las muestras respectivas. Webster (1998) aplica el concepto de ANOVA al contexto de un
experimento y la define como “... el procedimiento [que] se puede aplicar a la determinación de si un tratamiento
en particular aplicado a una población tendrá efecto significativo sobre su media,” (p. 595).
 Aplicar el ANOVA requiere cumplir con dos criterios específicos:
 - Las poblaciones de estudio deber ser normales y tener varianzas iguales.
 - Seleccionar las muestras independientemente.

También podría gustarte