Está en la página 1de 12

PRUEBAS NO PARAMÉTRICAS

Nombre Fórmula Utilidad (Cuándo se utiliza) Ejecución en SPSS Interpretación

Chi cuadrada Se utiliza para ver el Analizar>Estadísticos


sentido de la correlación desc.>Tablas cruzadas> 0:si existe concordancia
entre dos variables Filas y colum> perfecta entre O y E
nominales o de un nivel Estadísticos> x2>
superior usando una tabla Casillas> O y E> Valor grande: si existe una
de frecuencias (no es Continuar> Aceptar1.- gran discrepancia entre O
necesario saber el # de Analizar y E (Se deberá rechazar la
filas y columnas). hipótesis nula.)
2.-

Corrección de Yates Se hace para tener en Analizar>Estadísticos Hay que restar 0,5 a la
cuenta el hecho de que desc.>Tablas cruzadas> diferencia entre O y E al
tanto la prueba de chi Filas y colum> calcular el valor del
cuadrado como la prueba Estadísticos> x2> estadístico chi-cuadrado
de McNemar están Casillas> O y E>
sesgadas hacia arriba para Continuar> Aceptar
una tabla de contingencia
de 2 x 2

Prueba de la probabilidad p = (a + b)! (c + d)! (a + Se utiliza la prueba exacta


exacta de Fisher c)! (b + d)! / (a! b! c! d! de Fisher cuando se tienen ● Analizar > ● La primera tabla
n!) dos variables nominales. Estadísticas muestra el número
Se quiere saber si las descriptivas > de casos faltantes
proporciones para una Tablas de en el conjunto de
variable son diferentes contingencia : datos.
entre los valores de la otra ● Arrastrar las ● La segunda tabla
variableLa prueba exacta variables a Filas y muestra una tabla
de Fisher es más precisa Columnas>Estadí de referencias
que la prueba de chi- sticas > Marcar la cruzadas ambas
cuadrado o la prueba G de casilla junto a Chi- variables.
independencia cuando los cuadrado ● La tercera tabla
números esperados son >Continuar . muestra los
pequeños. Se ● Exacto> Marcar la resultados de la
recomiendausar la prueba casilla junto a prueba exacta de
exacta de Fisher cuando el Exacto >Continuar Fisher. (P bilateral
tamaño total de la muestra . y P unilateral)
es menor que1000, y usar ● Aceptar ● La hipótesis nula
la prueba de chi-cuadrado de la prueba
o G para tamaños de exacta de Fisher
muestra más grandes. es que las dos
variables son
independientes.
Dado que este
valor p no es
menor que 0.05,
no rechazamos la
hipótesis nula

Test de McNemar Analizar > Estadísticos El valor de McNemar nos


Se debe cumplir las descriptivos > Tablas de indica la probabilidad que
siguientes características: contingencia > Antes - hemos prefijado para
Filas ; Después - establecer un nivel de
• Los datos se ajustan a la Columnas > Estadístivos - significación, siendo la
distribución de chi > McNemar Casillas -> % más común p < 0,05 que
cuadrada • Nivel nominal Total Nivel de significancia se corresponde con
de la variable dependiente 5% > Aceptar McNemar igual o mayor de
3,841 para aceptar o
• Su función es comparar rechazar la rechazar la
el cambio en la distribución hipótesis nula.
de proporciones entre dos
mediciones de una
variable dicotómica y
determinar que la
diferencia no se deba al
azar (que las diferencia
sea estadísticamente
significativa). J

U de Mann Whitney Se utiliza para comparar Analizar > No En la tabla de Estadísticos


dos medias muestrales paramétricas> Cuadros de de Contraste se puede ver
que provienen de la misma diálogo antiguos > 2 el valor de U de Mann-
población, así como para muestras independientes > Whitney y el valor de p
probar si dos medias Seleccionar variables > (Sig. asintót. (bilateral)),
muestrales son iguales o Seleccionar variable de que nos indica si rechaza
no. agrupación la hipótesis nula , con un
nivel de significación del
5%.

Wilcoxon Se utiliza para comparar Analizar > No En la tabla titulada


dos mediciones de rangos paramétricas> Cuadros de “Rangos” vemos el tamaño
(medianas) y determinar diálogo antiguos > 2 de la muestra y sus
que la diferencia no se muestras relacionadas > rangos. En la tabla titulada
deba al azar (que la Pasar las dos variables > “Estadísticos de
diferencia sea Wilcoxon > Aceptar contrastes” se observa la
estadísticamente fila Sig. asintót. (biateral) .
significativa). De esta podemos decir
que, si el valor de p (Sig.
asintót. (biateral)) es
menor que 0,05, entonces
se rechaza la hipótesis
nulacon un nivel de
significación del 5%

Correlación de Spearman Suele utilizarse para


evaluar relaciones en las Analizar > Análisis de
que intervienen variables potencia > Correlaciones > El Coeficiente Spearman,, puede tomar un valor
ordinales. Se hace a Orden de rangos de
través de una gráfica de Spearman
dispersión. Establecer la
relación entre estas dos Un valor de +1 en significa una perfecta asociac
Seleccionar un valor de
variables continuas puede supuesto de prueba
tener varios objetivos. Uno
es evaluar el grado de (Tamaño de muestra
asociación entre ambas estimado o Potencia
variables, lo que se estimada).
consigue mediante el Un valor 0 en significa que no hay asociación de
coeficiente de correlación Al seleccionar Potencia
de Spearman. estimada, especificar el
valor Tamaño de muestra Un valor de -1 en significa una perfecta asociaci
en pares. El valor debe ser
un entero único mayor que
3. Al seleccionar Tamaño
de muestra estimado, Si el valor de se acerca a 0, la asociación entre l
introducir un valor de
Potencia para el valor de
estimación del tamaño de
la muestra. El valor debe
estar comprendido entre 0
y 1.

Especificar un valor que


especifique el valor de
hipótesis alternativo del
parámetro de correlación
en el campo Parámetro de
correlación de Spearman.
El valor debe ser un único
numérico entre -1 y 1.
Prueba de Kruskal-Wallis
La prueba H se utiliza Seleccione en los menús: El tamaño de la muestra
cuando no se cumplen los afecta el intervalo de
supuestos del ANOVA Analizar > Comparación confianza y la potencia de
(como el supuesto de de grupos - No la prueba.
normalidad). A veces se paramétrica > Prueba de
denomina ANOVA Kruskal-Wallis Generalmente, una
unidireccional sobre muestra más grande
rangos, ya que en la Pulse Seleccionar produce un intervalo de
prueba se utilizan los variables en la sección de confianza más estrecho.
rangos de los valores de variables dependientes y Con un tamaño de la
los datos en lugar de los seleccione una o más muestra más grande, la
puntos de datos reales. variables dependientes prueba también tendrá
numéricas. Pulse Aceptar más potencia para
Al ser no paramétrica, la cuando haya terminado. detectar una diferencia.
prueba no asume que los
datos provienen de una Pulse Seleccionar variable
distribución particular. La en la sección de variable
prueba de Kruskal Wallis de grupo y seleccione una
te dirá si hay una única variable de
diferencia significativa agrupación para agrupar
entre los grupos. Sin los casos
embargo, no te dirá qué
grupos son diferentes. Opcionalmente, puede
seleccionar las opciones
siguientes del menú
Configuración adicional:

Pulse Comparaciones para


solicitar varias
comparaciones de las
muestras k

Pulse Opciones para


especificar el intervalo de
confianza, el nivel de
significación y los valores
perdidos.

Pulse Ejecutar análisis.

PRUEBAS PARAMÉTRICAS

Nombre Fórmula Utilidad (Cuándo se utiliza) Ejecución en SPSS Interpretación

Prueba T de Student para Se usa cuando la variable .Si el valor p es menor que
muestras relacionadas es de naturaleza numérica Analizar > Comparar el nivel de significancia,
y los individuos en la medias > Prueba T para entonces podemos
muestra están pareados muestras relacionadas... rechazar la hipótesis nula.
de alguna manera (como Si el valor de p es igual o
un esposo y esposa) o las Seleccionar uno o más mayor que la hipótesis
mismas personas se usan pares de variables nula, entonces no
dos veces (por ejemplo, podemos rechazar la
antes y después del hipótesis nula.
procedimiento). Las
pruebas pareadas se usan
cuando desea minimizar la
posibilidad de que los
grupos de tratamiento y
control sean demasiado
diferentes.
Prueba T de Student para Se usa cuando la variable Si el valor p es menor que
muestras independientes es de naturaleza numérica Analizar > Comparar el nivel de significancia,
(por ejemplo, la altura de medias > Prueba T para entonces podemos
una persona o el peso de muestras independientes, rechazar la hipótesis nula.
una persona) y el Seleccionar las variables Si el valor p es igual o
investigador no hace de contraste cuantitativas. mayor que la hipótesis
ninguna combinación Se calcula una prueba t nula, entonces no
natural o intencional (como para cada variable. podemos rechazar la
emparejar estudiantes con hipótesis nula.
puntuaciones de lecturas o Seleccione una sola
de matemáticas similares) variable de agrupación y
pulse en Definir grupos
para especificar dos
códigos para los grupos
que desee comparar.

Regresión lineal simple Se usa para predecir el Gráficos > Generador de


valor de una variable gráficos >Elegir de>Click y R Cuadrado: Esta es la
según el valor de otra. La arrastrar Dispersión / proporción de la varianza
variable que desea Punto a la ventana de en la variable de respuesta
predecir se denomina edición principal> Arrastrar que se puede explicar por
variable dependiente. La la variable corrspondiente la variable explicativa.
variable que está al eje x y la
utilizando para predecir el correspondiente al eje y> Std. Error de la estimación:
valor de la otra variable se Aceptar El error estándar es la
denomina variable distancia promedio que los
independiente. valores observados caen
desde la línea de regresión

B no estandarizado
(constante) : Esto nos dice
el valor promedio de la
variable de respuesta
cuando la variable
independiente es 0.B no
estandarizado (v. indp.):
Esto nos dice el cambio
promedio en la variable de
respuesta asociado con un
aumento de una unidad en
la variableindependienete.

Sig (v. indp.): este es el


valor p asociado con la
estadística de prueba para
la variable independiente.
En este caso, dado que
este valor es menor que
0.05, podemos concluir
que la variable
independiente es
estadísticamente
significativa.

Regresión lineal múltiple Se utiliza para generar Analizar> Regresión>


conocimientos para los Lineal> arrastras R Cuadrado: Esta es la
gráficos que contienen al variables>aceptar proporción de la varianza
menos dos campos en la variable de respuesta
continuos con uno que se puede explicar por
identificado como el las variables explicativas.
destino y el otro como un
predictor. Además, se Std. Error de la estimación:
puede especificar un El error estándar es la
predictor categórico y dos distancia promedio que los
campos continuos valores observados caen
auxiliares en un gráfico y desde la línea de
se pueden utilizar para regresión.
generar un modelo de
regresión adecuado. F: Este es el estadístico F
general para el modelo de
regresión, calculado como
Regresión cuadrática
media / Residual
cuadrático medio.

Sig: este es el valor p


asociado con el estadístico
F general. Nos dice si el
modelo de regresión en su
conjunto es
estadísticamente
significativo o no. En otras
palabras, nos dice si las
dos variables explicativas
combinadas tienen una
asociación
estadísticamente
significativa con la variable
de respuesta.

B no estandarizado
(constante): Esto nos dice
el valor promedio de la
variable de respuesta
cuando ambas variables
predictoras son cero.

B no estandarizado (V ind
1): Esto nos indica el
cambio promedio en ella
asociado con un aumento
de una unidad en las v ind
1, asumiendo que la v ind
2 se mantiene constante.
ANOVA de un factor La tabla que contiene el Analizar >Comparar
estadístico de Levene nos medias > ANOVA de un Se utiliza en las siguientes
permite contrastar la factor > Lista de condiciones:
hipótesis de igualdad de dependientes (Variabe a
varianzas poblacionales. analizar) , Factor (VAriable Las observaciones son
Si el nivel crítico (sig.) es de clasificaión) > Opciones independientes: el valor de
menor o igual que 0,05, (seleccionar Descriptivos y una observación no afecta
debemos rechazar la Homogeneidad de el valor de otra.
hipótesis de igualdad de varianzas) ( valores
varianzas. Si es mayor , perdidos-Excluir casos Las poblaciones se
aceptamos la hipótesis de según análisis) > Post hoc distribuyen normalmente.
igualdad de varianzas. >
Las variaciones de las
poblaciones son las
mismas entre los grupos.
Esto también se conoce
como los datos que tienen
homogeneidad de
varianza.

ANOVA de medidas Se usa para comparar y Analizar >modelo lineal Si el valor p es menor que
repetidas buscar diferencias entre general > medidas 0.05, rechazamos la
las medias de las repetidas > llevar tablas hipótesis nula. Esto
mediciones (3 o más) de >captar significa que tenemos
una misma población pero evidencia suficiente para
en diferentes momentos o decir que existe una
en diferentes condiciones. diferencia
Por lo tanto, esta prueba estadísticamente
se utiliza para datos significativa entre la
relacionados o pareados. medias de la variable en
los diferentes.

Kolmorogov-Smirnov Analizar> Pruebas no Comprobamos el nivel de


Sirve para verificar si las paramétricas > K-S de 1 significación, si es menor
puntuaciones que hemos muestra> seleccionar una que 0.05 la distribución no
obtenido de la muestra o más variables de es normal, si es mayor que
contraste numéricas > 0.05 la distribución es
siguen o no una Opciones para obtener normal.
distribución normal. estadísticos descriptivos,
¿Provienen las cuartiles y controlar el
observaciones de la tratamiento de los datos
muestra de alguna perdidos > Aceptar
distribución hipotética?

Test de Levene Se utiliza para comprobar Analizar> Comparar


la hipótesis nula de que las medias > Medias > Lista Sig>0.05 -> Se afirma H0
muestras que se van a de dependientes (Variable
comparar proceden de una a comparar) y variables de H0:: No existen diferencias
población con la misma agrupación > Opciones > significativas entre las
varianza. Número de casos > varianzas de los grupos
Continuar > Aceptar
H1: Existen diferencias
significativas entre las
varianzas de al menos dos
grupos

Alfa de Cronbach La forma más sencilla de Se utiliza para evaluar la Analizar> Estadísticos El valor mínimo aceptable
calcular el valor del alfa de magnitud en que los ítems descriptivos= Tablas de para el coeficiente alfa de
Cronbach es multiplicar el de un instrumento están contingencia > Filas - el Cronbach es 0,70; por
promedio de todas las correlacionados. que tiene menos debajo de ese valor la
correlaciones observadas confiabilidad, Columnas - consistencia interna de la
en los ítems por el número el que tiene mas escala utilizada es baja.
de ítems que componen confiabilidad > Por su parte, el valor
una escala, y luego dividir Estadísticos > Kappa máximo esperado es 0,90;
el producto entre el por encima de este valor
resultado de la suma de 1 se considera que hay
más el producto de la redundancia o duplicación.
multiplicación del promedio Varios ítems están
de todas las correlaciones midiendo exactamente el
observadas por el mismo elemento de un
resultado de la resta de 1 constructo; por lo tanto, los
al número de items: {a= items redundantes deben
n.p / 1+p (n– 1)}, donde n eliminarse. Usualmente, se
es el número de ítems y p prefieren valores de alfa
es el promedio de todas entre 0,80 y 0,90. Sin
las correlaciones embargo, cuando no se
cuenta con un mejor
instrumento se pueden
aceptar valores inferiores
de alfa de Cronbach,
teniendo siempre presente
esa limitación

Kappa de Cohen Se utiliza cuando la Analizar> Estadísticos Si los evaluadores están


variable a medir por los descriptivos= Tablas de completamente de
dos índices es una contingencia > Filas - el acuerdo, entonces. k=1 .
variable nominal. que tiene menos Si no hay acuerdo entre
confiabilidad, Columnas - los evaluadores que no
el que tiene mas sea el que se esperaría
confiabilidad > por casualidad (como lo
Estadísticos > Kappa indica p e ) k= 0 ,. Es
posible que la estadística
sea negativa, lo que
implica que no existe un
acuerdo efectivo entre los
dos evaluadores o que el
acuerdo es peor que
aleatorio.

También podría gustarte