Está en la página 1de 19

SPSS

Para poder llevar a cabo un análisis estadístico cualquiera necesitamos, en


primer lugar, datos sobre los se efectuara el análisis. El editor de datos es la
ventana SPSS que contiene el archivo de datos en que se basan todos los
análisis.

DEFINIR VARIABLES EN EL SPSS


_ Pulsar la solapa Vista de Variables para que el editor de datos muestre la
ventana de definición de variables.

Ya en la ventana vista de variables podemos llevar a cabo todas las tareas


relacionadas con la definición de una variable; a la que se le asigna nombre y
etiqueta, definir el tipo de variable, modificar el número de decimales, entre
otras modificaciones que te permite la solapa vista de variables.
PRUEBA KRUSKAL – WALLIS
 Es una prueba no paramétrica.
 Trabaja con un diseño para grupos independientes que emplea k números
de muestras.
 Método que se usa como sustituto para el a nova paramétricos.
 No supone normalidad en la población ni homogeneidad de varianza.

PRUEBA H DE KRUSKAL-WALLIS

Este contraste permite decidir si puede aceptarse la hipótesis de que k muestras


independientes proceden de la misma población o de poblaciones idénticas con
la misma mediana. El único supuesto necesario es que las distribuciones
subyacentes de las variables sean continuas y que éstas hayan sido medidas
por lo menos en una escala ordinal.

Para el cálculo del estadístico de prueba se ordenan las n observaciones de


menor a mayor y se les asignan rangos desde 1 hasta n. A continuación, se
obtiene la suma de los rangos correspondientes a los elementos de cada
muestra, Rj y se halla el rango promedio.

PARA QUE UTILIZAMOS LA PRUEBA DE KRUSKAL WALLIS

 Para probar si un grupo de datos proviene de la misma población

 Para comparar varios grupos, pero usando la mediana de cada uno de ello,
en lugar de las medias

 Se utiliza cuando se requiere comparar 3 o más poblaciones

CALCULANDO EL ESTADISTICO DE KRUSKAL WALLIS

El estadístico de prueba de kruskall wallis se basa en la suma de los rangos de


muestra y se calcula como se indica a continuación:

[ ]
k 2
12 Ri
W= ∑
nT ( nT +1 ) i=1 ni
−3 ( nT +1 )

Donde:

K=numero de poblaciones

ni=numero de elementos en la muestra i

nT =∑ ni =numero total de los elementos entodas muestras


R❑
i =suma de losrangos de la muestra i

EJEMPLO: se determinó el crecimiento de unas plantas, con relación a tres


diferentes tipos de tratamientos de abono, después de 30 días de cultivo se
quiere saber el crecimiento de las plantas y la variación entre los tratamientos.

TRATAMIENTO

1 2 3

17 8 2

20 7 5

PASO 1: Con ayuda del 40 9 4 Excel realizamos los


rangos y la sumatoria de la misma.
31 8 3

35

PASO 2: llenamos la vista de variables


Ya llena la vista de variables tenemos:

PASO 3: Seguidamente insertamos los datos de los rangos de cada tratamiento


en el spss. Luego damos clic en analizar (pruebas no paramétricas- cuadro de
diálogos antiguos- k de muestras independientes)

PASO 4: Nos resultara un cuadro de dialogo: se pasa la variable TRATAMIENTO


para la Lista Variables de Pruebas, y luego se pasa la variable GRUPO a la
Variable de Agrupación.
PASO 5: Enseguida nos vamos al
botón donde dice definir rangos, le
damos clic y saldrá otro cuadro de
dialogo en donde pondremos mínimo
1 y en máximo 3. Clic en continuar.

PASO 6: damos clic en la prueba H de Karikal Wallis, y aceptar.

RESULTADOS:

Rangos
Rango
GRUPO N promedio
TRATAMIE GRUPO 5 11,00
Estadísticos de pruebaa,b
NTO 1
TRATAMIEN
GRUPO 4 6,50
TO
2
H de Kruskal- 10,711
GRUPO 4 2,50
Wallis
3
gl 2
Total 13
Sig. asintótica ,005
a. Prueba de Kruskal Wallis
b. Variable de agrupación:
GRUPO
 HIPOTESIS NULA: el crecimiento de las plantas después de 30 días con
los tres tipos tratamientos no son diferentes
 HIPOTESIS ALTERNA: el crecimiento de las planta después de 30 días
con los tres tipos de tratamientos son diferentes.
 P-valor: 0.005 =0.5%
 Con una probabilidad de error del 0.5 % aceptamos la Hipótesis Alterna.
 CONCLUSION: Se concluye que el crecimiento de las plantas después de
30 días son diferentes, como también se observa en el cuadro de kruskal
wallis que el tratamiento 1 es el más efectivo.

PPRUEBA DE ANCOVA
EL ANALISIS DE LA COVARIANZA

El análisis de la covarianza o ANCOVA, es un modelo lineal general con una


variable cuantitativa y uno o más factores. El ANCOVA es una fusión
del ANOVA y de la regresión lineal múltiple. Es un procedimiento estadístico que
permite eliminar la heterogeneidad causada en la variable de interés (variable
dependiente) por la influencia de una o más variables cuantitativas
(covariables). Básicamente, el fundamento del ANCOVA es un ANOVA al que a la
variable dependiente se le ha eliminado el efecto predicho por una o más
covariables por regresión lineal múltiple. La inclusión de covariables puede
aumentar la potencia estadística porque a menudo reduce la variabilidad.

RESUMIDAMENTE
Interpretamos ancova de la siguiente manera:
En el análisis de varianza las variables independientes con las que se trabaja
son de naturaleza cualitativa, nominal o categórica y sus modalidades (que se
asocian con los distintos grupos del diseño) se denominan efectos o
tratamientos. Las variables independientes incluidas en los diseños de análisis
de varianza reciben el nombre de «factores».
TIPOS DE VARIABLE

 Es una combinación de dos técnicas: Análisis de la Varianza y Análisis de


Regresión.

 En el Análisis de la Covarianza:

 La variable respuesta es cuantitativa y

 Las variables independientes son cualitativas y cuantitativas.

OBJETIVOS DEL ANALISIS DE LA COVARIANZA

a) eliminar cualquier error sistemático fuera del control del investigador


que puede sesgar los resultados.

b) tener en cuenta las diferencias en las respuestas debidas a las


características propias de los encuestados.

USOS DE ANALISIS DE LA COVARIANZA


Los usos más importantes del análisis de la covarianza son:
1. Para controlar el error y aumentar la precisión.
2. Ajustar medias de tratamientos de la variable dependiente a las diferencias
en conjuntos de valores de variables independientes correspondientes.
SUPUESTOS PARA HACER ANCOVA
1.- Mismos supuestos del ANOVA
- NORMALIDAD
- HOMOCEESTALIICIDAD
- PUNTUCAIONES INDEPENDIENTES
2.- La covariable a de ser CUANTITATIVA
3.- Relación entre la Variable dependiente y la covariable debe ser LINEAL
4.- Homogenidad de regresión en los grupos(es decir que las rectas son
paralelas)
EJEMPLO:
El investigador hace un estudio en la escuela profesional de EPISA tomando
como muestra el salón 1ro A con una población de 10 estudiantes agrupados
en 2 grupos; las que cuentan con TIC y TRADICIONAL queriéndose saber el
rendimiento de inglés que se logra después de aplicar una covariable (ingles
inicial).
PROCEDIMIENTO SPSS.
PASO 1: Llenamos nuestra tabla de datos en el programa IBM-SPSS. Vamos a
analizar/modelo lineal general y clic en la opción univariado.

PASO 2: Una vez en modelos univariados pasamos la variable


dependiente(calificacion), los factores fijos(grupos) y las covariables(ingles
inicial).

PASO 3: Posterior a ello nos


dirigimos a gráficos y jalamos
grupo al eje horizontal y le
damos a añadir.
PASO 4: Luego entramos a la
casilla de opciones nos
cercioramos que este
seleccionado los datos de:

- Estadísticos descriptivos.

- Pruebas de
homogeneidad.

- Estimaciones del tamaño


de efecto.

RESULTADOS:
HIPOTESIS
H0: Los resultados de las calificaciones del inglés final varían en los grupos de
TIC y Tradicional con respecto al inglés inicial.
HA: Los resultados de las calificaciones del inglés final no varían en los grupos
de TIC y tradicional con respecto al inglés inicial.
Valor p=0.096=9.6%
DECISIÓN
Con una probabilidad de error de 9.6% aceptamos HO.
CONCLUSION:
Los resultados obtenidos vemos claramente la diferencia en la utilización de
covarianza en los grupos de TIC y TRADICIONAL, es decir la corrección de las
medias para disminuir el error, lo cual implica la utilización de ancova.

PRUEBA DE MCNEMAR
Test de McNemar
Es una prueba estadística que permite identificar modificación en una variable
categórica dicotómica a través del tiempo, se realizan dos medidas una antes y
otra después, que hay en medio: manipulación experimento o un periodo de
observación estudio observacional.
¿Qué variable usa esta prueba?
Variable dicotómica, variable que pueden tomar dos posibles valores.
Para qué sirve:
Sirve para estudios experimentales y observacionales en cualquier caso se trata
de un estudio longitudinal porque tiene dos medidas.
Qué condiciones requiere:
- Datos seleccionados al azar

- Datos pareados

Cuándo usar esta prueba:


Cuando tenemos muestras dependientes una de otra
Cuando se desea probar la aceptación de un tratamiento

EJEMPLO: Se desea saber si la exposición realizada en el curso de estadística


del VII-A de la EPISA influyo o no en el estado anímico de los estudiantes.

PROCEDIMIENTO SPSS:
PASO 1: Insertamos los datos en el SPSS. Después nos vamos a la opción
analizar /estadístico descriptivos y hacemos clic en tablas cruzadas.

PASO 2: Seleccionamos la prueba de McNemar. Clic en continuar.


PASO 3: En el cuadro de mostrar casillas seleccionamos las siguientes opciones.
Continuar y aceptar.

Seguidamente se mostraran los resultados.


RESULTADOS:
Tabla cruzada ANTES*DESPUES
DESPUES Total
NO DEPRESI
DEPRESION ON
ANT NO Recuento 8 15 23
ES DEPRESION Recuento 8,3 14,7 23,0
esperado
% del total 32,0% 60,0% 92,0
%
DEPRESION Recuento 1 1 2
Recuento ,7 1,3 2,0
esperado
% del total 4,0% 4,0% 8,0%
Total Recuento 9 16 25
Recuento 9,0 16,0 25,0
esperado
% del total 36,0% 64,0% 100,0
%

Pruebas de chi-cuadrado
Significa
ción
Valor exacta
(bilateral
)
Prueba de
,001a
McNemar
N de casos
25
válidos
a. Distribución binomial utilizada.
HIPÓTESIS:

- Ho: La exposición realizada en el curso de estadística del VII-A de la EPISA


no influyo en el estado anímico de los estudiantes

- H1: La exposición realizada en el curso de estadística del VII-A de la EPISA


si influyo en el estado anímico de los estudiantes

Lectura de P Valor = 0.001

Aceptamos la Hipótesis Alterna.


CONCLUSION:
La exposición realizada en el curso de estadística VII-A de la EPISA si influyo en
el estado anímico de los estudiantes.

PRUEBA DE FRIEDMAN
La prueba de friedman es una prueba no paramétrica desarrollada por el
economista milton friedman. Equivalente a la prueba ANOVA para medidas
repetidas en la versión no paramétrica.
Esta prueba puede utilizarse en aquellas situaciones en las que se seleccionan n
grupos de k de elementos de forma que los elementos de cada grupo sean lo
más parecidos posible entre sí, el método consiste en ordenar los datos por filas
o bloques, reemplazándolos por su respectivo orden.

Es una prueba no paramétrica de comparación de tres o más muestras


relacionadas, debe de cumplir las siguientes características:

 Es libre de curva, no necesita una distribución específica.


 Nivel ordinal de la variable dependiente.

Se utiliza para comparar más de dos mediciones de rangos (medianas)


y determinar que la diferencia no se deba al azar (que la diferencia sea
estadísticamente significativa).

EJEMPLO: Con el objeto de estudiar la diferencia de concentración de un toxico


en distintos órganos de peces, se extrae una muestra aleatoria de peces de un
rio y se estudia en cada uno de ellos la concentración del toxico en el cerebro y
corazón. Se quiere conocer si la concentración del toxico en los tres órganos es
igual o distinta.

PROCEDIMIENTO SPSS:

PASO 1: Digitar los datos en el spss. En el menú analizar seleccionar pruebas no


paramétricas y clic en k muestras relacionadas
PASO 2: Una vez introducido los datos pasamos las variables que se
quieren contrastar,
Seguidamente seleccionamos la prueba de Friedman y clic en aceptar.

RESULTADOS:

- En la primera tabla se muestra los rangos


medios correspondientes a cada variable.
- En la segunda tabla se muestran el número
de casos, el valor estadístico de contraste, los
grados de libertad y la significación
estadística, que es aproximada P<0.001.
CONCLUSION: Aceptamos la hipótesis alterna y rechazamos la hipótesis nula y
se concluye que existe diferencias significativas en la concentración del toxico
en el cerebro corazón y sangre.

PRUEBA DE RACHAS
Esta prueba de rachas se basa en datos muéstrales que tienen dos
características y analiza rachas de esas características para determinar si las
rachas parecen ser el resultado de algún proceso aleatorio, o si las rachas
sugieren que el orden de los datos no es aleatorio.
Una racha es una secuencia de datos que tienen la misma característica, la
secuencia es precedida y seguida por datos con una característica diferente o
por ningún dato en absoluto.

El principio fundamental de la prueba de rachas puede establecerse brevemente


como sigue:

Rechace la aleatoriedad si el número de rachas es muy bajo o muy alto.

REQUISITOS
 Los datos muéstrales están acomodados de acuerdo con algún
esquema de orden, por ejemplo, el orden en el que se obtuvieron los
valores muéstrales.
 Cada valor de los datos se puede categorizar en una de dos
categorías separadas.

CARACTERISTICAS

 La prueba de corrida o racha mide hasta qué punto en una variable


dicotómica la observación de uno de sus atributos puede influir en
las
Siguientes observaciones.

 Se observa la secuencia de un mismo atributo o cualidad.

 Serie de datos en los que hay muchas o pocas rachas.

CUANDO SE USA LA PRUEBA DE RACHAS


Se usa para verificar la hipótesis nula de que la muestra es aleatoria, es decir, si
las sucesivas observaciones son independientes. Este contraste se basa en el
número de rachas que presenta una muestra. Una racha se define como una
secuencia de valores muéstrales con una característica común precedida y
seguida por valores que no presentan esa característica. Así, se considera una
racha la secuencia de k valores consecutivos superiores o iguales a la media
muestral (o a la mediana o a la moda, o a cualquier otro valor de corte) siempre
que estén precedidos y seguidos por valores inferiores a la media muestral (o a
la mediana o a la moda, o a cualquier otro valor de corte).

EJEMPLO
Se realiza un estudio sobre el tiempo en horas de un tipo determinado de escáner antes de la
primera avería. Se ha observado una muestra de 10 escáner y se ha anotado el tiempo de
funcionamiento en horas: 18.21; 2.36; 17.3; 16.6; 4.70; 3.63; 15.56; 7.35; 9.78; 14.69. Se puede
considerar aleatoriedad en la muestra.

PROCEDIMIENTO EN EL SPSS:

PASO 1: Colocamos los datos en el SPSS. Seguidamente nos vamos ala pestaña analisar/pruebas no
parametricas /cuadros de dialogo antiguos y por ultimo clic en rachas.

PASO 2:En el cuadro prueba de rachas pasamos la variable tiempo ala lista contrastar variables seleccionamos
mediana y aceptar. Y nos saldran los resultados:
INTERPRETACION DE RESULTADOS:

• Valor de la prueba = 12.24: Es el punto de corte para dicotomizar la variable seleccionada.

• Casos < Valor de prueba = 5: De los 10 casos, 5 de ellos tienen valores menores que la mediana. Los
consideramos los casos negativos.

• Casos > Valor de prueba = 5: De los 10 casos, 5 de ellos tienen valores mayores que la mediana. Los
consideramos los casos positivos.

• Número de rachas = 7: Una racha se define como unas secuencias de casos al mismo lado del punto
de corte (sucesión de símbolos idénticos consecutivos).

• Z = 0.335: Valor experimental del estadístico de contraste.

• Sig. Asintót (bilateral) = 0.737: El p-valor o nivel crítico del contraste, que nos indica que no se debe
rechazar la hipótesis de aleatoriedad.

HIPOTESIS:

- Ho: Se puede considerar aleatoriedad en la muestra.


- H1: No se puede considerar aleatoriedad en la muestra.

P valor: 73%

CONCLUSION:

Con una probabilidad de error del 73% aceptamos la hipótesis nula. Y concluimos que si se puede considerar
aleatoriedad en la muestra.

También podría gustarte