Está en la página 1de 76

UNIVERSIDAD NACIONAL MAYOR DE SAN

MARCOS
F8ACULTAD DE PSICOLOGIA

METODOS DE INVESTIGACION CUANTITATIVA

ANALISIS DE DATOS DE INVESTIGACION


Mg. Luis Miguel Escurra M.

2 0 1 9
Proceso de análisis

Datos Análisis Resultados

• Insumos • Proceso • Producto

Kline (2009) señala que el concepto de validez de conclusiones


estadísticas, implica el uso apropiado de los métodos
estadísticos en el análisis de las variables de interés.
¿Hasta qué punto son correctas las inferencias que se realizan a
partir del análisis de las variable observadas?
Ideas sobre el análisis de datos

Los psicólogos han aprendido a expresar los


hallazgos de sus investigaciones con números,
pero esto tiene algunos problemas (Wright,
2003):

➢ No se reportan los resultados estadísticos de una


manera clara y comprensible.

➢ Los análisis estadísticos no han sido conducidos


de una manera apropiada.
Deben elegirse las técnicas estadísticas en
concordancia con los objetivos e hipótesis
planteados, para ello hay que considerar:

1. Nivel de medición de las variables.

2. Supuestos de las técnicas estadísticas.

Recordar que pueden existir más de una técnica


que se aplica de forma pertinente al mismo
problema.
Reportar siempre los estadísticos descriptivos
básicos: media aritmética, desviación
estándar, porcentajes, etc.

El tipo de hipótesis examinadas está


determinado por el diseño, no por el tipo de
análisis estadístico.

Debe evitarse describir una hipótesis asociativa


como si fuese causal.

Wright (2003).
Recomendaciones
Utilizar estrategias gráficas para aproximarse a los datos
como es el análisis exploratorio de datos (AED).

Parsimonia al analizar los datos, no utilizar una técnica


compleja sólo para impresionar a los lectores. Si los
supuestos de otras técnicas más simples se cumplen,
basta con usar esas técnicas simples.

Más importante que elegir el programa estadístico, es


verificar que los resultados sean correctos, entender
qué significan. Jamás deben reportarse los resultados
de un programa estadístico si no los entendemos.
(Wilkinson y TFSI, 1999)
Reporte de resultados estadísticos

La aproximación dominante en la actualidad en los


análisis estadísticos, es reportar los valores p
asociados a un contraste de hipótesis.
Se interpretan de forma inadecuada el valor p, si
se piensa que es la probabilidad de rechazar la
hipótesis nula, cuando en realidad es la
probabilidad de observar un resultado tan
extremo como el observado, siendo verdadera
la hipótesis nula.
En la práctica es imposible demostrar la verdad de
una hipótesis nula. Señalar su verdad es un
error.

Wright (2003).
No debe reportarse p < .05 como significativo,
sino como estadísticamente significativo.

Se debe señalar el valor p exacto, a menos


que tenga muy poco espacio para los
decimales (p < .001).

Wright (2003).
Algunas ideas sobre el análisis de datos

Gliner, Leech y Morgan (2002) revisan textos de


estadística y encuentran que en general no se
discuten las controversias en torno al modelo
de contraste de significancia estadística de la
hipótesis nula (NHST) y tratan sólo de manera
marginal dos de las concepciones erróneas
sobre los valores p:
➢ Un menor valor p implica una relación o un
efecto más fuerte.
➢ La significancia estadística indica una
significancia práctica.
Al reportar los resultados no deben quedarse
solamente con: “se rechazó la hipótesis nula”;
además de la significancia estadística siempre
debe reportarse un estimado del tamaño del
efecto y la potencia estadística.
Si las unidades de medición tienen un significado,
se prefiere un tamaño del efecto no
estandarizado, que uno estandarizado.
Cada vez que sea posible, se debe incluir una
estimación del intervalo de confianza del
tamaño del efecto.

(Wilkinson y TFSI, 1999; Wright ,2003).


Considerar el efecto de los valores extremos y
utilizar métodos robustos.
Ejecutar los análisis con y sin esos valores
extremos para asegurarse que los resultados
no son producto de anomalías en los datos
(Wilkinson y TFSI, 1999; Wright ,2003).
Reportar la potencia lograda, siendo el mínimo
convencional .80 (Wright, 2003).
Reportar los intervalos de confianza y la
significación estadística, usando técnicas como
el bootstrapping, para liberarse del supuesto
de normalidad (Diaconis y Efron, 1983).
El tamaño del efecto
Cohen (1988) define el tamaño del efecto como “el grado
en que el fenómeno se presenta en la población” (p.
9), o “el grado en el que la hipótesis nula es falsa” (p.
10).

Vacha-Hasse y Thompson (2004) expresan que el término


tamaño del efecto alude a “cualquier estadístico que
cuantifica el grado en que los resultados de la muestra
divergen de la hipótesis nula” (p. 473).

Grissom y Kim (2005) indica que “un tamaño del efecto


mide el grado en que la hipótesis nula es falsa” (p. 4).

12
Kelley y Preacher (2012) indican que el tamaño del efecto
es una reflexión cuantitativa de la magnitud de algún
fenómeno que se usa para abordar un aspecto de
interés.
Se debe considerar que la estimación del tamaño del
efecto es un estadístico, mientras el tamaño del efecto
de la población es un parámetro.
Kelley y Preacher (2012) describen las facetas del tamaño
del efecto en correspondencia a cómo son usados.
La primera faceta hace referencia a la dimensión del
tamaño del efecto es decir el tipo de información de
interés.
La segunda a la operacionalización del tamaño del efecto
por medio de una ecuación,
La tercera, al valor particular del tamaño del efecto.
13
Faceta 1:
La dimensión del tamaño del efecto
Alude la abstracción de una cualidad cuantificable en una
alternativa generalizable que no tiene una unidad en
particular.
Por ejemplo, la variabilidad, que puede ser
operacionalizada en unidades de varianza, desviación
estándar, rango, etc. Pero la dimensión del tamaño de
la variabilidad no tiene una unidad específica, es una
abstracción relacionada al grado en que los valores
difieren, la variabilidad será así una cantidad a ser
cuantificable, y por lo tanto orientada al tipo de
información de interés.

14
Faceta 2:
La medida del tamaño del efecto
Hace referencia a la ecuación que define una particular
implementación del tamaño del efecto según una
determinada dimensión de interés
.
Por ejemplo, una medida usada para operacionalizar la
dimensión del tamaño del efecto para una diferencia
estandarizada de medias se puede definir como (M1 –
M2)/DEagrupado. Donde el Mj denota la media del j-
ésimo grupo (j = 1,2) y DEagrupado es la raíz cuadrada
del estimador insesgado de la varianza entre los
grupos.
15
Faceta 3:
El valor del tamaño del efecto
Cuando se aplica una medida del tamaño del efecto a un
conjunto de datos se obtiene un número al que se
denomina valor del tamaño del efecto.
El valor del tamaño del efecto es literalmente la magnitud
de algún fenómeno obtenido a partir de los datos,
estadísticos o parámetros.
Por ejemplo, el valor obtenido para la medida del tamaño
del efecto “diferencia estandarizada de medias”, la que
operacionaliza la “distancia entre dos medias
grupales”, en un estudio puede ser d = .70.

16
Cada una de las tres facetas del tamaño del efecto
(dimensión del tamaño del efecto, medida del
tamaño del efecto y valor del tamaño del
efecto) son referenciados de manera
simplificada como el tamaño del efecto en
diferentes contextos.

Esto usualmente no implica un problema en la


práctica, sin embargo, para cualquier valor del
tamaño del efecto, necesariamente se debe
especificar la medida del tamaño del efecto
correspondiente a fin de clarificar el análisis.

17
Tabla 1
Algunas medidas de tamaño del efecto usadas frecuentemente

Técnica estadística Índices


Fuerza de la asociación variables cuantitativas r, r2, r parcial, 
Fuerza de la asociación tablas de contingencia , V de Kramer, tau
Estimaciones de riesgo en tablas de
RR, OR
contingencia
Diferencia de grupos independientes y
d cohen, g de
relacionados, incluyendo comparaciones post –
Hedges, Glass
hoc.
ANOVA (global) 2
Regresión lineal (global) R2
Estimaciones de riesgo en tablas de
RR, ORa
contingencia
Nota: Se puede encontrar una buena introducción al tema del tamaño del efecto en
Ferguson, 2009.
aEl odds ratio se usa además como medida del tamaño del efecto de los

predictores en la regresión logística.


Tabla 1
Clasificaciones para evaluar el tamaño del efecto

Efecto r d Cohen Eta () Eta2 (2) V Cramer G Cohen

Nulo 0.00 – 0.09 0.00 – 0.19 0.00 – 0.09 0.00 – 0.01 0.00 – 0.13 0.00 – 0.04

Pequeño 0.10 – 0.29 0.20 – 0.49 0.10 – 0.24 0.02 – 0.05 0.14 – 0.34 0.05 – 0.14

Mediano 0.30 – 0.49 0.50 – 0.79 0.25 – 0.39 0.06 – 0.13 0.35 – 0.64 0.15 – 0.24

Grande 0.50 – 1.00 0.80 a más 0.40 – 1.00 0.14 – 1.00 0.65 – 1.00 0.25 – 0.50
La potencia de una prueba
estadística (1-β)
La potencia de una prueba estadística o el poder
estadístico es la probabilidad de que la
hipótesis nula sea rechazada cuando la
hipótesis alternativa es verdadera (es decir, la
probabilidad de no cometer un error de Tipo II)

La potencia es en general una función de las


distribuciones posibles, a menudo determinada
por un parámetro, bajo la hipótesis alternativa.
20
A medida que aumenta la potencia, las
probabilidades de presentar un error del tipo II
disminuyen.

La probabilidad de que ocurra un error de tipo II se


conoce como la tasa de falsos negativos (β).

La potencia es igual a 1 - β, y también se conoce


como la sensibilidad.

21
El análisis de la potencia se utilizar para:
a) Calcular el tamaño mínimo de la muestra
necesario para que uno pueda detectar
razonablemente un determinado tamaño del
efecto.
b) Calcular el tamaño del efecto mínimo que es
probable que se detecte en un estudio usando
un tamaño de muestra dado.
c) Realizar comparaciones entre diferentes
procedimientos de análisis estadísticos: por
ejemplo, entre uno paramétrico y una prueba
no paramétrica de la misma hipótesis.

22
Interpretación de la potencia
estadística
No existen normas formales para la potencia estadística, la
mayoría de los investigadores evalúan el poder de
sus pruebas con 1- β = 0.80 como un estándar para
la adecuación.
Esta convención implica un relación de cuatro a uno entre
la β riesgo y la α riesgo. β es la probabilidad de un
error de tipo II; α es la probabilidad de un error de tipo
I, 0.20 y 0.05 son valores convencionales para β y α).
Existen ocasiones en que esta ponderación de 4 a 1
es inapropiado.

23
Por ejemplo: En medicina, las pruebas son a
menudo diseñados de tal manera que no se
produzcan falsos negativos (errores de tipo
II). Pero esto plantea inevitablemente el
riesgo de obtener un falso positivo (un error
de tipo I). La razón es que es mejor decirle a
un paciente sano "es posible que hayamos
encontrado algo - vamos a probar más.", Que
decirle a un paciente enfermo "todo está bien"

El análisis del poder es apropiado cuando la


preocupación es con el rechazo correcto, o
no, de una hipótesis nula.
24
En muchos casos se trata de conseguir una más
precisa estimación del tamaño del efecto
poblacional.
Por ejemplo, si esperamos que la correlación a
nivel poblacional entre la inteligencia y el
desempeño laboral sea alrededor de 0.50, un
tamaño de muestra de 20 nos dará una
potencia estadística de aproximadamente
80% para un α = 0,05 de dos colas para
rechazar la hipótesis nula de correlación cero.
Sin embargo, al hacer este estudio es
probable que estemos más interesados en
saber si la correlación es 0,30 o 0,60 o 0,80.

25
En este contexto, se necesita una muestra
mucho más grande con el fin de reducir
el intervalo de confianza de la
estimación a un rango que sea
aceptable para los propósitos del
estudio.

26
Interpretación de la Potencia Estadística (1 - )

Potencia Error tipo II Interpretación


(1 - β) (β)

1.00 0.00 Si hay un efecto será detectado


0.80 0.20 Si hay un efecto será detectado
el 80% de las
0.50 0.50 Si hay un efecto será detectado
el 50% de las veces
0.20 0.80 Si hay un efecto será detectado
el 20% de las veces
0.00 1.00 Si hay un efecto nunca será
detectado

27
Pruebas Estadísticas Paramétricas

Permiten contrastar hipótesis de variables


relacionadas con parámetros poblacionales,
(μ, σ, π, ρ) por ello deben cumplir los
siguientes requisitos:

a) Los datos deben ser cuantitativos.


b) Los datos deben tener una distribución
Normal.
c) Las varianzas de las puntuaciones
deben ser homogéneas
(homoscedasticidad).
Pruebas Estadísticas No-Paramétricas

Permiten contrastar hipótesis que no están


relacionadas con parámetros poblacionales,
se les denomina de libre distribución, para su
aplicación se deben cumplir los siguientes
requisitos:
a) Los datos pueden ser cuantitativos, semi-
cuantitativos y en algunos casos cualitativos.
b) Los datos presentan una distribución que no
se aproxima a la distribución normal.
Prueba de Bondad de ajuste a la
curva normal de Shapiro Wilk

Mide el ajuste el ajuste de la muestra representada en el


papel probabilístico normal (P-P Plot) a una recta.
Permite establecer si los datos cuantitativos de una
muestra proceden de una población con una
distribución Normal, a fin de identificar si se puede
aplicar las estadísticas paramétricas.
Hipótesis Teórica
Ht:“La Distribución de la variable cuantitativa a
nivel poblacional no se aproxima la curva normal”

Hipótesis Estadística
He: W ≠ N

Sistema de Hipótesis Nula y Alterna

H0 : F(x) = N(,2)
H1 : F(x) ≠ N(,2)
33
ESTADISTICAS PARAMETRICAS
Prueba t de una
muestra
Una muestra

Prueba t de 2
muestras
independientes
Normalidad y Dos
otros supuestos muestras
Prueba t de 2
muestras
relacionadas

Tres o más muestras


Análisis de
Varianza
1) Prueba t de una muestra:

H 0 : 1 = 
H1 : 1  
H 0 : 1  
H1 : 1  

H 0 : 1  
H1 : 1  
Estadístico de contraste:

X −
t=
S
n
g.l. = n-1
El tamaño del efecto

El tamaño del efecto es una medida de la


relevancia o fortaleza de la diferencia que existe
entre dos o más medidas.

Se trata de establecer si los efectos


estadísticamente significativos son relevantes
en el campo de aplicación de la investigación.

El tamaño del efecto complementa a la estadística


inferencial, como los valores de p.
37
.d de Cohen

Es el valor absoluto de la diferencia entre la


media observada y la media poblacional
divididas entre la desviación estándar de la
población.

Si no se cuenta con la desviación estándar


poblacional se puede aplicar la desviación
estándar muestral.

38

Luis Miguel Escurra M. 39


El valor de d fluctúa entre 0 y 2.

Para interpretar los resultados se utiliza los


siguientes criterios:

.d de Cohen Efecto
0.00 – 0.19 Mínimo
0.20 – 0.49 Pequeño
0.50 – 0.79 Mediano
0.80 – 2.00 Grande
40
2) Prueba t de dos muestras
independientes:

H 0 : 1 = 2
H1 : 1  2
H 0 : 1  2
H1 : 1  2
H 0 : 1  2
H1 : 1  2
Supuestos teóricos que se deben cumplir son:

A. Los puntajes de cada una de las dos muestras deben


provenir de poblaciones que presentan distribuciones
normales (Aplicar Kolmogorov – Smirnov-Lilliefors o
Shapiro Wilk a cada grupo.
B. Las muestras deben ser aleatorias, aunque no es
necesario que tengan el mismo tamaño.
C. Las varianzas deben ser homogéneas, en caso
contrario aplicar el factor de corrección respectivo,
para ello se debe aplicar el test de contraste de
homogeneidad de varianzas de Levene.
Hipótesis Estadística:

He : V  
M

Sistema de Hipótesis:

H :V = 
0
M

H :  
1
V M
Tamaño del efecto:
d de Cohen
Es el valor absoluto de la diferencia entre la media
observada de primer grupo y la media observada
del segundo grupo divididas entre la desviación
estándar conjunta de los 2 grupos.

El estadístico no se ve afectado por las diferencias


de las varianzas de las muestras, aunque puede
dar resultados sesgados si las muestras son
pequeñas.

44

Luis Miguel Escurra M. 45


3) Prueba t de muestras relacionadas:

H 0 : 1 = 2
H1 : 1  2
H 0 : 1  2
H1 : 1  2
H 0 : 1  2
H1 : 1  2
Hipótesis Estadística:

H e
:  
1 2

Sistema de Hipótesis:

H 0
: = 
1 2

H :  
1
1 2
Tamaño del efecto

Es el valor absoluto de la diferencia entre la


media observada más elevada y la media
menos elevada divididas entre la
desviación estándar de la media más
elevada.

Para analizar el tamaño del efecto se aplica la


d de cohen para grupos relacionados.

48
49
4) Análisis de Varianza de un Factor
(ANOVA)

H0: j j = j’
H1: j j ≠ j’
j es el número de niveles distintos de la variable
independiente. Se les denomina también grupos o
tratamientos.
La hipótesis nula establece que todas las j medias son
iguales.
La hipótesis alterna establece que al menos una de las
j medias es distinta a las demás.
Supuestos del ANOVA

➢ La variable independiente o factor que forma


los grupos a comparar es por lo menos de
nivel nominal.
➢ Todas las observaciones son independientes.
➢ La variable dependiente o medida en cada
grupo tiene distribución normal.
➢ La varianza de los grupos es homogénea.
Tabla de ANOVA
Los resultados de un ANOVA se suelen representar en una
tabla como la siguiente:
Fuente de SC G.l. MC F
variación (SC/G.l.)

Entre grupos SC_entre J -1 SC_entre/ g.l. MC_entre /


MC_dentro
Dentro de los SC_dentro N–J SC_dentro / g.l.
grupos
Total SC_total N-1

J: número de grupos
N : número total de observaciones
Una vez verificado que se cumplen los requisitos se
procede de la siguiente forma:

4) Si las varianzas son homogéneas se aplica el análisis


Anova F.

5) Si las varianzas no son homogéneas se aplica el


factor de corrección por medio de las pruebas de
Welch o Brown-Forsythe.

6) Si se encuentran diferencias estadísticas


significativas. se aplican los contrastes a posteriori a
fin de identificar donde se encuentran los grupos
diferentes

53
Si las varianzas son homogéneas, se aplica uno de los
siguientes análisis en el contraste a posteriori:

- Prueba de la diferencia menos significativa (DMS).


- Prueba de las Diferencias mínimas Tukey.
- Prueba de Bonferroni o Dunn-Bonferroni
- Prueba de Sheffe.
- Prueba de Tukey.
- Prueba GT2 de Hochberg.
- Prueba de Gabriel.
- Prueba S-N-K (Student-Newman-Keuls).
- Prueba de rangos de Duncan.

54
Si las varianzas no son homogéneas. se aplica
uno de los siguientes análisis en el contraste a
posteriori:

- Prueba de Games – Howell.

- Prueba de C de Dunnett.

- T2 de Tamhane.

- T3 de Dunnett.

55
Tamaño del efecto
Eta cuadrado (2)
Se utiliza para evaluar el tamaño del efecto del
ANOVA, debido a que hay una variable de
intervalo o razón medida y otra nominal
que forma los grupos.

Representa la proporción de varianza en la


variable cuantitativa, explicada por la
variable nominal.
57
Para medir la fuerza de la asociación se aplica el tamaño del efecto de
acuerdo a la clasificación de Cohen.

Eta Cuadrado (2) Clasificación

0.00 – 0.01 Mínimo

0.02 – 0.05 Pequeño

0.06 – 0.13 Mediano

0.14 – 1.00 Grande


58
ESTADISTICAS NO PARAMETRICAS
Prueba Binomial

Una muestra

U de Mann-Withney

No Dos
Normalidad muestras
Prueba de los Rangos
con signo de Wilcoxon

Prueba de Kruskal-
Tres o más muestras Wallis
PRUEBA BINOMIAL
Permite contrastar hipótesis sobre la comparación
de proporciones.

H0: p = p0
H1: p  p0
H0: p ≤ p0
H1: p  p0
H0: p ≥ p0
H1: p  p0
La proporción propuesta se compara con la
probabilidad binomial de ocurrencia del
evento seleccionado.

Se aplica cuando se quiere analizar una


variable que es dicotómica o ha sido
dicotomizada.

61
Tamaño del efecto

Se calcula a través de la formula


proporcionada por cohen:

Cohen g = po - 0.50

Donde:
Po = proporción más grande obtenida.

62
Para medir el tamaño del efecto, se aplica el tamaño del efecto de acuerdo a
la clasificación del g de Cohen.

.g de Cohen Clasificación
0.00 – 0.04 Nulo
0.05 – 0.14 Pequeño
0.15 – 0.24 Mediano
0.25 – 0.50 Grande

63
LA PRUEBA U DE MANN-WHITNEY

La prueba U de Mann-Whitney es una alternativa


a la prueba t de student para dos grupos
independientes, cuando:

1) No se cumplen los supuestos en los que se


basa la prueba t (normalidad y
homoscedasticidad)

2) No es apropiado utilizar la prueba t porque el


nivel de medida de los datos es ordinal.
Las Hipótesis estadísticas que se pueden probar,
con la U de Mann-Whitney son referidas a la
función de distribución y tiene los siguientes
casos:

H0: F1(x) = F2(x)


H1: F1(x) ≠ F2(x)
H0: F1(x) ≤ F2(x)
H1: F1(x)  F2(x)
H0: F1(x) ≥ F2(x)
H1: F1(x)  F2(x)
Tamaño del efecto

66
LA PRUEBA DE LOS RANGOS CON SIGNO
DE WILCOXON
La prueba W de Wilcoxon es una excelente
alternativa a la prueba t de student para
grupos relacionados. Se utiliza cuando :

1) Las puntuaciones de la variable estudiada no


presentan normalidad ni homoscedasticidad.

2) La variable es por lo menos de nivel de


intervalo.
Las Hipótesis estadísticas que se pueden
probar, con la prueba de Wilcoxon son:
H 0 : Mediana ( X 1 − X 2 ) = 0
H 1 : Mediana ( X 1 − X 2 )  0

H 0 : Mediana ( X 1 − X 2 )  0
H 1 : Mediana ( X 1 − X 2 )  0

H 0 : Mediana ( X 1 − X 2 )  0
H 1 : Mediana ( X 1 − X 2 )  0
CONDICIONES PARA LA APLICACIÓN DE LA
PRUEBA DE LOS RANGOS CON SIGNO DE
WILCOXON

1) Se basa en el cálculo de las diferencias en ambas


mediciones y la asignación de rangos a esas
diferencias.

2) Las diferencias pueden ser positivas o negativas.

3) Luego se calcula el estadístico de contraste


utilizando la sumatoria de rangos de las
diferencias mas frecuentes.
Tamaño del efecto

70
ANALISIS DE VARIANZA POR RANGOS
DE KRUSKAL WALLIS

El análisis de varianza por rangos de Kruskal – Wallis


se aplica cuando:

1) No existe normalidad en los puntajes de cada


muestra.

2) No se cumplen el supuesto de homocedasticidad.

3) El nivel de medida de los datos es ordinal.


Las Hipótesis estadísticas que se
pueden probar, son:

H0: j Rpj = Rpj´

H1: j Rpj ≠ Rpj´


Tamaño del efecto

Para el caso del análisis de varianza por rangos


de Kruskall-Wallis no hay una medida
general del tamaño del efecto, pero se
recomienda que para hacer contrastes a
posteriori por pares de grupos se hagan las
pruebas U de Mann-Whitney y en cada una
de ellas se calcule el tamaño de efecto con la
formula de r.

73
Contrastes a posteriori
Si la aplicación del análisis de varianza por
rangos de kruskall-Wallis indica que existen
diferencias estadísticas significativas por lo
menos entre dos grupos, se puede aplicar
contrastes a posteriori.
Se sugiere aplicar la prueba U de Mann-
Whitney entre todos los pares de grupos

74
Por ejemplo:

Analizar si existen diferencias en el Control Externo


de acuerdo al Deporte que practican.

H0: j Rpj = Rpj´

H1: j Rpj ≠ Rpj´


Los contrastes a posteriori indican que:

Se aprecia un mayor desempeño en el grupo


que practica Tenis de mesa (Rp =78.48)
que en los grupos de Tae Kwon Do (Rp =
56.95), Karate (Rp = 37.06) y el Atletismo
(Rp=33.16).

También podría gustarte