Está en la página 1de 24

ANÁLISIS DE DATOS Y ESTADÍSTICA APLICADA

TEMA 1: EL DISEÑO DE UN ESTUDIO


1. ¿QUÉ ES LA INVESTIGACIÓN?
La INVESTIGACIÓN es el proceso que, utilizando el método científico, permite obtener nuevos
conocimientos, resolver dudas y7o diagnosticar necesidades y problemas a efectos de aplicar los
conocimientos con fines prácticos. Es decir, resolver los problemas utilizando el método científico
para responder de forma adecuada y correcta.

2. ETAPAS DE LA INVESTIGACIÓN
Para asegurar que el conocimiento que obtengo es un conocimiento científico tengo que seguir
unas fases/etapas: OBSERVACIÓN INICIAL, BÚSQUEDA DE TEORÍAS, HIPÓTESIS, DISEÑO
DE LA INVESTIGACIÓN, RECOGIDA DE DATOS, ANÁLISIS DE DATOS.

2.1.OBSERVACIÓN INICIAL:

Ejemplo: en un colegio se observa mucha diferencia en el rendimiento académico de los


alumnos del profesor del grupo A y del profesor de grupo B

2.2.BÚSQUEDA DE TEORÍAS que puedan explicar o justificar lo observado.


- Éstas no tienen que ser excluyentes, es decir, puede haber diferentes teorías que
justifiquen la observación inicial y el problema de investigación. Pero yo me tengo que
centrar en una.
Ejemplo:
Teoría 1: Las estrategias de enseñanza utilizadas influyen en el rendimiento académico
o en la asimilación de contenidos.
Teoría 2: El clima del aula puede facilitar o dificultar el aprendizaje.
- A partir de esa observación, se formula el problema de investigación. Éste siempre
tiene que ser en forma de pregunta y ha de ser resoluble empíricamente)

2.3.Una vez establecido el problema de investigación, establezco la HIPÓTESIS e IDENTIFICO


LAS VARIABLES
- Éstas son tentativas de explicación de los fenómenos a estudiar. Es decir, son las
posibles respuestas que voy a dar a mi problema planteado y que van a guiar mi
investigación.
- TIPOS DE HIPÓTESIS:
o H. No científicas: no las podemos comprobar y, por tanto, no se pueden utilizar.
Ejemplo: Los mejores profesores obtienen mejor rendimiento de sus alumnos. H.
o H. Científicas: son las que tenemos que utilizar porque no tienen juicios de valor y
porque:
§ Se pueden evaluar empíricamente
§ Son concretas e identifican variables
§ Identifican el tipo de relación entre las variables
Ejemplo: la utilización de estrategias de enseñanza que permiten una mayor participación
de los estudiantes en el aula conduce a un mejor rendimiento académico.

Por otro lado, las HIPÓTESIS CIENTÍFICAS son la base de las HIPÓTESIS ESTADÍSTICAS. En
los análisis de datos hay dos tipos de hipótesis que se evalúan con los resultados de los análisis:
o Hipótesis alternativa (H1): es la hipótesis científica, la que formulamos y que indica que se
ha producido un efecto.
o Hipótesis nula (H0): es la contraria a la alternativa porque indica que un efecto NO se ha
producido. Ésta se acepta provisionalmente como verdadera hasta que se analicen los
datos. Si con mis datos soy capaz de rechazarla, significa que la H1 es cierta.
1
ANÁLISIS DE DATOS Y ESTADÍSTICA APLICADA

Finalmente, las hipótesis estadísticas pueden ser:


• H. Direccionales: sugieren una dirección en el efecto:
Ejemplo: La utilización de estrategias de enseñanza que permitan una MAYOR
participación de los estudiantes conduce a un MEJOR rendimiento académico.
En esta hipótesis alternativa se dice que una mayor participación mejora el rendimiento.
Por lo tanto, esta hipótesis está sugiriendo una dirección en el efecto.
Es decir, al alterar una variable, se modifica en un sentido la otra. “Si yo modifico X,
aumentará o disminuirá Y”
• H. No direccionales: no sugieren dirección en el efecto:
Ejemplo: La utilización de estrategias de enseñanza que permitan una MAYOR
participación de los estudiantes conduce rendimiento académico diferente.
En esta hipótesis alternativa se dice que una mayor participación conduce a un rendimiento
diferente. Por lo tanto, en esta hipótesis alternativa se sugiere un cambio, pero no se
especifica ninguna dirección.
Es decir, al alterar una variable, se modifica la otra, pero no indica en qué sentido.

Una vez tenemos formuladas nuestras hipótesis, el siguiente paso es decidir QUÉ MEDIR. Para
ello utilizamos las VARIABLES:
- Las variables son cualquier propiedad o característica que puede tomar diferentes
valores y se pueda medir. Éstas pueden variar entre personas, lugares o en el tiempo.

o TIPOS DE VARIABLES SEGÚN SU PAPEL EN EL ESTUDIO:


§ V. Independiente (en investigaciones experimentales): es la que el
investigador manipula para comprobar el efecto que tiene sobre la otra.
Ejemplo: las estrategias de enseñanza
En investigaciones correlacionales, se llama variable predictora.

§ V. Dependiente (en investigaciones experimentales): es la que se mide para


ver si la variable independiente la modifica o no.
Ejemplo: el rendimiento académico
En investigaciones correlacionales, se llama variable resultado.

o TIPOS DE VARIABLES SEGÚN LA ESCALA DE MEDIDA

TIPO EJEMPLOS
Cualitativa/Categórica: Binarias: tienen dos opciones de Sexo (hombre/mujer),
Aquellas que definen las características respuesta Ser fumador (sí/no)
de las personas, pero no se pueden
medir, ya que, aunque se les designe Nominales: tiene más de dos Estado civil (soltero/
un nº, éste no tiene valor métrico, sino opciones de respuesta casado/divorciado/viudo),
categórico. Color de pelo
Grupo sanguíneo
Clase social
Ordinales:
(baja/media/alta),
Tienen sentido de orden. Son cualitativas que se pueden ordenar, pero no se
Curso (1º, 2º, 3º, 4º, …)
puede calcular nada con los datos.
Talla de ropa (S/M/L/XL)
Cuantitativas/Continuas: Discretas: solo toman valores Nº de hijos
Aquellas que tienen un valor numérico. enteros, no permiten decimales.
Es decir, se puede calcular con os datos. De intervalo: permiten decimales, Horas día: 00:00h
pero en este tipo de variable el 0 no Temperatura (0,5ºC)
implica ausencia.
De razón: permiten decimales, Peso (0kg), Velocidad,
pero en este tipo de variable el 0 Distancia (3’5m), Notas
implica ausencia. num. (7,3)
2
ANÁLISIS DE DATOS Y ESTADÍSTICA APLICADA

2.4. Una vez hemos medido las variables, tenemos que saber CÓMO MEDIR, eligiendo el
DISEÑO DE INVESTIGACIÓN
- Hay DOS MÉTODOS básicos de investigación a partir de los que se pueden obtener
conclusiones diferentes:
o Diseño Correlacional: no hay manipulación de las variables. Los ambientes son
naturales con cierto grado de control. El investigador se limita a recoger los datos y
los resultados, y a compararlos.
o Diseño Experimental: hay una manipulación de las variables porque hay un grupo
control y otro experimental donde aplico las estrategias que yo quiero comprobar.
En este tipo de diseño se puede inferir CAUSALIDAD porque (siguiendo el ejemplo
del rendimiento) puedo decir que la utilización de determinada estrategia, mejora o
empeora el rendimiento de los alumnos.
- Una vez tenemos clara la diferencia entre un diseño experimental y un diseño
correlacional, y cuándo podemos establecer causalidad y cuándo no…

2.5. Tenemos que RECOGER LOS DATOS

- Para ello, hay DOS FORMAS. Saber distinguir entre estas dos formas de recogida de
datos es esencial, porque tienen un impacto muy importante en el tipo de test estadísticos
que se podrán utilizar después para analizar los datos. Así pues, las dos formas son:
o Diseño Independiente: en este tipo de diseño tenemos 2 grupos: uno
experimental, donde manipulo las variables; y otro de control. Así pues, la variable
dependiente solo se mide una vez en cada grupo (al final del estudio), y luego se
comparan los resultados de ambos.
o Diseño Dependiente: en este tipo de diseño, solo hay 1 grupo de sujetos, el cual
pasa por diferentes condiciones experimentales (V. Indep.) y al que mido varias
veces (V. Dep.) en diferentes momentos temporales, después de haber aplicado
las diferentes estrategias.

- Pero, ¿dónde recogemos estos datos? ¿Población o muestra?


o Población: es el conjunto de todos los elementos que comparten una determinada
característica. Puede ser finita (nº estudiantes de la VIU) o infinita (nº de amas
de casa) en función de que exista o no censo de la totalidad de sus elementos.
o Muestra: es el subconjunto de elementos de una población. Es decir, una parte
de la población debidamente seleccionada (los estudiantes del M. Psico de la VIU)
Para que ésta sea buena tiene que:
- Ser representativa
- Contener una parte del universo
- Su amplitud debe estar proporcionada a la población

3
ANÁLISIS DE DATOS Y ESTADÍSTICA APLICADA
2.6. Por último, se ANALIZAN LOS DATOS, y una buena forma de empezar es describiéndolos
(¿qué ha sucedido?) para después tratar de explicarlos (¿cómo ha sucedido?) y hacer
inferencias acerca de la población.

- Es importante hacer gráficos de los datos que hemos recogido, para visualizar la
distribución de los mismos, las relaciones entre variables y las diferencias entre
grupos.
- En EL 1ER ESTADIO DEL ANÁLISIS, es importante conocer cuál es la distribución
de los datos que tenemos entre manos. Para ello, utilizamos los histogramas, ya que
son muy útiles para determinar si la distribución de los datos es normal o no.

- En EL 2º ESTADIO DE ANÁLISIS, es importante describir las variables mediante el


análisis de los estadísticos descriptivos de tendencia central. Los más utilizados son:
o Media: es el promedio, la suma de todas las puntuaciones en la variable,
dividido por el número de casos.
o Mediana: es el valor de en medio. Una vez la variable se ha ordenado de
menor a mayor, el valor que separa la primera mitad de la segunda mitad es la
mediana. Si el número de puntuaciones que tenemos es par la mediana es la
suma de los dos valores centrales dividido entre 2.
o Moda: es simplemente la puntuación que ocurre con más frecuencia en los
datos.
PERO, ¿CUÁL DE LOS 3 ÍNDICES ES EL MÁS ADECUADO?
o Siempre que se pueda, la MEDIA, ya que es el mejor estimador.
o La MEDIANA se preferirá a la media cuando:
§ La variable esté medida en escala ordinal (porque no tiene valor
numérico)
§ Cuando haya valores extremos, ya que distorsionan la interpretación
de la media (ej: 3,6,8,9,124)
o La MODA se preferirá a la mediana o a la media cuando la variables esté
medida en escala nominal (soltero/casado/viudo,…)
- Y, por último, EN EL 3ER ESTADIO DE ANÁLISIS, es importante conocer la dispersión
de las variables. Ésta se refiere al grado de diseminación de los datos dentro de la
variable. Es decir, saber cuánto de concentradas o alejadas están las puntuaciones
respecto a la media.
Y para ello, se puede utilizar los siguientes estadísticos:
o Rango: la distancia entre el valor máximo y el valor mínimo de una variable.
(Desventaja: se ve muy afectado por los valores extremos)
o Varianza
o Desviación típica/estándar

4
ANÁLISIS DE DATOS Y ESTADÍSTICA APLICADA
TEMA 2: CONCEPTOS BÁSICOS DE ESTADÍSTICA: LOS MODELOS ESTADÍSTICOS

1. ¿QUÉ SON LOS MODELOS ESTADÍSTICOS?

Los MODELOS ESTADÍSTICOS son ecuaciones matemáticas que reproducen los fenómenos
que observamos de la forma más exacta posible. Es decir, tratan de traducir los datos que yo
he obtenido en una ecuación matemática. Y que, por tanto, permiten hacer una estimación de
lo que pasará.
En ciencias sociales, uno de los modelos más utilizados es EL MODELO LINEAL. Este es el
modelo en el que se basan test estadísticos como la regresión, la correlación o el análisis de
varianza (ANOVA). El modelo lineal trata de explicar los datos obtenidos en un estudio en base
a una línea recta.
Ejemplo: El siguiente gráfico pone en relación la motivación a principio de curso y la nota media
al final de curso y la resume en una línea recta. (a medida que aumenta la motivación, las notas
son mejores)

2. LA MEDIA COMO MODELO ESTADÍSTICO


Hay muchos tipos de modelos estadísticos, pero uno de los más simples que hay es el de la
MEDIA, porque la podemos utilizar para resumir y explicar los datos que contiene la variable.

Ejemplo: queremos saber el rendimiento en la asignatura de matemáticas de un grupo de 6 alumnos


que acuden a clases de refuerzo. Una forma simple de explicar estos datos es utilizando la media de sus
notas en matemáticas. En la tabla 1 están las notas de cada alumno.

ESTUDIANTE NOTA
Pedro 5
María 6
Luis 8
Estafanía 4
Julio 4
Cristina 6
MEDIA 5,5

Esta media es un valor hipotético que resume todas las puntuaciones de la variable y que podemos
utilizar para explicar los datos observados. Si sólo supiésemos la media de la variable, y alguien nos
preguntase, ¿qué nota ha sacado Pedro? No podríamos decir la nota exacta que han sacado, pero
podríamos aventurar que posiblemente sea una nota cercana a la media (5,5). Por este motivo, podemos
considerar la media como un modelo estadístico muy simple; ya que es un valor que resume y que
podemos utilizar para explicar los datos que contiene una variable.

5
ANÁLISIS DE DATOS Y ESTADÍSTICA APLICADA
Pero, ¿CÓMO DE BIEN ESTA MEDIA REPRESENTA LOS DATOS OBTENIDOS?

- Para saberlo, debemos contar con un valor que nos aporte información de cómo se ajusta
el modelo (la media) a los datos.
- Con la mayoría de modelos estadísticos podemos estimar si el modelo tiene un BUEN
AJUSTE evaluando cómo de diferentes son los datos reales que hemos recogido con
respecto al modelo que hemos calculado. La forma más sencilla de hacerlo es
calculando la diferencia entre el modelo y los datos reales. Es decir, saber la
distancia que hay de cada nota individual a la media. Y, cuanta menos distancia
haya, más real es y menos error habrá.
*ERROR o DESVIACIÓN = distancia de los datos reales con respecto a la media

- Por tanto, la ecuación que utilizaremos para averiguarlo será:

Puntuación Observadai = (modelo) + errori

Puntuación en el ExamenAlumno = media + errorAlumno

Puntuación en el ExamenPedro = media + errorPedro

5=5,5+(-0,5)

3. MODELOS ESTADÍSTICOS PARA EVALUAR HIPÓSIS: LA ESTADÍSTICA INFERENCIAL


PROCESO DE INVESTIGACIÓN:
- De una observación inicial se formulaba una teoría de la que se derivaban ciertas
hipótesis.
- Para el análisis de las hipótesis de la investigación, estas se reformulaban en la hipótesis
nula, que frecuentemente reflejaba la nulidad de efectos, y la hipótesis alternativa, que
frecuentemente reflejaba el efecto de interés en la investigación.
- Para averiguar cuál de estas dos hipótesis (nula vs. alternativa) es más probable que sea
cierta, utilizamos la ESTADÍSTICA INFERENCIAL. Y, el proceso que sigue la estadística
inferencial hasta llegar a aceptar o rechazar una hipótesis es el siguiente:

o El primer paso es construir un modelo estadístico que pensamos que puede


explicar bien los datos. Este modelo se basa en la hipótesis alternativa.
Así́, nuestras hipótesis podrían ser (para el ejemplo):
- H0: no hay relación entre la nota en el examen y el número de clases a las
que los alumnos han asistido.
- H1: las notas en el examen serán mejores a cuantas más clases de refuerzo
los alumnos hayan asistido.
La hipótesis alternativa (H1) sugiere un modelo lineal, a más clases mejores notas
en el examen. Este modelo lineal puede ser traducido en una operación
matemática que trate de predecir las notas en el examen a partir del número de
clases a las que los alumnos han asistido.
o El segundo paso, es calcular cómo de bien este modelo explica los datos que
hemos recogido. Es decir, evaluar la bondad de ajuste del modelo. Esto se
resume en la ecuación: Puntuación Observadai = (modelo) + errori
o El tercer paso es calcular la probabilidad de que nuestro modelo pueda explicar
tanta variación en los datos si suponemos que no hay ningún efecto en la
población. Si esta probabilidad es inferior a 0,05), entonces rechazaríamos la
hipótesis nula y (aceptaríamos la hipótesis alternativa).

6
ANÁLISIS DE DATOS Y ESTADÍSTICA APLICADA
4. TESTS ESTADÍSTICOS

Todos los TESTS ESTADÍSTICOS tratan de hacer lo mismo: comparar la cantidad de


información que el modelo puede explicar sobre los datos, con la cantidad de información que
el modelo no puede explicar.

𝑉𝑎𝑟𝑖𝑎𝑐𝑖ó𝑛 𝑒𝑥𝑝𝑙𝑖𝑐𝑎𝑑𝑎 𝑝𝑜𝑟 𝑒𝑙 𝑚𝑜𝑑𝑒𝑙𝑜 𝑒𝑓𝑒𝑐𝑡𝑜


𝑇𝑒𝑠𝑡 𝐸𝑠𝑡𝑎𝑑í𝑠𝑡𝑖𝑐𝑜 = =
𝑉𝑎𝑟𝑖𝑎𝑐𝑖ó𝑛 𝑛𝑜 𝑒𝑥𝑝𝑙𝑖𝑐𝑎𝑑𝑎 𝑝𝑜𝑟 𝑒𝑙 𝑚𝑜𝑑𝑒𝑙𝑜 𝑒𝑟𝑟𝑜𝑟

Como el test estadístico es el resultado de la división entre el efecto y el error, a medida que
el valor del test estadístico aumenta (por lo que hay más efecto y menos error), se reduce la
probabilidad de que el valor del test estadístico ocurra si la hipótesis nula (no hay ningún efecto)
es cierta.

Si P < 0,05 SE RECHAZA LA HIPÓTESIS NULA (H0)

5. ERROR TIPO I Y ERROR TIPO II

Hay dos tipos de errores que podemos cometer cuando aplicamos un test estadístico:

o Error tipo I: ocurre cuando obtenemos una probabilidad asociada al test estadístico que
nos hace rechazar la hipótesis nula (generalmente una ρ < 0,05), cuando realmente no
hay ningún efecto en la población.
Es decir, afirmamos que existe un efecto determinado cuando realmente NO es cierto.
Rechazamos la H0, cuando realmente es verdadera.

o Error tipo II: es el opuesto al error Tipo I, y ocurre cuando en la población realmente sí
que existe un efecto, pero los resultados de nuestra investigación nos llevan a afirmar
que este efecto no existe.
Es decir, afirmamos que NO existe un efecto determinado cuando realmente SÍ existe.

7
ANÁLISIS DE DATOS Y ESTADÍSTICA APLICADA
TEMA 3: EXPLORANDO SUPUESTOS

1. ¿QUÉ SON LOS SUPUESTOS?

Los SUPUESTOS de los test estadísticos son una serie de características que tienen que tener
los datos para poder utilizar en su análisis test estadísticos de tipo paramétrico.
Es decir, para poder aplicar un test paramétrico, los datos deben cumplir una serie de
características/supuestos básicos. (Ej. Tests Paramétricos: Pearson, Regresión, Análisis de
Varianza)
Sin embargo, hay tests NO paramétricos que son más flexibles y que no requieren de ningún
supuesto para poder ser aplicados. (Ej. Tests NO Paramétricos: Spearman, Wilcoxon,
Friedman, McNemar, Chi-Cuadrado, Mann-Whitney)

La mayoría de test paramétricos tienen 4 supuestos básicos, los cuales son: distribución
normal, la homogeneidad de varianzas, la escala de medida y la independencia. Veamos uno
por uno.

2. SUPUESTOS DE LOS TESTS ESTADÍSTICOS PARAMÉTRICOS



Los supuestos comunes a todos los test estadísticos de tipo paramétrico son:

- Distribución normal. Este supuesto en unos test significa que la distribución de la


variable tiene que ser normal (A. Varianza), y en otros es que la distribución de los errores
debe ser normal (Regresión).
- Homogeneidad de varianzas. En investigaciones en las que se quieran comparar dos
(o más) grupos, este supuesto quiere decir que las varianzas de los grupos deben ser
similares.
- En diseños de tipo correlacional, este supuesto significa que la varianza de una variable
debe ser estable en todos los niveles de la otra variable.
- La escala de medida en la que se ha medido la variable dependiente debe ser por lo
menos de intervalo (es decir, continua).
- Independencia:
o Diseños Dependientes: datos independientes entre sujetos porque la misma
variable se ha medido varias veces en el mismo sujeto.
o Diseños Independientes: cada variable se ha medido solo una vez en el mismo
sujeto.

Los supuestos de escala de medida e independencia provienen completamente del


diseño del estudio, por lo que es muy importante tenerlos en cuenta en la fase de diseño del
estudio. Una vez que hemos recogido los datos, sólo podemos explorar si los supuestos de
normalidad y homogeneidad de varianzas se cumplen.

3. EVALUACIÓN DEL SUPUESTO DE NORMALIDAD

Para evaluar si una variable tiene una distribución normal podemos utilizar tres métodos
complementarios:
1. Evaluación visual.
2. Evaluación de la simetría y curtosis.
3. Test estadísticos.

8
ANÁLISIS DE DATOS Y ESTADÍSTICA APLICADA

3.1.EVALUACIÓN VISUAL

Para evaluar si la distribución de una variable es normal, podemos utilizar gráficos. En


concreto 2 tipos: el histograma y el gráfico Q-Q.

- HISTOGRAMA: es un gráfico que muestra la frecuencia de aparición de las


puntuaciones de una variable (nº de veces que cada puntuación aparece en la
variable)
En él debemos evaluar si la distribución parece simétrica o no, y si es demasiado
apuntada o demasiado plana. En definitiva, hay que valorar si la distribución de los
datos se parece a la de una distribución normal.

DIST. NORMAL

DIST. NO NORMAL DIST. NO NORMAL

9
ANÁLISIS DE DATOS Y ESTADÍSTICA APLICADA

- GRÁFICO Q-Q: este gráfico muestra la probabilidad acumulada de una determinada


variable contra la probabilidad acumulada de la distribución normal.
En él aparece una línea diagonal que cruza el gráfico. Y en éste, debemos evaluar la
cercanía de las bolitas a la diagonal. Cuanto menos se alejen las bolitas
(probabilidad de los datos en la variable) de la línea diagonal (probabilidad esperada
si la variable fuese normal), la distribución de la variable se acercará más a una
distribución normal.

DIST. NORMAL DIST. NO NORMAL

El problema que tienen los gráficos es que su evaluación es subjetiva, por lo que es
importante también tener datos cuantitativos que nos den información sobre la forma de la
distribución. Los estadísticos que nos informan de la forma de la distribución en una variable
son los estadísticos de asimetría y curtosis.

3.2.EVALUACIÓN DE LA ASIMETRÍA Y LA CURTOSIS



INTERPRETACIÓN DE LOS VALORES DE ASIMETRÍA Y CURTOSIS:

- En una distribución normal los valores de asimetría y curtosis son iguales a 0.
Por lo tanto, cuanto más se alejen sus valores de 0, menos normal será la variable.
- Signo del valor de ASIMETRÍA:

§ si es positivo, significa que hay más cantidad de puntuaciones bajas de los


esperado en la variable (no simétrica; + casos en la parte izq. del gráfico)
§ si es negativo, significa que hay más cantidad de puntuaciones altas de los
esperado en la variable (no simétrica; + casos en la parte dcha. del gráfico)

- Signo del valor de la CURTOSIS:


§ Si es positivo, indica que la distribución es puntiaguda (leptocúrtica). Hay
más concentración de las puntuaciones.
§ Si es negativo, indica que la distribución es achatada (platicúrtica). Hay
menos concentración de las puntaciones.

10
ANÁLISIS DE DATOS Y ESTADÍSTICA APLICADA
3.3.EVALUACIÓN CON TESTS ESTADÍSTICOS

La tercera forma complementaria para evaluar si la distribución de una variable es normal
es analizar si la distribución de la variable se desvía de la distribución normal de forma
significativa. Para ello podemos utilizar el test de Kolmogorov-Smirnov o el test de
Shapiro-Wilk:

- DIFERENCIA ENTRE LOS DOS:


§ Shapiro-Wilk: en muestras pequeñas (hasta 50 casos)
§ Kolmogorov-Smirnov: en muestras grandes (más de 50 casos)

- INTERPRETACIÓN DE LOS DOS: estos dos test ponen a prueba la misma hipótesis
nula:
H0: la distribución de la variable es una distribución normal

Si p > 0,05 (mayor que), ACEPTAMOS la hipótesis nula: la distribución de la


variable ES NORMAL.
Si p < 0,05 (menor que), RECHAZAMOS la hipótesis nula: la distribución de la
variable NO ES NORMAL.

- Limitaciones de ambos: en muestras muy grandes, estos test tienden a ser


significativos (p<0,05) incluso cuando la variable se puede considerar normal.
Por este motivo, hay que seguir todos los pasos (de evaluar los histogramas, los
gráficos Q-Q, los valores de asimetría y curtosis y el resultado de estos test
estadísticos) para sacar la conclusión final de si la variable es normal o no.

4. EVALUACIÓN DEL SUPUESTO DE HOMOGENEIDAD DE VARIANZAS


El supuesto de homogeneidad de varianzas significa que:

• En diseños en los que hay grupos independientes, la varianza de la variable dependiente


debe ser similar en todos los grupos.
• En diseños en los que se estudia la relación entre dos variables cuantitativas
(correlacionales), la varianza en una variable debe ser estable en todos los niveles de la
otra variable.

La mejor forma de comprobar la homogeneidad de varianzas es:


1. Evaluación mediante gráficos
En diseños de RELACIÓN ENTRE 2 VARIABLES
En diseños INDEPENDIENTES: ¿La dispersión (varianza), a simple vista, es
¿La dispersión (varianza), a simple vista, es homogénea?
homogénea? NO, por tanto, hablaríamos de heterocedasticidad
NO, por tanto, hablaríamos de heterogeneidad. (heterogeneidad)

11
ANÁLISIS DE DATOS Y ESTADÍSTICA APLICADA

2. Evaluación mediante test estadísticos: Test de Levene



INTERPRETACIÓN DEL TEST DE LEVENE:

H0: La varianza de los grupos es igual o similar

- Si ρ < 0,05 (menor que), entonces rechazamos la hipótesis nula, y asumimos que
las varianzas entre los grupos son diferentes. Estamos en un escenario de
heterogeneidad de varianzas.
- Si ρ > 0,05 (mayor que), aceptamos la hipótesis nula y asumimos que las varianzas
son similares entre grupos, por lo tanto, hay homogeneidad de varianzas.

LIMITACIÓN DEL TEST DE LEVENE:

- En muestras muy grandes el test de Levene puede ser significativo incluso cuando
la diferencia entre las varianzas de los grupos sea muy pequeña. Por este motivo, en
muestras grandes se puede comprobar el resultado utilizando otros estadísticos
como la FMax de Hartley.

12
ANÁLISIS DE DATOS Y ESTADÍSTICA APLICADA

TEMA 4: EXPLORANDO RELACIONES I: CORRELACIÓN

1. ¿QUÉ ES UNA CORRELACIÓN? CÓMO VISUALIZAR LA RELACIÓN ENTRE DOS


VARIABLES
La CORRELACIÓN es la relación que puede existir entre dos variables. Y esta relación puede
ser de 3 tipos:

- POSITIVA: se da cada vez que a medida que aumentan los valores en una variable,
también aumentan en la otra. Ejemplos:
“Los que sacaron mejores notas a los 11 años, también sacaron mejores notas a los 14 años.”
“A medida que aumentan las notas a los 11 años, las notas a los 14 años aumentan también.”
“Los que sacaron peores notas a los 11 años, también sacaron peores notas a los 14 años.”

- NEGATIVA: se da cada vez que a medida que aumentan los valores en una variable,
también disminuyen en la otra. Ejemplos:
“A medida que aumentan las notas a los 11 años, las notas a los 14 años descienden.”
“A medida que aumentan las horas de estudio para un examen, la nota que se obtiene
empeora.”

- SIN RELACIÓN: el aumento de una variable no influye en la otra, de forma que


cuando una variable aumenta o disminuye, la otra se mantiene constante.

*LA CORRELACIÓN NO IMPLICA CAUSALIDAD: PODRÍA EXISTIR OTRA VARIABLE


Antes de analizar estadísticos para ver si existe una relación significativa entre dos variables,
es muy importante VISUALIZAR DE MANERA GRÁFICA la relación entre ambas. Y, el gráfico
que se utiliza para representar la relación entre dos variables de tipo continuo se llama
GRÁFICO DE DISPERSIÓN.

VISUALMENTE:
CORRELACIÓN POSITIVA O DIRECTA
13
ANÁLISIS DE DATOS Y ESTADÍSTICA APLICADA
2. ¿CÓMO SE MIDEN LAS RELACIONES?

La mejor forma de medir la relación entre dos variables es mediante la COVARIANZA. Ésta es
el grado en el que dos variables cambian a la vez, y nos indica si la posible relación entre las
variables es positiva (directa), negativa (inversa) o incorrelacionada. Pero no nos dice nada
sobre el grado de relación entre las variables.

§ Si la Sxy > 0: la relación es positiva o directa

§ Si la Sxy < 0: la relación es negativa o inversa

§ Si la Sxy = 0: no hay relación, es incorrelacionada

Alumnos que
estudian por
encima de la
media, sacan
notas por encima
de la media

Media Nota Examen

Media Horas Estudio

Alumnos que
estudian por
debajo de la
media, sacan
notas por debajo
de la media

ES POSITIVA

Pero, para poder comparar entre estudios y saber el grado de relación, necesitamos
estandarizar la varianza.

14
ANÁLISIS DE DATOS Y ESTADÍSTICA APLICADA
3. ESTANDARIZANDO LA COVARIANZA:
3.1.COEFICIENTE DE CORRELACIÓN DE PEARSON

La covarianza estandarizada es el coeficiente de correlación, y se conoce como el coeficiente


de correlación de Pearson.

INTERPRETACIÓN DEL COEFICIENTE DE CORRELACIÓN DE PEARSON:

A. SABER CÓMO ES LA RELACIÓN


Al estandarizar la covarianza conseguimos un valor que oscila entre -1 y +1, de forma
que cuanto más se acerque al ±1 mejor será el grado de relación lineal. Ahora bien:

• Si el coeficiente de correlación es igual a +1: indica que las dos variables tienen
una correlación positiva perfecta.
• Si el coeficiente de correlación es igual a -1: indica que las dos variables tienen
una correlación negativa perfecta.
• Si el coeficiente de correlación es igual a 0: indica que las dos variables no tienen
ninguna relación.
Además, el valor del coeficiente de correlación nos da una idea del tamaño de la
relación entre las dos variables:

- Valores de hasta ± 0,1: relación pequeña/baja.


- Valores de hasta ± 0,3: relación mediana/media.
- Valores de hasta ± 0,5: relación alta/fuerte.

B. SABER SI HAY RELACIÓN


Ahora falta saber si la relación es estadísticamente significativa (p/sig). Por tanto, con
el coeficiente de correlación se evalúa la hipótesis nula:

H0: La correlación entre las dos variables es 0


H1: La correlación entre las dos variables es distinta de 0

- Si ρ > 0,05 (mayor que), aceptamos la hipótesis nula y asumimos que NO HAY
CORRELACIÓN.
- Si ρ < 0,05 (menor que), entonces rechazamos la hipótesis nula, y asumimos que
HAY CORRELACIÓN ENTRE LAS VARIABLES.

SUPUESTOS QUE SE TIENEN QUE CUMPLIR PARA UTILIZAR EL C. CORRELACIÓN


DE PEARSON:

- La distribución de las variables tiene que ser normal.


- Las variables tienen que tener una escala de medida cuantitativa/continua
(intervalo o razón). Sin embargo, una de las dos variables podría ser categórica pero
con sólo 2 categorías excluyentes

Entonces, ¿qué pasa si esto no se cumple?

3.2.Podemos utilizar EL COEFICIENTE DE CORRELACIÓN DE SPEARMAN: cuando las


variables no siguen una distribución normal (Test No paramétrico) o están medidas en una
escala ordinal (y cuantitativas/continuas también). Se interpreta igual que Pearson.
3.3.Podemos utilizar EL COEFICIENTE DE CORRELACIÓN DE KENDALL: cuando las
variables no siguen una distribución normal (Test No paramétrico) y el tamaño de la muestra
es pequeño. Se interpreta igual que Pearson.
15
ANÁLISIS DE DATOS Y ESTADÍSTICA APLICADA
TEMA 5: EXPLORANDO RELACIONES II: REGRESIÓN

1. ¿QUÉ ES UNA REGRESIÓN?

El análisis de la REGRESIÓN sirve para predecir el comportamiento de una variable en función


de la otra. Es decir, no sólo sirve para medir el tipo de relación, sino también predecir el
comportamiento de una variable en función de la otra.

Por tanto, la idea del análisis de regresión es: elaborar un modelo para poder predecir los
valores de la VARIABLE DEPENDIENTE (VARIABLE DE RESULTADO) a partir de una o
más VARIABLES INDEPENDIENTES (VARIABLES PREDICTORAS).

Hablamos de regresión SIMPLE cuando solo hay una variable predictora.


Por el contrario, hablamos de regresión MÚLTIPLE cuando solo hay + de una variable
predictora.

2. ¿CÓMO PUEDE UNA LÍNEA RECTA EXPLICAR LOS DATOS?


En REGRESIÓN, el modelo estadístico es lineal, lo que significa que resumimos los datos que
hemos recogido en el estudio en base a una línea recta.

Esta línea recta, sale de la siguiente ecuación general:

Yi=(b0+b1 Xi ) + errori
Donde:
§ Yi es la variable dependiente
§ b0 es un coeficiente constante o intersección (el lugar en el que la línea recta cruzaría
el eje de la Y (vertical) si la alargáramos.
§ b1 es el gradiente o pendiente de la recta, que es su inclinación. Nos indica cómo de
inclinada y en qué sentido está la recta. De forma que:
o Un gradiente positivo nos informa de que las dos variables cambian en la misma
dirección, a medida que la variable predictora aumenta, la variable de resultado
aumenta también.
o Si el gradiente es negativo, la relación entre ambas variables será opuesta. A
medida que la predictora aumente, la variable de resultado disminuirá.
§ X es la variable independiente
§ Error: es la distancia entre el punto y la recta, pero no tiene valor numérico.
Una vez tengo, el valor de b0 y b1, puedo ir dándole diferentes valores a la x.

b1
Error Se obtiene a partir del
ángulo que se crea entre el
CAMBIO DE UNA UNIDAD
DE MEDIDA en la variable
Independiente y la RECTA

16
ANÁLISIS DE DATOS Y ESTADÍSTICA APLICADA

3. ¿CÓMO DE BIEN LA RECTA DESCRIBE LOS DATOS?: AJUSTE DE MODELO


Para saber si la recta se ajusta bien y es significativa, tenemos que utilizar el Test Estadístico F.

Interpretación del valor de F en la Regresión:

H0: No hay relación entre variables


H1: Sí que hay relación entre variables

- Si ρ > 0,05 (mayor que), aceptamos la hipótesis nula y asumimos que NO HAY
RRELACIÓN. Por tanto, no tendría que interpretar la recta.
- Si ρ < 0,05 (menor que), entonces rechazamos la hipótesis nula, y asumimos que HAY
RELACIÓN ENTRE LAS 2 VARIABLES (predictora y de resultado). Y tendría que interpretar
la recta.

4. REGRESIÓN MÚLTIPLE

Hasta este momento, toda la información se refería a la relación entre una variable predictora y una
variable de resultado. Sin embargo, es posible predecir una variable de resultado a partir de dos o
más variables predictoras. Y en este caso la regresión recibe el nombre de regresión múltiple.

La ecuación de la regresión múltiple es muy similar a la de la regresión simple, solo que se


incluyen los coeficientes de regresión de las demás variables predictoras. La ecuación queda así:

Yi = (b0 + b1 Xi1 + b2 Xi2 + b3 Xi3 + ...) + errori

Los pasos a seguir y la interpretación es la misma que en la regresión simple.

5. SUPUESTOS DE LA REGRESIÓN:
Si queremos generalizar la regresión en una población más amplia, es necesario que los
supuestos de la regresión se cumplan en nuestros datos.
Los SUPUESTOS DE LA REGRESIÓN son:
1. Las variables independientes/predictoras deben ser continuas o binarias.
2. Las variables dependientes/resultado deben ser continuas
3. Ningún predictor puede ser una variable constante (con varianza igual a 0).
4. Los predictores no deben estar muy correlacionados.
5. Los predictores deben de tener bajas correlaciones con variables externas. Es decir, no
tiene que haber tercera variable.
6. Homocedasticidad
7. Independencia: todos los valores de la variable de resultado provienen de diferentes
personas

17
ANÁLISIS DE DATOS Y ESTADÍSTICA APLICADA

TEMA 6: COMPARANDO DOS MEDIAS I: T-TEST

1. INTRODUCCIÓN

Aparte de estar interesados en saber si dos variables están relacionadas, en un estudio


podemos estar interesados en saber si dos grupos son diferentes en una determinada
variable. En este caso se puede decir que el objetivo es comparar dos medias, la media de
un grupo frente a la media del otro grupo.
Para ello, la forma en que se recojan los datos en el estudio tendrá́ un impacto muy
importante en el tipo de análisis que podemos utilizar para saber si los grupos son
diferentes. Por ello, hay que tener en cuenta y recordar que podemos encontrarnos ante:

• Diseños independientes (o entre-grupo): en este caso el objetivo será comparar dos


medias en una variable dependiente entre dos grupos diferentes
• Diseños dependientes (o intra-grupo): en este caso el objetivo será saber si la media
es diferente entre las dos condiciones por las que han pasado todos los sujetos.

2. VISUALIZAR DIFERENCIAS ENTRE MEDIAS: GRÁFICOS


Antes de realizar un análisis estadístico, el 1º PASO es visualizar el efecto que queremos
analizar (diferencias entre medias) utilizando gráficos. Para ello, se utilizan los gráficos de
barras o gráficos de líneas. Éstos:
o Permiten ver las medias de cada grupo por separado
o Permiten comparar visualmente la distancia que hay entre la media de un grupo y la
media del otro grupo (aparentemente)
o Deben introducir barras de error porque representan el error de estimación de la media.
Además, nos permiten saber, a simple vista, si las diferencias entre las medias serán
significativas o no. Para ello, tenemos que observar si las barras se tocan o no en
caso de que las superpusiéramos. De modo que, si no se tocan, probablemente haya
una diferencia significativa.

Las barras de error no se tocan (si las superpusiéramos),


por tanto, las diferencias entre las medias serán
significativas.

18
ANÁLISIS DE DATOS Y ESTADÍSTICA APLICADA

3. APLICAR UN TEST ESTADÍSTICOS: T-TEST


Una vez ya hemos analizado visualmente el gráfico, podemos pasar a hacer el análisis
estadístico mediante el T-TEST. Hay dos tipos:

• T-Test para medias independientes: se utiliza en diseños independientes.


• T-Test para medias dependiente: se utiliza en diseño dependientes.

INTERPRETACIÓN (IGUAL PARA AMBOS):

H0: Las medias entre los dos grupos son iguales (no diferentes)
(H0: Media 1=Media 2)
H1: Las medias entre los dos grupos son diferentes
(H1: Media 1 ≠ Media 2)

- Si ρ > 0,05 (mayor que), aceptamos la hipótesis nula y asumimos que LAS MEDIAS SON
IGUALES O NO DIFERENTES ESTADÍSTICAMENTE
- Si ρ < 0,05 (menor que), entonces rechazamos la hipótesis nula, y asumimos que LAS
MEDIAS SON DIFERENTES ESTADÍSTICAMENTE.

SUPUESTOS DEL T-TEST

Debemos evaluar los siguientes supuestos antes de poder realizar un t-test para que podamos
confiar en su resultado:

1. La distribución normal de la muestra (o n>30 en cada grupo)


2. La V. Dependiente tiene que estar en escala continua/cuantitativa

SÓLO EN EL CASO DE T-TEST INDEPENDIENTES:

3. Homogeneidad de varianzas. Es decir, tiene que haber varianzas similares entre


grupos. Para ello, tenemos que fijarnos en que el valor de Sig. en el Test de Levene sea
mayor que 0,05.
4. Las puntuaciones en la variable dependiente, deben ser independientes porque
provienen de personas diferentes. Es decir, la puntuación que saque un niño en un
examen, no depende de la puntuación que saque otro niño diferente (si hablamos, por
ejemplo, del rendimiento académico como V. Dependiente)

19
ANÁLISIS DE DATOS Y ESTADÍSTICA APLICADA
TEMA 7: COMPARANDO DOS MEDIAS I: ANOVAS

1. INTRODUCCIÓN

Cuando queremos comparar más de dos medias, no se puede utilizar la prueba T-Test.
En el caso de que pudiéramos utilizarla, deberíamos aplicarla varias veces entre los diferentes
grupos para poder comparar las medias de cada uno de ellos y saber si son diferentes entre sí.
Sin embargo, este análisis NO ES CORRECTO por la probabilidad de cometer error de tipo I.
Ya que ésta aumenta considerablemente cuantos más test estadísticos utilicemos para analizar
los datos. De forma que podríamos llegar a afirmar que existe un efecto determinado cuando
realmente no es cierto.
Por ello, para comparar medias entre 2 ó más grupos utilizamos los tests estadísticos de los
Análisis de Varianza (ANOVA). Y, según las características del diseño del estudio, podemos
utilizar:
1. ANOVA de un Factor: sólo hay una variable independiente.
2. ANOVA Factorial: hay 2 (o más) variables independientes.
3. ANCOVA (A.Covarianza): la variable independiente no es categórica, sino que es
continua. Puede haber una o más variables independientes.
4. ANOVA de Med. Repetidas: la variable dependiente se ha medido de forma repetida en
los mismos participantes en el estudio. Puede haber una o más variables independientes.
5. MANOVA: hay más de una variable dependiente y una o más variables independientes.

2. INTERPRETACIÓN DEL ESTADÍSTICO F EN LOS ANOVAs


Los ANOVAs utilizan el estadístico F para comparar y poder determinar si ha habido un
efecto o no debido a la manipulación de la variable independiente.
Si en el estudio SOLO HAY DOS GRUPOS, la interpretación del resultado del ANOVA es
exactamente LA MISMA A LA DEL T-TEST.
H0: Las medias entre los dos grupos son iguales (no diferentes)
(H0: Media 1=Media 2)
H1: Las medias entre los dos grupos son diferentes
(H1: Media 1 ≠ Media 2)

- Si ρ > 0,05 (mayor que), aceptamos la hipótesis nula y asumimos que LAS MEDIAS SON
IGUALES O NO DIFERENTES ESTADÍSTICAMENTE
- Si ρ < 0,05 (menor que), entonces rechazamos la hipótesis nula, y asumimos que LAS
MEDIAS SON DIFERENTES ESTADÍSTICAMENTE.

Sin embargo, si hay MÁS DE DOS GRUPOS, el ANOVA se convierte en un test ómnibus. Esto
quiere decir que en el ANOVA se pone a prueba el efecto general del experimento. Por tanto:

H0: El experimento no ha tenido ningún efecto


(H0: Media 1=Media 2=Media3)
H1: El experimento sí ha tenido algún efecto
(H1: Media 1 ≠ Media 2≠ Media 3)

- Si ρ > 0,05 (mayor que), aceptamos la hipótesis nula y asumimos que LAS MEDIAS SON
IGUALES O NO DIFERENTES ESTADÍSTICAMENTE y no hay que hacer contraste.
- Si ρ < 0,05 (menor que), entonces rechazamos la hipótesis nula, y asumimos que LAS
MEDIAS SON DIFERENTES ESTADÍSTICAMENTE. Sin embargo, no sé qué medias son
distintas. Por tanto, para averiguarlo hay que realizar otra prueba.
20
ANÁLISIS DE DATOS Y ESTADÍSTICA APLICADA

3. PRUEBAS CONTRASTES A POSTERIORI (POST HOC) VS. CONTRASTES PLANEADOS


Para averiguar qué medias son diferentes, podemos utilizar dos estrategias diferentes: realizar
contrastes a posteriori (post hoc) o realizar contrastes planeados.

3.1.CONTRASTES A POSTERIORI (POST HOC)

Se utilizan cuando no tenemos hipótesis previas ni específicas sobre entre qué grupos
pueden encontrarse las diferencias y queremos comprobar todos los pares de grupos
posibles.
Es decir, lo que buscamos en encontrar diferencias entre los grupos (todas las posibles
combinaciones)

Hay muchos procedimientos diferentes para realizar contrastes a posteriori. Pero,


elegiremos uno u otro en función unas características:
• Si los grupos tienen un tamaño similar y hay homogeneidad de varianzas:
o Diferencia Honestamente Significativa (HSD) de Tukey.
o Test de Scheffé.
• Si los grupos no tienen el mismo número de sujetos:
o Si la diferencia no es muy grande se puede utilizar el método de Gabriel.
o Si la diferencia es muy grande se puede utilizar el método de GT2 de
Hochberg.
• Si no hay homogeneidad de varianzas entre los grupos se puede utilizar:
o T2 de Tamhane.
o T3 de Dunnett.
o C de Dunnett.
o Games-Howell.

INTERPRETACIÓN: como obtendremos diferentes contrastes, la hipótesis nula es siempre


igual para cada contraste:

H0: Las medias entre los dos grupos son iguales (no diferentes)
(H0: Media 1=Media 2)
H1: Las medias entre los dos grupos son diferentes
(H1: Media 1 ≠ Media 2)

- Si ρ > 0,05 (mayor que), aceptamos la hipótesis nula y asumimos que LAS MEDIAS SON
IGUALES O NO DIFERENTES ESTADÍSTICAMENTE.
- Si ρ < 0,05 (menor que), entonces rechazamos la hipótesis nula, y asumimos que LAS
MEDIAS SON DIFERENTES ESTADÍSTICAMENTE.

Ej.: ¿Entre qué grupos había diferencias en el rendimiento?

21
ANÁLISIS DE DATOS Y ESTADÍSTICA APLICADA
3.2.CONTRASTES A PLANEADOS

Se planean antes de la recogida de datos. Es decir, al inicio de la investigación, en el


momento en el que se diseña el estudio.

Además, son contrastes que deben responder a hipótesis específicas derivadas de la


investigación. Y esto debe ser así porque no se pueden comparar todos los grupos del
estudio entre sí. Es decir, se especifica de forma directa qué grupos se van a comparar.

Entonces, el número de contrastes que podemos hacer es igual al nº de grupos que tenemos,
menos 1. (Nº contrastes = nº grupos – 1)

Ventaja: no se penaliza el nivel de significación


Desventaja: no se pueden comparar todos los grupos entre sí.

4. TIPOS DE ANÁLISIS DE VARIANZA PARA COMPARAR 2 Ó MÁS MEDIAS:


4.1.ANOVA DE UN FACTOR
¿CUÁNDO SE PUEDE UTILIZAR?

Es importante saber que el término FACTOR hace referencia al término V.


INDEPENDIENTE. (Factor = V. Independiente)

Este tipo de test se utiliza para analizar diferencias entre medias cuando hay sólo una
variable dependiente y una variable independiente (o factor). La variable independiente
(factor) puede tener 2 o más niveles (grupos/medias).

Cuando tenemos una variable dependiente y una independiente con únicamente dos
niveles, podemos utilizar tanto el T-Test como el ANOVA de un factor.

SUPUESTOS

1. La V. Dependiente tiene que ser continua


2. La V. Independiente es nominal (categórica) y puede tener 2 o más niveles.
3. Distribución de la V.D en cada nivel (grupo) de la variable independiente tiene que ser
normal. Esto quiere decir que la variable dependiente tiene que ser normal en cada grupo
de la variable independiente.
4. Homogeneidad de varianzas entre grupos.
5. Independencia entre observaciones: la V.D. se ha medido en cada participante sólo
una vez.

EN CASO DE INCUMPLIMIENTO:

En función de qué supuesto se incumpla, hay una opción o alternativa. Y son las siguientes:

1. Si no se cumplen los supuestos 1 (V.D. continua), 2 (V.I. nominal) y 5 (Diseño


independiente), NO SE PUEDE APLICAR EL ANOVA de un factor. Hay que utilizar
otro tipo de análisis: correlación, regresión o ANOVA de medidas repetidas.
2. Si no se cumple el supuesto 4 (H. Varianzas), pero los grupos tienen el mismo tamaño,
se puede utilizar el ANOVA. En caso de que el tamaño no sea el mismo, se utiliza el
estadístico de Welch.
3. Si no se cumple el supuesto 3 (Distribución normal V.D), pero los grupos tienen el
mismo tamaño, se puede utilizar el ANOVA. En caso de que el tamaño no sea el
mismo, se debe transformar la variable o utilizar el test no paramétrico de Kruskal-
Wallis.

22
ANÁLISIS DE DATOS Y ESTADÍSTICA APLICADA
4.2.ANOVA FACTORIAL

¿CUÁNDO SE PUEDE UTILIZAR?

Cuando hay 2 o más variables independientes y queremos evaluar su efecto en una sola
variable dependiente.

Ejemplo:
Un investigador quiere evaluar el efecto que tienen sobre el rendimiento en matemáticas tres
métodos distintos de enseñanza y el hecho de ser alumno de mañana o de tarde. Para ello,
selecciona 30 alumnos y asigna 5 de ellos aleatoriamente a cada una de las condiciones
experimentales.

V. Dependiente: rendimiento académico (cuantitativa continua de razón)


V. Independientes:
- Método de enseñanza: 3 niveles (método 1, método 2, método 3) (cualitativa nominal)
- Turno: 2 niveles (mañana, tarde)

4.3.ANCOVA (ANÁLISIS DE COVARIANZA)

¿CUÁNDO SE PUEDE UTILIZAR?

Cuando en el análisis se introduce una o más variables independientes


cuantitativas/continuas. Estas variables continuas reciben el nombre de variables
covariadas, y normalmente no forman parte de la manipulación experimental principal,pero
se incluyen en el análisis estadístico porque podrían tener un efecto sobre la variable
dependiente.
El objetivo es controlar o eliminar el efecto que ha tenido la variable covariada en la
investigación.

Ejemplo:
Un investigador quiere evaluar el efecto que tienen sobre el rendimiento en matemáticas tres
métodos distintos de enseñanza y el hecho de ser alumno de mañana o de tarde. Para ello,
selecciona 30 alumnos y asigna 5 de ellos aleatoriamente a cada una de las condiciones
experimentales.
Se piensa que el nivel de inteligencia de los alumnos puede modificar los resultados, así que
mide el CI y lo tiene en cuenta en el análisis.

V. Dependiente: rendimiento académico (cuantitativa continua de razón)


V. Independientes:
- Método de enseñanza: 3 niveles (método 1, método 2, método 3) (cualitativa nominal)
- Turno: 2 niveles (mañana, tarde)
V. Covariada: el nivel de inteligencia de cada alumno

23
ANÁLISIS DE DATOS Y ESTADÍSTICA APLICADA
4.4.ANOVA DE MEDIDAS REPTIDAS
¿CUÁNDO SE PUEDE UTILIZAR?

Cuando tenemos una variable dependiente que se ha medido de forma repetida en las
mismas personas (animales o cosas). Es decir, cuando estamos ante un diseño
dependiente. El ANOVA de medidas repetidas es equivalente al t-test de medias
dependientes, sólo que el número de medidas repetidas puede ser más de dos.

Ejemplo:
Un profesor está interesado en comprobar si las puntuaciones de una prueba de
razonamiento abstracto se mantienen constante o se modifican entre los 6,7 y 8 años de
edad. A tal fin, selecciona una muestra aleatoria de 10 niños de 6 años y les mide el R.A. El
mismo registro lo hace con estos niños a los 7 y a los 8 años.

V. Dependiente: el razonamiento abstracto (cuantitativa de razón), medida en diferentes


momentos
V. Independiente: la edad: tres niveles (6,7,8 años)

4.5.MANOVA
¿CUÁNDO SE PUEDE UTILIZAR?

El análisis multivariante de varianza (MANOVA) se utiliza cuando se quiere medir el efecto


de una o más variables independientes sobre más de una variable dependiente. Por
tanto, la diferencia es que hay más de una V. Dependiente.

Ejemplo:
Un investigador quiere saber la influencia de la edad sobre el nivel de utilización de nuevas
tecnologías y sobre el nivel de satisfacción en las relaciones sociales.

V. Dependientes:
- Utilización de TIC
- Nivel de satisfacción en las relaciones sociales
V. Independiente: edad

Ilustración 1. SÍNTESIS TEMARIO.


24

También podría gustarte