Documentos de Académico
Documentos de Profesional
Documentos de Cultura
1.- INTRODUCCIÓN
Según Stevens, hay 4 tipos de escalas de medida:
Conceptos básicos:
ESTADÍSTICA DESCRIPTIVA. Describe las características de una muestra mediante estadísticos muestrales.
ESTADÍSTICA INFERENCIAL . Infiere parámetros poblacionales a partir de los datos de una muestra.
Las distribuciones de frecuencias se representan generalmente a través de una tabla que recoge:
El tipo de representación gráfica que puede utilizarse dependerá del tipo de variable con el que se trabaje:
Variables nominales. Pueden utilizarse los diagramas de sectores o pictogramas y los diagramas de barras.
Variables ordinales. Deben utilizarse los diagramas de barras. En este caso, a diferencia de las variables
nominales, se debe respetar el orden en el que se presentan los niveles de variable.
Variables cuantitativas discretas. Se utilizan los diagramas de barras y los diagramas de tallos y hojas. Los
diagramas de tallos y hojas ofrecen una representación visual (diagrama de barras) al tumbarlo.
Variables cuantitativas continuas. En este caso se pueden usar histogramas, polígonos de frecuencias y
diagramas de tallos y hojas.
Además de las anteriores representaciones, cuando se trabaja con variables cuantitativas también pueden utilizarse
los diagramas de caja y bigotes (Box-plot) (muy preguntado en los últimos años). Este tipo de diagrama permite
representar una distribución visual de los datos en función de los cuantiles.
Los cuantiles (deciles, cuartiles, percentiles) son valores que permiten conocer la posición de un sujeto en una
variable en relación con el resto de la muestra. Los cuantiles constituyen una escala ordinal sin unidad de medida
constante. Esto significa que las distancias entre cuantiles son más grandes en los extremos que en el centro.
Las medidas de tendencia central permiten obtener información sobre la puntuación global de un grupo de
puntuaciones. Las más conocidas son la media, la mediana y la moda.
2.3.1.- LA MEDIA
Medida de tendencia central más utilizada (en concreto la media aritmética), ya que es el mejor estimador
del parámetro. Otro tipo de media muy utilizado es la cuadrática, que se utiliza en el ANOVA.
La media aritmética se define como la suma de las puntuaciones de la distribución dividida por el número de
casos observados.
Solo puede calcularse en variables cuantitativas.
No es recomendable cuando la distribución es muy asimétrica, dado que es muy sensible a las variaciones de
los datos.
Si a todos los valores se les suma una misma cantidad, la media aritmética queda aumentada en dicha
cantidad.
Si todos los valores quedan multiplicados por una misma constante, la media aritmética también queda
multiplicada por dicha constante.
2.3.2.- LA MEDIANA
Consiste en tomar aquella puntuación que deja por debajo el 50% de las observaciones. Por tanto, divide el
área total del histograma en 2 áreas de idéntica superficie.
Puede calcularse en variables cuantitativas u ordinales.
Es poco sensible a las variaciones de las puntuaciones, por lo que, en caso de que la distribución sea
asimétrica, es preferible utilizar la mediana en lugar de la media.
2.3.3.- LA MODA
Se define como el valor de la variable con mayor frecuencia absoluta.
En función del número de modas que se identifiquen, la distribución puede ser:
o Amodal: no se puede identificar ninguna moda.
o Unimodal: se identifica una sola moda.
o Bimodal o multimodal: se identifican dos o más modas.
Puede calcularse en cualquier tipo de variable.
Las frecuencias de la moda permiten calcular el grado de curtosis mediante el coeficiente de
apuntalamiento de Fischer. El grado de curtosis indica el apuntamiento o aplanamiento de la gráfica, es
decir, la variabilidad de las puntuaciones respecto al valor más frecuente (poca variabilidad = leptocúrtica;
mucha variación = platicúrtica).
En función de la simetría de las puntuaciones, la relación entre la media, la mediana y la moda puede cambiar:
Las medidas de variabilidad indican si las puntuaciones se encuentran próximas o dispersas entre sí, es decir, indican
el grado de homogeneidad de los datos.
Las medidas de variabilidad más utilizadas son la varianza y la desviación típica, que permiten calcular la distancia de
las puntuaciones respecto a la media, dando como resultado un valor que indica la variabilidad de las puntuaciones.
La varianza (Sx2) se calcula a través de la suma de los cuadrados de las puntuaciones diferenciales, dividida por las
observaciones totales, o sea, es la media de las puntuaciones diferenciales al cuadrado. La razón por la que no se
calcula directamente con las puntuaciones diferenciales es porque su suma siempre es 0.
La desviación típica (Sx) consiste en calcular la raíz cuadrada de la varianza. Se utiliza para volver a las unidades
originales, ya que con la varianza las hemos elevado al cuadrado.
La varianza y la desviación típica siempre son valores positivos, iguales o superiores a cero.
Pueden calcularse solo en variables cuantitativas.
Se recomienda su uso en distribuciones simétricas. Si son muy asimétricas, es mejor utilizar la amplitud
semi-intercuartílica (ASI).
Según la desigualdad de Chebychev, las distancias menores hasta la media son más frecuentes que las
distancias mayores. Además, fuera del intervalo comprendido entre la media ±2 desviaciones típicas se
encuentra, como máximo, el 25% de las observaciones, sea cual sea la forma de la distribución de
frecuencias.
La amplitud semi-intercuartílica (ASI) permite conocer en cuántas unidades de los valores se concentra el 50%
central de los casos. Solo se puede usar con variables cuantitativas y está indicada para casos en los que la
distribución es muy asimétrica.
El coeficiente de variación (CV) permite comparar la variabilidad de 2 o más grupos con medias muy diferentes. Se
expresa en forma de proporción o porcentaje.
Las puntuaciones directas se obtienen al aplicar una escala de medida a una variable, sin aplicar transformaciones.
Coincide con el concepto de variable.
Las puntuaciones diferenciales son resultado de restar a la puntuación directa la media del grupo. Coincide con el
concepto de desviación.
Ninguna de las anteriores permite comparar entre unidades de diferentes grupos o variables diferentes. Para ello, se
utilizan las puntuaciones típicas (Z), que indican el número de desviaciones típicas que separan a una observación
de la media de su grupo (z=0.8 -> el sujeto se encuentra 0.8 desviaciones típicas por encima de la media). Se calculan
dividiendo las puntuaciones diferenciales entre la desviación típica.
La media de las puntuaciones típicas es igual a 0, y su varianza y desviación típica son iguales a 1.
Las escalas derivadas, por su parte, se utilizan para adaptar las propiedades o distribuciones de las puntuaciones
típicas a otras que el investigador quiera fijar.
A través de una transformación lineal se pueden adaptar las puntuaciones típicas a otras con una media y
desviación típica conocidas y fijadas, denominadas puntuaciones típicas derivadas o transformadas. Las
transformaciones lineales toman la ecuación de una recta, siendo a la desviación típica y b la media:
Y = aX + b
La transformación no lineal, por otra parte, se utiliza para normalizar la distribución de las puntuaciones
típicas, obteniendo puntuaciones típicas normalizadas. Sobre estas puntuaciones normalizadas se puede
hacer una transformación lineal para obtener puntuaciones típicas normalizadas derivadas/transformadas.
3.1.- La correlación
La correlación se entiende como la relación lineal que existe entre dos variables. Los tipos de relaciones pueden ser:
La correlación entre dos variables cuantitativas puede expresarse gráficamente mediante un diagrama de dispersión:
Existen diferentes índices o coeficientes de correlación, aplicables según el tipo de variables con el que se trabaje:
La covarianza (SXY) es un índice estadístico que permite cuantificar el grado de relación lineal entre variables
cuantitativas a partir de las puntuaciones diferenciales. Es el promedio de los productos cruzados de las
puntuaciones diferenciales de dos variables.
Si la relación entre las dos variables es positiva, el valor de la covarianza también será positivo.
Si la relación es negativa, el valor de la covarianza será negativo.
Si la relación es nula, el valor de la covarianza será cero.
El índice de correlación de Pearson (rXY) permite conocer el grado de relación lineal entre dos variables
cuantitativas a partir de las puntuaciones típicas, en lugar de las diferenciales, con lo cual se ven corregidos los
inconvenientes de la covarianza.
El índice de correlación de Pearson puede tomar valores entre +1 (correlación positiva) y -1 (correlación negativa),
siendo 0 una correlación nula.
rXY aumenta o disminuye cuando aumenta o disminuye la variabilidad de una o de las dos variables, lo cual da lugar al
fenómeno de la restricción del rango (al disminuir la variabilidad, disminuye la correlación).
Además, la transformación lineal de las variables no modifica el valor de rXY, aunque puede cambiar de signo.
Para calcular la correlación entre variables nominales, además del uso de índices es necesario elaborar una tabla
conjunta de variables y comparar la frecuencia teórica y empírica.
La frecuencia teórica (o esperada) es el número de sujetos que aparecerá en cada casilla de la distribución en
caso de ambas variables no estén relacionadas (es decir, si solo influye el azar).
La frecuencia empírica (u observada) es el número de sujetos que aparece realmente en cada casilla de la
distribución.
Regla mnemotécnica: a los BI les gusta tanto una cosa (v cuantitativa) como la otra (Dicotomi…). Si solo hay que
recoger los datos y PUNTO, se utiliza el Biserial puntual, mientras que, si hay que trabajar los datos (dicotomizar), se
utiliza el Biserial. Si las dos variables son iguales (Dicotomi…) y no hay que trabajar los datos, se utiliza Phi (nombre
corto), mientras que, si hay que trabajarlos, se utiliza Tetracórica (nombre más largo).
En caso de trabajar con más de dos variables, la correlación entre las variables podría estar alterada por el influjo de
terceras (efecto tercera variable), por lo que deberían ser controladas, es decir, añadidas en el modelo para observar
su influencia.
Correlación parcial (rXY.Z). Permite valorar la correlación entre dos variables (X, Y) eliminando el efecto de una
tercera (Z) sobre su relación.
Correlación semiparcial (rZ(X.Y)). Permite conocer la correlación entre dos variables (X, Y) eliminando el efecto
que una tercera variable (Z) tiene sobre UNA de ellas (X o Y).
Correlación múltiple (rZ.XY). Expresa la relación entre una variable (Z) y al menos otras dos variables (X, Y)
consideradas de manera conjunta.
Mientras la correlación estudia la intensidad y la dirección de las relaciones existentes entre variables, la regresión
procura establecer predicciones a partir de estas relaciones lineales observadas. Esto es, procura, a partir de la
información contenida en las relaciones lineales observadas entre dos variables (X, Y), y conociendo la puntuación de
un sujeto en una variable (X; variable predictora), predecir su puntuación en otra (Y; variable criterio).
La regresión simple se limita al análisis de dos variables. El pronóstico que realiza se representa a través de la
ecuación de una recta (función lineal):
Y’ = A + B·X
Donde Y es la variable criterio, X es la variable predictora (puede ser cuantitativa, ordinal o nominal) y A y B son
constantes:
A no ser que la correlación entre las dos variables sea perfecta, cuando se analiza la relación entre X e Y se podrían
dibujar diferentes rectas que representasen la tendencia a la linealidad de las mismas, como puede verse en el
gráfico de dispersión:
No obstante, no todos estos modelos lineales son igual de válidos, ya que solo uno de ellos se acercará lo máximo
posible a la tendencia real. Para determinar qué modelo incurriría en la menor cantidad de errores, se utiliza el
criterio de mínimos cuadrados, que se define como el promedio de los errores elevados al cuadrado. Esta operación
se repite para cada una de las rectas observadas y se escoge el modelo lineal cuyo promedio de errores al cuadrado
sea lo más pequeño posible.
Aunque se haya identificado el modelo que cometería menos errores, el ajuste del mismo podría seguir siendo muy
pobre. Por lo tanto, además de identificar el modelo, es necesario hacer una valoración de éste mediante el cálculo
de la bondad de ajuste, para lo cual se utiliza el coeficiente de determinación (rxy2). El coeficiente de determinación
se calcula elevando al cuadrado el coeficiente de correlación de Pearson e indica la proporción de varianza de la
variable criterio que queda explicada por el modelo lineal. Sus valores oscilan entre 0 (no hay relación) y 1
(coincidencia perfecta con el modelo).
La regresión múltiple realiza pronósticos de una variable Y a partir de dos o más variables X. Cuando se añaden
varias variables predictoras, la capacidad predictiva del modelo y su bondad de ajuste (coeficiente de determinación)
incrementarán o se mantendrán, nunca disminuirán.
Y = B0 + B1·X1 + B2·X2
Al igual que en regresión simple, los predictores en la regresión lineal múltiple pueden ser variables cuantitativas,
ordinales o nominales. En este caso, si la variable predictora es nominal politómica, se deberá transformar en
variables dicotómicas (dummy), obteniendo, para n niveles de la variable politómica, n-1 variables dicotómicas
dummy.
Al igual que en el caso de la regresión simple, en la regresión múltiple se ha de identificar el modelo que comete
menos errores a través del criterio de mínimos cuadrados, así como valorar el modelo que mejor se ajusta mediante
el coeficiente de determinación. En este caso, este coeficiente debe estar ajustado en función del número de
variables predictoras incluidas en el modelo, y se denomina coeficiente de determinación corregido.
A pesar de que la bondad de ajuste mejora con el incremento de variables predictoras X, no es viable utilizar un
número infinito de predictores. Por ello, es necesario utilizar métodos para identificar el mejor modelo predictivo
que utilice el menor número de predictores posibles. Estos se pueden dividir en:
Para garantizar la representatividad de una muestra, es necesario recurrir al muestreo aleatorio o probabilístico. Este
método garantiza que, durante el proceso de extracción al azar de la muestra de la población, todos los elementos
tengan la misma probabilidad de formar parte de dicha muestra. Solo este tipo de muestreo permite calcular el error
muestral.
El error muestral se define como la dispersión existente entre los valores de las medidas obtenidas respecto al valor
de la medida real. A mayor tamaño y representatividad de la muestra, menor error.
Muestreo aleatorio
o En población finita.
Extracción con reposición: se devuelve al sujeto a la población después de la extracción. Las
variables extraídas son independientes entre sí.
Extracción sin reposición: las variables extraídas no son independientes entre sí.
o En población infinita: No importa que haya o no reposición, se mantiene siempre la independencia
de las variables extraídas.
Muestreo no aleatorio. Menor validez externa
o Por cuotas. Sujetos seleccionados según conocimiento del peso de cada valor de una característica
de la población.
o Intencional, opinático, discrecional, estratégico, de juicio o selección experta. Se selecciona la
muestra según criterios prefijados por el investigador.
o Incidental, causal, subjetivo o de conveniencia. Se seleccionan los casos que están disponibles en el
momento del estudio.
o Bola de nieve. Se recurre a los contactos de los primeros participantes en el estudio.
Muestreo aleatorio simple. Cada sujeto de la población tiene la misma probabilidad de ser escogido, ya sea
mediante extracción en población infinita o finita con reposición.
Muestreo aleatorio de conglomerados. Se divide la población en varios grupos o conglomerados y se
selecciona uno de esos conglomerados como muestra.
Muestreo aleatorio estratificado. Se divide a la población en varios estratos y se extrae aleatoriamente una
muestra de cada uno de ellos. La suma de estas muestras constituirá la muestra total. Cada submuestra
estará compuesta por un número de sujetos (afijación) determinado por alguno de los siguientes criterios:
o Uniforme o simple: mismo número de sujetos en cada estrato.
o Proporcional: selección en función del peso de cada estrato en la población.
o Óptimo: selección en función de la distribución y homogeneidad de la población para la variable en
cuestión.
Muestreo aleatorio sistemático. Se divide el N de la población entre el n deseado para la muestra, lo que da
lugar a K. Dentro de los primeros K se selecciona un participante al azar. Los siguientes participantes se
escogen sumando al último la constante (K).
Una vez garantizada la representatividad de la muestra, se puede proseguir con la estimación de los valores de los
parámetros de una población a partir de los estadísticos muestrales. Para esto existen dos técnicas principales: la
estimación puntual y la estimación por intervalos.
La estimación puntual (primer método de estimación, desarrollado por Pearson) se fundamenta en el método de los
momentos, que consiste en dar a un parámetro poblacional el valor del estadístico correspondiente en la muestra,
sin poder establecer el error cometido en la estimación. Un estimador puntual fiable debe cumplir los siguientes
criterios:
Carencia de sesgo. Implica que el valor esperado del estimador coincide con el parámetro.
Eficiencia. Cuanto menor sea la varianza de un estimador, mayor será su eficiencia.
Suficiencia. Un estimador es suficiente si utiliza toda la información de la muestra para estimar un
parámetro.
Consistencia. El valor del estimador debe coincidir con el valor del parámetro que le corresponde a medida
que vaya aumentando el tamaño de la muestra.
La estimación puntual no cuenta con ningún tipo de validez y hoy en día no se utiliza.
4.3.- Estimación de parámetros – Estimación por intervalo y contraste de hipótesis
La estimación por intervalo consiste en decidir, con una probabilidad conocida, el valor del parámetro que se desea
estimar (media, varianza, correlación, regresión…) a partir de un panel de valores en el que se pueda encontrar.
El principal método de estimación por intervalo es el contraste de hipótesis, un proceso de decisión en el que una
hipótesis formulada en términos estadísticos se pone en relación con unos datos empíricos, y que determina si existe
compatibilidad entre los dos.
Para decidir si se tiene que mantener o rechazar la hipótesis nula, hay que aplicar la regla de decisión. Esta regla se
basa en el método de bisección de Stevens, que consiste en cuantificar el nivel de riesgo que estamos dispuestos a
aceptar en nuestro estudio:
Nivel de riesgo o significación (α). Define el margen de error que el investigador está dispuesto a cometer.
Nivel de confianza (1-α). Es complementario al nivel de riesgo. A partir del nivel de confianza se puede
calcular el intervalo de confianza multiplicando su valor por 100 (para un nivel de confianza de 0,95, el
intervalo de confianza sería del 95%).
Los niveles de riesgo y confianza se establecen a priori, y su valor se determina de manera arbitraria. No obstante, los
principales niveles de confianza y riesgo utilizados son:
Mantener la hipótesis nula, siendo esta verdadera (Nivel de confianza 1-α o especificidad)
Rechazar la hipótesis nula, siendo esta falsa (Potencia 1-β o sensibilidad)
Rechazar la hipótesis nula siendo ésta verdadera (Error tipo I o α)
Mantener la hipótesis nula siendo esta falsa (Error tipo II o β)
No se pueden reducir simultáneamente los valores de α y β; si se reduce la probabilidad de cometer el Error tipo I,
aumentará la probabilidad del Error tipo II y viceversa. La única forma de reducir ambos a la vez es aumentando el
tamaño muestral.
Cuando se plantea un nivel de riesgo (y, por consiguiente, de confianza), se delimitan dos regiones:
Región crítica o de rechazo. Delimitada por el valor de α. Establece un punto crítico a partir del cual se puede
rechazar la hipótesis nula.
Región no crítica o de aceptación. Coincide con el valor de 1-α. Define la probabilidad de mantener H0.
Hay tres tipos de regiones críticas:
Bilateral. La H0 plantea una igualdad y la H1 una desigualdad. En este caso, es necesario dividir el valor de α
entre 2.
Unilateral izquierdo. En este caso el punto crítico se sitúa a la izquierda del gráfico.
Unilateral derecho. En este caso, el punto crítico se sitúa a la derecha del gráfico.
Una vez establecida la región crítica, se procede a elegir la herramienta estadística que nos permita contrastar
hipótesis: un estadístico de contraste (EC). Cada estadístico de contraste (t de Student es el más utilizado) tiene una
distribución específica, por lo que se debe seleccionar aquel que sea más adecuado para nuestro problema y cuya
distribución se conozca en H0.
La decisión de mantener o rechazar H0 es fruto de la comparación entre el valor del EC y la región crítica, o bien entre
el valor de α y el nivel crítico (p). En este caso, el valor del EC debe utilizarse para dar con el valor equivalente de p
en las tablas recogidas en los manuales de estadística (para un valor T=0,83, el nivel crítico p sería igual a 0,20, por
ejemplo). El nivel crítico es el nivel de significación más pequeño al que una H0 puede ser rechazada con el EC
obtenido. También puede entenderse como la probabilidad de cometer un Error tipo I. Por tanto:
Si p ≤ α, la probabilidad de cometer un Error tipo I real es inferior al riesgo que hemos fijado a priori, por lo
que se puede rechazar la hipótesis nula.
Si p > α, la probabilidad de cometer un Error tipo I es superior al riesgo que hemos fijado a priori, por lo que
debe mantenerse la hipótesis nula.
Se distinguen dos tipos de estadísticos de contraste o pruebas que permiten contrastar hipótesis:
Las pruebas paramétricas más utilizadas son la t de Student (1 VI y <2 medias), el ANOVA I (1 VI y >2 medias), el
ANOVA II (>1 VI) y el ANCOVA:
Las pruebas a aplicar y supuestos que cumplir difieren si se trata de una comparación entre medias independientes
(comparación intergrupo) o medias relacionadas (comparación intragrupo, se hacen dos medidas en un mismo grupo
en momentos temporales diferentes, como pre y postratamiento, por ejemplo).
Para aplicar una prueba paramétrica en un diseño de grupos independientes se deben cumplir, además de los
generales (VD cuantitativa y distribución normal), los siguientes supuestos para medias independientes:
Cuando se aplica una prueba para comprobar si se cumple alguno de los supuestos, realmente se está planteando
un contraste de hipótesis en el que H0 = cumplimiento del supuesto. En este sentido, para que se cumpla un
supuesto, buscamos mantener la hipótesis nula, por lo que si p > α, se cumple el supuesto.
Por otra parte, si no se cumplen los supuestos, antes de aplicar una prueba no paramétrica hay que intentar corregir
los datos mediante transformaciones.
La prueba a aplicar en caso de trabajar con una o dos medias independientes es la t de Student.
Para trabajar con más de dos medias independientes, se utiliza el ANOVA, que permite identificar diferencias
significativas para tres, cuatro o más medias. El ANOVA I se realiza con un solo factor (VI) compuesto por diferentes
categorías (niveles).
El nombre ANOVA viene de “Análisis de la Varianza”, ya que para la comprobación de la hipótesis nula se enfocará en
el estudio de la variabilidad de las observaciones. Hay tres tipos de variabilidad:
Si existe una alta variabilidad intragrupo (las puntuaciones dentro de un grupo son muy diferentes) es muy probable
que haya variables extrañas que no se estén controlando, por eso se considera Error y hay que reducirla en la medida
de lo posible.
Por otra parte, si la variabilidad intergrupo es muy superior a la variabilidad intragrupo, se puede concluir que la VI es
una fuente fuerte de variabilidad.
Una vez se ha comprobado que se cumplen los supuestos de normalidad, independencia y homocedasticidad, para
tomar una decisión acerca de mantener o rechazar la hipótesis nula se utiliza el estadístico F de Fisher-Snedecor.
El estadístico F resulta de la división entre la media cuadrática de las puntuaciones del intergrupo y la media
cuadrática de las puntuaciones del intragrupo. El resultado obtenido, la F empírica, se compara entonces con la F
teórica (obtenida de las tablas de distribución de densidad de probabilidad) y se toma una decisión:
En caso de que se rechace H0 y se admita que existen diferencias significativas entre los grupos, es necesario aplicar
las comparaciones múltiples para comprobar entre qué pares de grupos (o niveles de factores) se producen dichas
diferencias.
Ante el cumplimiento de la homocedasticidad: HSD de Tukey (la más potente), Bonferroni, Scheffé, Dunnet,
Sidak, Student-Newman-Keuls, Duncan o Fisher
Ante el incumplimiento de la homocedasticidad: Games-Howell, Dunnet, Tamhane
A las comparaciones múltiples se les asocia una tasa de Error tipo I (a más comparaciones, mayor porcentaje de
error), que puede ser individual o por familia:
Tasa de error individual. Probabilidad máxima de que una o más comparaciones individualmente concluyan
incorrectamente que la diferencia observada es significativamente diferente de la hipótesis nula.
Tasa de error por familia. Probabilidad máxima de que más de una comparación concluya incorrectamente
que al menos una de las diferencias observadas es significativamente diferente de la hipótesis nula. Se basa
tanto en la tasa de error individual como en el número de comparaciones. Cada comparación adicional
provoca el aumento acumulado de la tasa de error por familia.
En resumen, el proceso a realizar en un ANOVA I de medias independientes sería:
En el caso de trabajar sobre dos medias dependientes, la prueba paramétrica a utilizar sería la t de Student para
medias relacionadas.
Cuando se trabaja con más de dos medias dependientes, se utiliza el ANOVA en medias dependientes. Cuando se
realiza un ANOVA intragrupo, además de los supuestos de Normalidad, Independencia y Homocedasticidad, hay que
cumplir los siguientes supuestos:
4.4.3.- ANOVA II
El ANOVA II consiste en el análisis de la varianza de más de una VI (factor) en más de dos grupos. Permite conocer el
efecto de cada factor por separado y el efecto de su interacción.
El ANOVA II requiere un menor número de sujetos para alcanzar la misma potencia que el ANOVA I.
H01. No hay diferencias significativas entre los niveles del factor A (efecto fila).
H02. No hay diferencias significativas entre los niveles del factor B (efecto columna)
H03. No hay diferencias significativas entre los niveles del factor A y B (efecto interacción).
Así mismo, el cálculo del estadístico de contraste F de Fisher-Snedecor se hará 3 veces, una para cada hipótesis.
El ANOVA II es el único análisis que permite realizar análisis factoriales. El análisis factorial es un procedimiento
confirmatorio y complementario al ANOVA en el que se analizan los siguientes efectos:
Efecto principal. Influencia de cada factor (VI) aislado sobre la variable dependiente. Existen tantos efectos
principales como nº de factores incluidos en un diseño.
o Efecto diferencial. Diferencia entre dos niveles de un mismo factor.
Efecto de interacción. Corresponde al efecto específico de un factor al ser combinado con otro, es decir, a la
variación de la influencia de un factor sobre una VD en función de los valores que adopta otro factor.
o Efecto simple. Efecto del nivel de un factor bajo cada nivel de otro factor.
Existe una jerarquía de interpretación de los efectos, según la cual, si el efecto interactivo es significativo, no se
interpretan los efectos principales que la conforman, sino solo dicho efecto interactivo y los correspondientes efectos
simples.
4.4.4.- ANCOVA
El ANCOVA es un análisis de varianza realizado sobre unas puntuaciones corregidas mediante una recta de regresión.
Se emplea para controlar estadísticamente el error experimental, ya que aísla el efecto de una o más variables
extrañas, llamadas covariables:
Hasta ahora, el contraste de hipótesis se ha hecho sobre la media y la variabilidad de las puntuaciones. No obstante,
también puede realizarse sobre hipótesis de correlación y regresión.
Para contrastar una hipótesis acerca de una correlación se utiliza el estadístico t de Student. Una significación inferior
al nivel de riesgo α implica el rechazo de la hipótesis nula, sea cual sea el valor de la correlación.
Para contrastar una hipótesis acerca de la regresión también se recurre a la t de Student, que se enfoca en este caso
en la estimación del parámetro β (pendiente de la recta de regresión). En regresión, además de los supuestos
generales de las pruebas paramétricas, deben cumplirse los siguientes supuestos:
Linealidad. Si no se cumple, aumenta el Error tipo II. Se evalúa mediante el Gráfico de dispersión de puntos.
No colinealidad. Implica que las variables predictoras no están altamente correlacionadas entre ellas. Se
evalúa mediante la prueba de Tolerancia y el Factor de Inflación de la Varianza (FIV).
Outliers (valores extremos). A fin de diagnosticar la presencia de outliers en un modelo de regresión, se han
de examinar los residuales (errores en la predicción del modelo). Para ello, se utilizan estadísticos como la
Distancia de Cook, el Residual Studentizado, el Residual Estandarizado, los Valores de Influencia o la
Desviación.
Las pruebas no paramétricas se utilizan en el análisis de hipótesis no referidas a parámetros (tipo de distribución,
bondad de ajuste, independencia…) o cuando no se cumplen los supuestos referidos a una prueba paramétrica y no
se pueden corregir los datos.
Regla mnemoténica para pruebas no paramétricas: las pruebas de medidas independientes tienen un guion entre los
nombres, y las que miden más de 2 tratamientos tienen una R, ya que hay que trabajar más y estar R que R.
4.6.- Meta-análisis
El meta-análisis es una evolución natural del contraste de hipótesis. Se define como un análisis de análisis, es decir, se
trata de un estudio cuantitativo de estudios cuantitativos ya realizados sobre una misma hipótesis o hipótesis muy
similares.
Para el estudio de sus resultados, los meta-análisis recurren al tamaño del efecto, entendido como la proporción de
varianza de la distribución total explicada por la variable estudiada.
El tamaño del efecto expresa la magnitud de la relación entre dos variables. Las pruebas para contrastar hipótesis nos
revelan si existe una relación entre variables y el grado de significación asociado, pero no nos dan una noción de en
qué grado se da esta relación entre las variables (pequeño, mediano, grande). Eso lo hace el tamaño del efecto.
En este sentido, el tamaño del efecto es un valor complementario al grado de significación, ya que aporta nueva
información respecto a la relación entre las variables. Por tanto, debería usarse no solo en meta-análisis, sino en
cualquier tipo de contraste de hipótesis.
Cuando se realizan comparaciones entre dos grupos (dos medias independientes), el tamaño del efecto puede
calcularse con la prueba d de Cohen.
Cuando se realizan comparaciones ANOVA (más de dos medias), pueden utilizarse las pruebas:
Por otra parte tenemos la prueba delta de Cliff, que es un estimador no paramétrico del tamaño del efecto.