Está en la página 1de 20

ESTADÍSTICA

1.- INTRODUCCIÓN
Según Stevens, hay 4 tipos de escalas de medida:

Conceptos básicos:

 Población. Conjunto total de personas que cumple una condición.


 Muestra. Subconjunto de elementos de una población.
 Estadísticos. Propiedades que describen una muestra (media muestral).
 Parámetros. Propiedades que describen una población (media poblacional). Hay que inferirlos a partir de los
estadísticos.

Hay dos tipos de estadística:

 ESTADÍSTICA DESCRIPTIVA. Describe las características de una muestra mediante estadísticos muestrales.
 ESTADÍSTICA INFERENCIAL . Infiere parámetros poblacionales a partir de los datos de una muestra.

2.- ESTADÍSTICA DESCRIPTIVA CON UNA VARIABLE


El primer paso en la exploración de los datos suele consistir en ordenar los números recolectados. Para eso se utilizan
las distribuciones de frecuencias y las representaciones gráficas.

2.1.- Distribuciones de frecuencias

Las distribuciones de frecuencias se representan generalmente a través de una tabla que recoge:

 Frecuencia absoluta. Número de veces que se repite el valor x.


 Frecuencia relativa. Cociente entre la frecuencia absoluta de un valor y el tamaño total de la muestra.
 Frecuencia absoluta acumulada. Número de veces que se repite un determinado valor u otro inferior.
 Frecuencia relativa acumulada. Cociente entre la frecuencia absoluta acumulada y el tamaño total de la
muestra.
 Porcentaje. Multiplicación por 100 del valor de las frecuencias relativas.
2.2.- Representaciones gráficas

El tipo de representación gráfica que puede utilizarse dependerá del tipo de variable con el que se trabaje:

 Variables nominales. Pueden utilizarse los diagramas de sectores o pictogramas y los diagramas de barras.

 Variables ordinales. Deben utilizarse los diagramas de barras. En este caso, a diferencia de las variables
nominales, se debe respetar el orden en el que se presentan los niveles de variable.

 Variables cuantitativas discretas. Se utilizan los diagramas de barras y los diagramas de tallos y hojas. Los
diagramas de tallos y hojas ofrecen una representación visual (diagrama de barras) al tumbarlo.

 Variables cuantitativas continuas. En este caso se pueden usar histogramas, polígonos de frecuencias y
diagramas de tallos y hojas.

Además de las anteriores representaciones, cuando se trabaja con variables cuantitativas también pueden utilizarse
los diagramas de caja y bigotes (Box-plot) (muy preguntado en los últimos años). Este tipo de diagrama permite
representar una distribución visual de los datos en función de los cuantiles.

Los cuantiles (deciles, cuartiles, percentiles) son valores que permiten conocer la posición de un sujeto en una
variable en relación con el resto de la muestra. Los cuantiles constituyen una escala ordinal sin unidad de medida
constante. Esto significa que las distancias entre cuantiles son más grandes en los extremos que en el centro.

Como indica su nombre, el diagrama de caja y bigotes cuenta con:


· Una Caja central en la que se encuentra el 50% central de los datos y cuyo límite
superior es el cuartil 3 e inferior es el cuartil 1. El tamaño de la caja viene dado por la
amplitud (o rango) intercuartílica; cuanto mayor sea el tamaño de la caja, mayor será
la variabilidad de las puntuaciones.
· Dos Bigotes en cada extremo, que van desde los límites de la caja hasta los valores
máximos y mínimos o hasta 1.5 amplitudes intercuartílicas.
· Más allá de los bigotes se pueden encontrar los Outliers, que se encuentran
a 1.5-3 amplitudes intercuartílicas de los límites de la caja, y los Extremos,
que se encuentran a más de 3 amplitudes.

El diagrama de caja y bigotes también representa la mediana, que permite identificar,


según su ubicación, la simetría de las puntuaciones:

Distribución simétrica Asimetría positiva Asimetría negativa

2.3.- Medidas de tendencia central

Las medidas de tendencia central permiten obtener información sobre la puntuación global de un grupo de
puntuaciones. Las más conocidas son la media, la mediana y la moda.

2.3.1.- LA MEDIA

 Medida de tendencia central más utilizada (en concreto la media aritmética), ya que es el mejor estimador
del parámetro. Otro tipo de media muy utilizado es la cuadrática, que se utiliza en el ANOVA.
 La media aritmética se define como la suma de las puntuaciones de la distribución dividida por el número de
casos observados.
 Solo puede calcularse en variables cuantitativas.
 No es recomendable cuando la distribución es muy asimétrica, dado que es muy sensible a las variaciones de
los datos.
 Si a todos los valores se les suma una misma cantidad, la media aritmética queda aumentada en dicha
cantidad.
 Si todos los valores quedan multiplicados por una misma constante, la media aritmética también queda
multiplicada por dicha constante.

2.3.2.- LA MEDIANA

 Consiste en tomar aquella puntuación que deja por debajo el 50% de las observaciones. Por tanto, divide el
área total del histograma en 2 áreas de idéntica superficie.
 Puede calcularse en variables cuantitativas u ordinales.
 Es poco sensible a las variaciones de las puntuaciones, por lo que, en caso de que la distribución sea
asimétrica, es preferible utilizar la mediana en lugar de la media.

2.3.3.- LA MODA
 Se define como el valor de la variable con mayor frecuencia absoluta.
 En función del número de modas que se identifiquen, la distribución puede ser:
o Amodal: no se puede identificar ninguna moda.
o Unimodal: se identifica una sola moda.
o Bimodal o multimodal: se identifican dos o más modas.
 Puede calcularse en cualquier tipo de variable.
 Las frecuencias de la moda permiten calcular el grado de curtosis mediante el coeficiente de
apuntalamiento de Fischer. El grado de curtosis indica el apuntamiento o aplanamiento de la gráfica, es
decir, la variabilidad de las puntuaciones respecto al valor más frecuente (poca variabilidad = leptocúrtica;
mucha variación = platicúrtica).

En función de la simetría de las puntuaciones, la relación entre la media, la mediana y la moda puede cambiar:

En el gráfico se puede observar cómo la media es más


sensible a la variación de la simetría, yéndose a las
puntuaciones extremas, mientras que la mediana
siempre se queda en zonas centrales.

2.4.- Medidas de variabilidad o dispersión


de las puntuaciones

Las medidas de variabilidad indican si las puntuaciones se encuentran próximas o dispersas entre sí, es decir, indican
el grado de homogeneidad de los datos.

Las medidas de variabilidad más utilizadas son la varianza y la desviación típica, que permiten calcular la distancia de
las puntuaciones respecto a la media, dando como resultado un valor que indica la variabilidad de las puntuaciones.

2.4.1.- LA VARIANZA Y LA DESVIACIÓN TÍPICA

La varianza (Sx2) se calcula a través de la suma de los cuadrados de las puntuaciones diferenciales, dividida por las
observaciones totales, o sea, es la media de las puntuaciones diferenciales al cuadrado. La razón por la que no se
calcula directamente con las puntuaciones diferenciales es porque su suma siempre es 0.

La desviación típica (Sx) consiste en calcular la raíz cuadrada de la varianza. Se utiliza para volver a las unidades
originales, ya que con la varianza las hemos elevado al cuadrado.

 La varianza y la desviación típica siempre son valores positivos, iguales o superiores a cero.
 Pueden calcularse solo en variables cuantitativas.
 Se recomienda su uso en distribuciones simétricas. Si son muy asimétricas, es mejor utilizar la amplitud
semi-intercuartílica (ASI).
 Según la desigualdad de Chebychev, las distancias menores hasta la media son más frecuentes que las
distancias mayores. Además, fuera del intervalo comprendido entre la media ±2 desviaciones típicas se
encuentra, como máximo, el 25% de las observaciones, sea cual sea la forma de la distribución de
frecuencias.

2.4.2.- OTRAS MEDIDAS DE VARIABILIDAD


Se utilizan en casos en los que la varianza y la desviación típica no son adecuadas:

La amplitud semi-intercuartílica (ASI) permite conocer en cuántas unidades de los valores se concentra el 50%
central de los casos. Solo se puede usar con variables cuantitativas y está indicada para casos en los que la
distribución es muy asimétrica.

El coeficiente de variación (CV) permite comparar la variabilidad de 2 o más grupos con medias muy diferentes. Se
expresa en forma de proporción o porcentaje.

2.5.- Puntuaciones típicas y escalas derivadas

Las puntuaciones directas se obtienen al aplicar una escala de medida a una variable, sin aplicar transformaciones.
Coincide con el concepto de variable.

Las puntuaciones diferenciales son resultado de restar a la puntuación directa la media del grupo. Coincide con el
concepto de desviación.

Ninguna de las anteriores permite comparar entre unidades de diferentes grupos o variables diferentes. Para ello, se
utilizan las puntuaciones típicas (Z), que indican el número de desviaciones típicas que separan a una observación
de la media de su grupo (z=0.8 -> el sujeto se encuentra 0.8 desviaciones típicas por encima de la media). Se calculan
dividiendo las puntuaciones diferenciales entre la desviación típica.

La media de las puntuaciones típicas es igual a 0, y su varianza y desviación típica son iguales a 1.

Las escalas derivadas, por su parte, se utilizan para adaptar las propiedades o distribuciones de las puntuaciones
típicas a otras que el investigador quiera fijar.

 A través de una transformación lineal se pueden adaptar las puntuaciones típicas a otras con una media y
desviación típica conocidas y fijadas, denominadas puntuaciones típicas derivadas o transformadas. Las
transformaciones lineales toman la ecuación de una recta, siendo a la desviación típica y b la media:

Y = aX + b

Las puntuaciones derivadas mantienen la forma de la distribución de las puntuaciones directas.

 La transformación no lineal, por otra parte, se utiliza para normalizar la distribución de las puntuaciones
típicas, obteniendo puntuaciones típicas normalizadas. Sobre estas puntuaciones normalizadas se puede
hacer una transformación lineal para obtener puntuaciones típicas normalizadas derivadas/transformadas.

El proceso de transformaciones, por tanto, sería el siguiente:


3.- ESTADÍSTICA DESCRIPTIVA CON DOS O MÁS VARIABLES

3.1.- La correlación

La correlación se entiende como la relación lineal que existe entre dos variables. Los tipos de relaciones pueden ser:

 Relación lineal positiva. Al aumentar X, aumentará Y; al disminuir X, también lo hará Y.


 Relación lineal negativa. Al aumentar X, disminuirá Y y viceversa.
 Relación lineal perfecta. Los valores de X e Y coinciden en una misma recta.
 Relación lineal nula. Ausencia de tendencia al emparejamiento. No significa que no haya relación, ya que
pueden existir relaciones no lineales como la curvilínea.

La correlación entre dos variables cuantitativas puede expresarse gráficamente mediante un diagrama de dispersión:

Existen diferentes índices o coeficientes de correlación, aplicables según el tipo de variables con el que se trabaje:

3.1.1.- LA COVARIANZA (CUANTITATIVAS )

La covarianza (SXY) es un índice estadístico que permite cuantificar el grado de relación lineal entre variables
cuantitativas a partir de las puntuaciones diferenciales. Es el promedio de los productos cruzados de las
puntuaciones diferenciales de dos variables.

 Si la relación entre las dos variables es positiva, el valor de la covarianza también será positivo.
 Si la relación es negativa, el valor de la covarianza será negativo.
 Si la relación es nula, el valor de la covarianza será cero.

Los principales inconvenientes de la covarianza son:

 Carece de límites máximos y mínimos, por lo que es difícil de interpretar.


 Es sensible a los cambios en las unidades de medida.
3.1.2.- Í NDICE DE CORRELACIÓN DE PEARSON (CUANTITATIVAS )

El índice de correlación de Pearson (rXY) permite conocer el grado de relación lineal entre dos variables
cuantitativas a partir de las puntuaciones típicas, en lugar de las diferenciales, con lo cual se ven corregidos los
inconvenientes de la covarianza.

El índice de correlación de Pearson puede tomar valores entre +1 (correlación positiva) y -1 (correlación negativa),
siendo 0 una correlación nula.

rXY aumenta o disminuye cuando aumenta o disminuye la variabilidad de una o de las dos variables, lo cual da lugar al
fenómeno de la restricción del rango (al disminuir la variabilidad, disminuye la correlación).

Además, la transformación lineal de las variables no modifica el valor de rXY, aunque puede cambiar de signo.

3.1.3.- Í NDICES DE CORRELACIÓN EN VARIABLES ORDINALES

 Coeficiente de correlación de Spearman (pocos)


o Se basa en la correlación de Pearson.
o Se utiliza en casos con pocos empates.
 Coeficiente tau de Kendall (no hay)
o Indicado para medir el grado de semejanza entre los valores de dos sucesiones ordinales.
o Se utiliza cuando no hay empates.
 Coeficiente gamma de Goodman-Kruskal (muchos)
o Se utiliza cuando hay muchos empates.

3.1.4.- Í NDICES DE CORRELACIÓN EN VARIABLES NOMINALES

Para calcular la correlación entre variables nominales, además del uso de índices es necesario elaborar una tabla
conjunta de variables y comparar la frecuencia teórica y empírica.

 La frecuencia teórica (o esperada) es el número de sujetos que aparecerá en cada casilla de la distribución en
caso de ambas variables no estén relacionadas (es decir, si solo influye el azar).
 La frecuencia empírica (u observada) es el número de sujetos que aparece realmente en cada casilla de la
distribución.

Si ambas frecuencias coinciden, las variables serán


independientes. Cuanto más difieran entre sí, mayor
dependencia o relación existirá.

 Coeficiente chi-cuadrado (χ2)


o Se utiliza para dos variables nominales dicotómicas o politómicas (más de dos modalidades).
o Uno de los requisitos para aplicar chi-cuadrado es que no haya más de un 20% de frecuencias
teóricas (o esperadas) inferiores a 5. Si se viola este supuesto, pueden aplicarse dos correcciones, la
Corrección de Yates y el Test exacto de Fisher.
o Un inconveniente de chi-cuadrado es que es sensible al tamaño de la muestra, por lo que, si
aumenta n, también aumentará χ2.
 Coeficiente de Contingencia (C)
o Se utiliza para dos variables nominales dicotómicas o politómicas.
o Deriva de chi-cuadrado y corrige el efecto del aumento de la muestra sobre éste.
 Coeficiente Q de Yule
o Solo puede utilizarse para dos variables nominales dicotómicas.
o Para interpretarlo, debe consultarse la tabla de frecuencias.
o El signo del coeficiente Q NO refleja la dirección de la correlación.
3.1.5.- OTROS COEFICIENTES DE CORRELACIÓN

Regla mnemotécnica: a los BI les gusta tanto una cosa (v cuantitativa) como la otra (Dicotomi…). Si solo hay que
recoger los datos y PUNTO, se utiliza el Biserial puntual, mientras que, si hay que trabajar los datos (dicotomizar), se
utiliza el Biserial. Si las dos variables son iguales (Dicotomi…) y no hay que trabajar los datos, se utiliza Phi (nombre
corto), mientras que, si hay que trabajarlos, se utiliza Tetracórica (nombre más largo).

3.2.- Relación lineal entre tres o más variables

En caso de trabajar con más de dos variables, la correlación entre las variables podría estar alterada por el influjo de
terceras (efecto tercera variable), por lo que deberían ser controladas, es decir, añadidas en el modelo para observar
su influencia.

Para ello, se utilizan los siguientes índices:

 Correlación parcial (rXY.Z). Permite valorar la correlación entre dos variables (X, Y) eliminando el efecto de una
tercera (Z) sobre su relación.
 Correlación semiparcial (rZ(X.Y)). Permite conocer la correlación entre dos variables (X, Y) eliminando el efecto
que una tercera variable (Z) tiene sobre UNA de ellas (X o Y).
 Correlación múltiple (rZ.XY). Expresa la relación entre una variable (Z) y al menos otras dos variables (X, Y)
consideradas de manera conjunta.

3.3.- La regresión lineal

Mientras la correlación estudia la intensidad y la dirección de las relaciones existentes entre variables, la regresión
procura establecer predicciones a partir de estas relaciones lineales observadas. Esto es, procura, a partir de la
información contenida en las relaciones lineales observadas entre dos variables (X, Y), y conociendo la puntuación de
un sujeto en una variable (X; variable predictora), predecir su puntuación en otra (Y; variable criterio).

3.3.1.- REGRESIÓN SIMPLE

La regresión simple se limita al análisis de dos variables. El pronóstico que realiza se representa a través de la
ecuación de una recta (función lineal):

Y’ = A + B·X

Donde Y es la variable criterio, X es la variable predictora (puede ser cuantitativa, ordinal o nominal) y A y B son
constantes:

 A: ordenada en el origen o coeficiente de regresión β0.


 B: pendiente o coeficiente de regresión β1.
La recta de regresión simple se puede calcular a partir de las puntuaciones directas, diferenciales o típicas:

En caso de utilizar las puntuaciones típicas, la constante b


se denomina coeficiente de regresión B1 tipificado y es
igual a la correlación de Pearson entre X e Y (rXY).

A no ser que la correlación entre las dos variables sea perfecta, cuando se analiza la relación entre X e Y se podrían
dibujar diferentes rectas que representasen la tendencia a la linealidad de las mismas, como puede verse en el
gráfico de dispersión:

No obstante, no todos estos modelos lineales son igual de válidos, ya que solo uno de ellos se acercará lo máximo
posible a la tendencia real. Para determinar qué modelo incurriría en la menor cantidad de errores, se utiliza el
criterio de mínimos cuadrados, que se define como el promedio de los errores elevados al cuadrado. Esta operación
se repite para cada una de las rectas observadas y se escoge el modelo lineal cuyo promedio de errores al cuadrado
sea lo más pequeño posible.

Aunque se haya identificado el modelo que cometería menos errores, el ajuste del mismo podría seguir siendo muy
pobre. Por lo tanto, además de identificar el modelo, es necesario hacer una valoración de éste mediante el cálculo
de la bondad de ajuste, para lo cual se utiliza el coeficiente de determinación (rxy2). El coeficiente de determinación
se calcula elevando al cuadrado el coeficiente de correlación de Pearson e indica la proporción de varianza de la
variable criterio que queda explicada por el modelo lineal. Sus valores oscilan entre 0 (no hay relación) y 1
(coincidencia perfecta con el modelo).

3.3.2.- REGRESIÓN MÚLTIPLE

La regresión múltiple realiza pronósticos de una variable Y a partir de dos o más variables X. Cuando se añaden
varias variables predictoras, la capacidad predictiva del modelo y su bondad de ajuste (coeficiente de determinación)
incrementarán o se mantendrán, nunca disminuirán.

La ecuación de regresión para dos variables predictoras sería la de un plano:

Y = B0 + B1·X1 + B2·X2

Al igual que en regresión simple, los predictores en la regresión lineal múltiple pueden ser variables cuantitativas,
ordinales o nominales. En este caso, si la variable predictora es nominal politómica, se deberá transformar en
variables dicotómicas (dummy), obteniendo, para n niveles de la variable politómica, n-1 variables dicotómicas
dummy.

Al igual que en el caso de la regresión simple, en la regresión múltiple se ha de identificar el modelo que comete
menos errores a través del criterio de mínimos cuadrados, así como valorar el modelo que mejor se ajusta mediante
el coeficiente de determinación. En este caso, este coeficiente debe estar ajustado en función del número de
variables predictoras incluidas en el modelo, y se denomina coeficiente de determinación corregido.
A pesar de que la bondad de ajuste mejora con el incremento de variables predictoras X, no es viable utilizar un
número infinito de predictores. Por ello, es necesario utilizar métodos para identificar el mejor modelo predictivo
que utilice el menor número de predictores posibles. Estos se pueden dividir en:

 Basados en la literatura científica


o Introducir (o simultáneo): consistiría en utilizar todos los predictores a la vez.
o Jerárquico (o multinivel, coeficientes aleatorios, efectos mixtos o de componentes de la varianza y la
covarianza): se utilizan los predictores en diferentes pasos.
 Basados en criterios estadísticos
o Hacia adelante (forward): se van añadiendo predictores y en cada paso se retienen los más
predictivos.
o Escalonado (stepwise): se van añadiendo predictores y en cada paso se retienen los más predictivos y
se elimina el menos predictivo.
o Hacia atrás (backward): se parte con todos los predictores y se elimina el menos predictivo en cada
paso.

4.- ESTADÍSTICA INFERENCIAL


Si la estadística descriptiva tiene como objetivo la descripción de las características de una muestra, la estadística
inferencial pretende extender estos análisis y resultados a los parámetros poblacionales a través de un proceso
inductivo. Para ello, el primer requisito que debe cumplirse es que las muestras han de ser representativas
(compartir las características y proporciones de la población estudiada).

Para garantizar la representatividad de una muestra, es necesario recurrir al muestreo aleatorio o probabilístico. Este
método garantiza que, durante el proceso de extracción al azar de la muestra de la población, todos los elementos
tengan la misma probabilidad de formar parte de dicha muestra. Solo este tipo de muestreo permite calcular el error
muestral.

El error muestral se define como la dispersión existente entre los valores de las medidas obtenidas respecto al valor
de la medida real. A mayor tamaño y representatividad de la muestra, menor error.

4.1.- Técnicas de muestreo aleatorio


4.1.1.- SEGÚN LA ALEATORIEDAD DEL PROCEDIMIENTO

 Muestreo aleatorio
o En población finita.
 Extracción con reposición: se devuelve al sujeto a la población después de la extracción. Las
variables extraídas son independientes entre sí.
 Extracción sin reposición: las variables extraídas no son independientes entre sí.
o En población infinita: No importa que haya o no reposición, se mantiene siempre la independencia
de las variables extraídas.
 Muestreo no aleatorio. Menor validez externa
o Por cuotas. Sujetos seleccionados según conocimiento del peso de cada valor de una característica
de la población.
o Intencional, opinático, discrecional, estratégico, de juicio o selección experta. Se selecciona la
muestra según criterios prefijados por el investigador.
o Incidental, causal, subjetivo o de conveniencia. Se seleccionan los casos que están disponibles en el
momento del estudio.
o Bola de nieve. Se recurre a los contactos de los primeros participantes en el estudio.

4.1.2.- SEGÚN LAS CARACTERÍSTICAS DEL UNIVERSO Y DISPONIBILIDAD DE LOS MEDIOS

 Muestreo aleatorio simple. Cada sujeto de la población tiene la misma probabilidad de ser escogido, ya sea
mediante extracción en población infinita o finita con reposición.
 Muestreo aleatorio de conglomerados. Se divide la población en varios grupos o conglomerados y se
selecciona uno de esos conglomerados como muestra.
 Muestreo aleatorio estratificado. Se divide a la población en varios estratos y se extrae aleatoriamente una
muestra de cada uno de ellos. La suma de estas muestras constituirá la muestra total. Cada submuestra
estará compuesta por un número de sujetos (afijación) determinado por alguno de los siguientes criterios:
o Uniforme o simple: mismo número de sujetos en cada estrato.
o Proporcional: selección en función del peso de cada estrato en la población.
o Óptimo: selección en función de la distribución y homogeneidad de la población para la variable en
cuestión.
 Muestreo aleatorio sistemático. Se divide el N de la población entre el n deseado para la muestra, lo que da
lugar a K. Dentro de los primeros K se selecciona un participante al azar. Los siguientes participantes se
escogen sumando al último la constante (K).

4.2.- Estimación de parámetros – Estimación puntual

Una vez garantizada la representatividad de la muestra, se puede proseguir con la estimación de los valores de los
parámetros de una población a partir de los estadísticos muestrales. Para esto existen dos técnicas principales: la
estimación puntual y la estimación por intervalos.

La estimación puntual (primer método de estimación, desarrollado por Pearson) se fundamenta en el método de los
momentos, que consiste en dar a un parámetro poblacional el valor del estadístico correspondiente en la muestra,
sin poder establecer el error cometido en la estimación. Un estimador puntual fiable debe cumplir los siguientes
criterios:

 Carencia de sesgo. Implica que el valor esperado del estimador coincide con el parámetro.
 Eficiencia. Cuanto menor sea la varianza de un estimador, mayor será su eficiencia.
 Suficiencia. Un estimador es suficiente si utiliza toda la información de la muestra para estimar un
parámetro.
 Consistencia. El valor del estimador debe coincidir con el valor del parámetro que le corresponde a medida
que vaya aumentando el tamaño de la muestra.

La estimación puntual no cuenta con ningún tipo de validez y hoy en día no se utiliza.
4.3.- Estimación de parámetros – Estimación por intervalo y contraste de hipótesis

La estimación por intervalo consiste en decidir, con una probabilidad conocida, el valor del parámetro que se desea
estimar (media, varianza, correlación, regresión…) a partir de un panel de valores en el que se pueda encontrar.

El principal método de estimación por intervalo es el contraste de hipótesis, un proceso de decisión en el que una
hipótesis formulada en términos estadísticos se pone en relación con unos datos empíricos, y que determina si existe
compatibilidad entre los dos.

Para decidir si se tiene que mantener o rechazar la hipótesis nula, hay que aplicar la regla de decisión. Esta regla se
basa en el método de bisección de Stevens, que consiste en cuantificar el nivel de riesgo que estamos dispuestos a
aceptar en nuestro estudio:

 Nivel de riesgo o significación (α). Define el margen de error que el investigador está dispuesto a cometer.
 Nivel de confianza (1-α). Es complementario al nivel de riesgo. A partir del nivel de confianza se puede
calcular el intervalo de confianza multiplicando su valor por 100 (para un nivel de confianza de 0,95, el
intervalo de confianza sería del 95%).

Los niveles de riesgo y confianza se establecen a priori, y su valor se determina de manera arbitraria. No obstante, los
principales niveles de confianza y riesgo utilizados son:

Al realizar un contraste de hipótesis, pueden tomarse cuatro posibles decisiones:

 Mantener la hipótesis nula, siendo esta verdadera (Nivel de confianza 1-α o especificidad)
 Rechazar la hipótesis nula, siendo esta falsa (Potencia 1-β o sensibilidad)
 Rechazar la hipótesis nula siendo ésta verdadera (Error tipo I o α)
 Mantener la hipótesis nula siendo esta falsa (Error tipo II o β)

No se pueden reducir simultáneamente los valores de α y β; si se reduce la probabilidad de cometer el Error tipo I,
aumentará la probabilidad del Error tipo II y viceversa. La única forma de reducir ambos a la vez es aumentando el
tamaño muestral.

Cuando se plantea un nivel de riesgo (y, por consiguiente, de confianza), se delimitan dos regiones:

 Región crítica o de rechazo. Delimitada por el valor de α. Establece un punto crítico a partir del cual se puede
rechazar la hipótesis nula.
 Región no crítica o de aceptación. Coincide con el valor de 1-α. Define la probabilidad de mantener H0.
Hay tres tipos de regiones críticas:

 Bilateral. La H0 plantea una igualdad y la H1 una desigualdad. En este caso, es necesario dividir el valor de α
entre 2.

 Unilateral izquierdo. En este caso el punto crítico se sitúa a la izquierda del gráfico.

 Unilateral derecho. En este caso, el punto crítico se sitúa a la derecha del gráfico.

Una vez establecida la región crítica, se procede a elegir la herramienta estadística que nos permita contrastar
hipótesis: un estadístico de contraste (EC). Cada estadístico de contraste (t de Student es el más utilizado) tiene una
distribución específica, por lo que se debe seleccionar aquel que sea más adecuado para nuestro problema y cuya
distribución se conozca en H0.

La decisión de mantener o rechazar H0 es fruto de la comparación entre el valor del EC y la región crítica, o bien entre
el valor de α y el nivel crítico (p). En este caso, el valor del EC debe utilizarse para dar con el valor equivalente de p
en las tablas recogidas en los manuales de estadística (para un valor T=0,83, el nivel crítico p sería igual a 0,20, por
ejemplo). El nivel crítico es el nivel de significación más pequeño al que una H0 puede ser rechazada con el EC
obtenido. También puede entenderse como la probabilidad de cometer un Error tipo I. Por tanto:

 Si p ≤ α, la probabilidad de cometer un Error tipo I real es inferior al riesgo que hemos fijado a priori, por lo
que se puede rechazar la hipótesis nula.
 Si p > α, la probabilidad de cometer un Error tipo I es superior al riesgo que hemos fijado a priori, por lo que
debe mantenerse la hipótesis nula.

En resumen, los pasos necesarios para realizar un contraste de hipótesis son:

 Formulación de las hipótesis nula y alternativa.


 Selección de un nivel de significación o riesgo (α).
 Determinación de la región crítica.
 Elección del estadístico de contraste (EC).
 Cálculo del valor del estadístico de contraste.
 Comparación del nivel crítico (p) del EC con el nivel de riesgo α establecido a priori.
 Mantenimiento o rechazo de la H0.
4.4.- Estadísticos de contraste - Pruebas paramétricas

Se distinguen dos tipos de estadísticos de contraste o pruebas que permiten contrastar hipótesis:

 Pruebas paramétricas. Se enfocan en la estimación de parámetros. Requieren el cumplimiento de al menos


dos supuestos generales:
o La VD tiene que ser cuantitativa.
o El tamaño muestral debe ser grande (> 30 sujetos) y/o distribuirse normalmente.
 Pruebas no paramétricas. Se enfocan en el análisis de:
o Casos en los que no se cumple alguno de los supuestos anteriores.
o Hipótesis que no se refieren a un parámetro poblacional.

Las pruebas paramétricas más utilizadas son la t de Student (1 VI y <2 medias), el ANOVA I (1 VI y >2 medias), el
ANOVA II (>1 VI) y el ANCOVA:

Las pruebas a aplicar y supuestos que cumplir difieren si se trata de una comparación entre medias independientes
(comparación intergrupo) o medias relacionadas (comparación intragrupo, se hacen dos medidas en un mismo grupo
en momentos temporales diferentes, como pre y postratamiento, por ejemplo).

4.4.1.- M EDIAS INDEPENDIENTES (COMPARACIONES INTERGRUPO )

Para aplicar una prueba paramétrica en un diseño de grupos independientes se deben cumplir, además de los
generales (VD cuantitativa y distribución normal), los siguientes supuestos para medias independientes:

Cuando se aplica una prueba para comprobar si se cumple alguno de los supuestos, realmente se está planteando
un contraste de hipótesis en el que H0 = cumplimiento del supuesto. En este sentido, para que se cumpla un
supuesto, buscamos mantener la hipótesis nula, por lo que si p > α, se cumple el supuesto.

Por otra parte, si no se cumplen los supuestos, antes de aplicar una prueba no paramétrica hay que intentar corregir
los datos mediante transformaciones.
La prueba a aplicar en caso de trabajar con una o dos medias independientes es la t de Student.

Para trabajar con más de dos medias independientes, se utiliza el ANOVA, que permite identificar diferencias
significativas para tres, cuatro o más medias. El ANOVA I se realiza con un solo factor (VI) compuesto por diferentes
categorías (niveles).

El nombre ANOVA viene de “Análisis de la Varianza”, ya que para la comprobación de la hipótesis nula se enfocará en
el estudio de la variabilidad de las observaciones. Hay tres tipos de variabilidad:

Si existe una alta variabilidad intragrupo (las puntuaciones dentro de un grupo son muy diferentes) es muy probable
que haya variables extrañas que no se estén controlando, por eso se considera Error y hay que reducirla en la medida
de lo posible.

Por otra parte, si la variabilidad intergrupo es muy superior a la variabilidad intragrupo, se puede concluir que la VI es
una fuente fuerte de variabilidad.

Una vez se ha comprobado que se cumplen los supuestos de normalidad, independencia y homocedasticidad, para
tomar una decisión acerca de mantener o rechazar la hipótesis nula se utiliza el estadístico F de Fisher-Snedecor.

El estadístico F resulta de la división entre la media cuadrática de las puntuaciones del intergrupo y la media
cuadrática de las puntuaciones del intragrupo. El resultado obtenido, la F empírica, se compara entonces con la F
teórica (obtenida de las tablas de distribución de densidad de probabilidad) y se toma una decisión:

 Si F empírica < F teórica: mantenemos H0.


 Si F empírica ≥ F teórica: rechazamos H0.

En caso de que se rechace H0 y se admita que existen diferencias significativas entre los grupos, es necesario aplicar
las comparaciones múltiples para comprobar entre qué pares de grupos (o niveles de factores) se producen dichas
diferencias.

Las comparaciones múltiples más empleadas son:

 Ante el cumplimiento de la homocedasticidad: HSD de Tukey (la más potente), Bonferroni, Scheffé, Dunnet,
Sidak, Student-Newman-Keuls, Duncan o Fisher
 Ante el incumplimiento de la homocedasticidad: Games-Howell, Dunnet, Tamhane

A las comparaciones múltiples se les asocia una tasa de Error tipo I (a más comparaciones, mayor porcentaje de
error), que puede ser individual o por familia:

 Tasa de error individual. Probabilidad máxima de que una o más comparaciones individualmente concluyan
incorrectamente que la diferencia observada es significativamente diferente de la hipótesis nula.
 Tasa de error por familia. Probabilidad máxima de que más de una comparación concluya incorrectamente
que al menos una de las diferencias observadas es significativamente diferente de la hipótesis nula. Se basa
tanto en la tasa de error individual como en el número de comparaciones. Cada comparación adicional
provoca el aumento acumulado de la tasa de error por familia.
En resumen, el proceso a realizar en un ANOVA I de medias independientes sería:

4.4.2.- M EDIAS RELACIONADAS O DEPENDIENTES (COMPARACIONES INTRAGRUPO )

En el caso de trabajar sobre dos medias dependientes, la prueba paramétrica a utilizar sería la t de Student para
medias relacionadas.

Cuando se trabaja con más de dos medias dependientes, se utiliza el ANOVA en medias dependientes. Cuando se
realiza un ANOVA intragrupo, además de los supuestos de Normalidad, Independencia y Homocedasticidad, hay que
cumplir los siguientes supuestos:

En este caso, la variabilidad a analizar se divide en:


Como en el caso anterior, una vez se ha comprobado que se cumplen todos los supuestos, se aplica el estadístico F
de Snedecor, que en esta ocasión divide la media cuadrática de la varianza intertratamiento entre la media
cuadrática de la varianza error y, de nuevo, compara F empírica con teórica para rechazar o mantener la hipótesis
nula. Además, se realizan luego comparaciones múltiples.

En resumen, el proceso de un ANOVA de medidas relacionadas sería:

En este caso, el supuesto que


determina el camino a seguir
es el de Esfericidad, no el de
Homocedasticidad

4.4.3.- ANOVA II

El ANOVA II consiste en el análisis de la varianza de más de una VI (factor) en más de dos grupos. Permite conocer el
efecto de cada factor por separado y el efecto de su interacción.

El ANOVA II requiere un menor número de sujetos para alcanzar la misma potencia que el ANOVA I.

En este caso, la hipótesis nula se declina en tres propuestas:

 H01. No hay diferencias significativas entre los niveles del factor A (efecto fila).
 H02. No hay diferencias significativas entre los niveles del factor B (efecto columna)
 H03. No hay diferencias significativas entre los niveles del factor A y B (efecto interacción).

Los tipos de variabilidad que se analizan se derivan de lo anterior, existiendo 4 tipos:

 Variabilidad interfila. Variabilidad debida al factor A.


 Variabilidad intercolumna. Variabilidad debida al factor B.
 Variabilidad interacción. Variabilidad debida a la interacción entre A y B.
 Variabilidad error.

Así mismo, el cálculo del estadístico de contraste F de Fisher-Snedecor se hará 3 veces, una para cada hipótesis.

El ANOVA II es el único análisis que permite realizar análisis factoriales. El análisis factorial es un procedimiento
confirmatorio y complementario al ANOVA en el que se analizan los siguientes efectos:

 Efecto principal. Influencia de cada factor (VI) aislado sobre la variable dependiente. Existen tantos efectos
principales como nº de factores incluidos en un diseño.
o Efecto diferencial. Diferencia entre dos niveles de un mismo factor.
 Efecto de interacción. Corresponde al efecto específico de un factor al ser combinado con otro, es decir, a la
variación de la influencia de un factor sobre una VD en función de los valores que adopta otro factor.
o Efecto simple. Efecto del nivel de un factor bajo cada nivel de otro factor.

Existe una jerarquía de interpretación de los efectos, según la cual, si el efecto interactivo es significativo, no se
interpretan los efectos principales que la conforman, sino solo dicho efecto interactivo y los correspondientes efectos
simples.
4.4.4.- ANCOVA

El ANCOVA es un análisis de varianza realizado sobre unas puntuaciones corregidas mediante una recta de regresión.
Se emplea para controlar estadísticamente el error experimental, ya que aísla el efecto de una o más variables
extrañas, llamadas covariables:

 La covariable no debe estar afectada por el influjo de las condiciones experimentales.


 La regresión de la VD sobre la covariable es lineal.
 Homogeneidad de las pendientes. Los K coeficientes de regresión intragrupo (1 por tratamiento) son
homogéneos. Esto quiere decir que las pendientes de las K rectas de regresión de Y sobre la variable extraña
en los K grupos de tratamiento coinciden.

4.4.5.- A NÁLISIS DE LA CORRELACIÓN Y LA REGRESIÓN

Hasta ahora, el contraste de hipótesis se ha hecho sobre la media y la variabilidad de las puntuaciones. No obstante,
también puede realizarse sobre hipótesis de correlación y regresión.

Para contrastar una hipótesis acerca de una correlación se utiliza el estadístico t de Student. Una significación inferior
al nivel de riesgo α implica el rechazo de la hipótesis nula, sea cual sea el valor de la correlación.

Para contrastar una hipótesis acerca de la regresión también se recurre a la t de Student, que se enfoca en este caso
en la estimación del parámetro β (pendiente de la recta de regresión). En regresión, además de los supuestos
generales de las pruebas paramétricas, deben cumplirse los siguientes supuestos:

 Linealidad. Si no se cumple, aumenta el Error tipo II. Se evalúa mediante el Gráfico de dispersión de puntos.
 No colinealidad. Implica que las variables predictoras no están altamente correlacionadas entre ellas. Se
evalúa mediante la prueba de Tolerancia y el Factor de Inflación de la Varianza (FIV).
 Outliers (valores extremos). A fin de diagnosticar la presencia de outliers en un modelo de regresión, se han
de examinar los residuales (errores en la predicción del modelo). Para ello, se utilizan estadísticos como la
Distancia de Cook, el Residual Studentizado, el Residual Estandarizado, los Valores de Influencia o la
Desviación.

4.5.- Estadísticos de contraste - Pruebas no paramétricas

Las pruebas no paramétricas se utilizan en el análisis de hipótesis no referidas a parámetros (tipo de distribución,
bondad de ajuste, independencia…) o cuando no se cumplen los supuestos referidos a una prueba paramétrica y no
se pueden corregir los datos.

Las propiedades de las pruebas no paramétricas son:

 Son más robustas frente a la violación de los supuestos paramétricos.


 Son aplicables también a variables nominales y ordinales.
 No requieren que las muestras empleadas cumplan supuestos de distribución.
 Son aplicables sobre muestras reducidas.
 Consisten en cálculos más sencillos.
 Cuentan con menos potencia estadística.
 Emplean más el orden de las puntuaciones que su nivel (“pierden información”).
Las principales pruebas no paramétricas son:

La comparación entre pruebas paramétricas y no paramétricas sería:

Regla mnemoténica para pruebas no paramétricas: las pruebas de medidas independientes tienen un guion entre los
nombres, y las que miden más de 2 tratamientos tienen una R, ya que hay que trabajar más y estar R que R.

4.6.- Meta-análisis

El meta-análisis es una evolución natural del contraste de hipótesis. Se define como un análisis de análisis, es decir, se
trata de un estudio cuantitativo de estudios cuantitativos ya realizados sobre una misma hipótesis o hipótesis muy
similares.

Para el estudio de sus resultados, los meta-análisis recurren al tamaño del efecto, entendido como la proporción de
varianza de la distribución total explicada por la variable estudiada.

El tamaño del efecto expresa la magnitud de la relación entre dos variables. Las pruebas para contrastar hipótesis nos
revelan si existe una relación entre variables y el grado de significación asociado, pero no nos dan una noción de en
qué grado se da esta relación entre las variables (pequeño, mediano, grande). Eso lo hace el tamaño del efecto.

En este sentido, el tamaño del efecto es un valor complementario al grado de significación, ya que aporta nueva
información respecto a la relación entre las variables. Por tanto, debería usarse no solo en meta-análisis, sino en
cualquier tipo de contraste de hipótesis.
Cuando se realizan comparaciones entre dos grupos (dos medias independientes), el tamaño del efecto puede
calcularse con la prueba d de Cohen.

Cuando se realizan comparaciones ANOVA (más de dos medias), pueden utilizarse las pruebas:

 Eta cuadrado. Es el equivalente al coeficiente de determinación en un modelo de regresión. Es una prueba


no recomendable porque es un estimador sesgado del tamaño del efecto a nivel poblacional.
 Omega cuadrado.
 F.

Por otra parte tenemos la prueba delta de Cliff, que es un estimador no paramétrico del tamaño del efecto.

También podría gustarte