Está en la página 1de 4

Chi cuadrada

Esta prueba puede utilizarse incluso con datos medibles en una escala nominal.
La hipótesis nula de la prueba Chi-cuadrado postula una distribución de
probabilidad totalmente especificada como el modelo matemático de la población
que ha generado la muestra.
Para realizar este contraste se disponen los datos en una tabla de frecuencias.
Para cada valor o intervalo de valores se indica la frecuencia absoluta observada
o empírica (Oi). A continuación, y suponiendo que la hipótesis nula es cierta, se
calculan para cada valor o intervalo de valores la frecuencia absoluta que cabría
esperar o frecuencia esperada (Ei=n·pi , donde n es el tamaño de la muestra y
pi la probabilidad del i-ésimo valor o intervalo de valores según la hipótesis nula).
El estadístico de prueba se basa en las diferencias entre la Oi y Ei y se define
como:

 La fórmula 2 x 2 para calcular la chi cuadrada


La prueba de McNemar compara las proporciones que se observan antes y
después de un tratamiento. Por ejemplo, la prueba de McNemar se puede utilizar
para determinar si un programa de capacitación cambia la proporción de
participantes que contestan correctamente una pregunta.
Las observaciones de la prueba de McNemar se pueden resumir en una tabla de
dos por dos, como se muestra abajo.
Intervalo de confianza
Un intervalo de confianza aproximado de 100(1 – α)% viene dado por la siguiente
fórmula:

donde α es el nivel de significancia de la prueba, z α/2 es la puntuación z asociada


a la probabilidad de cola de α/2 y EE viene dado por la siguiente fórmula:

Valor p
La hipótesis nula es δ = 0. El valor p exacto para la prueba de la hipótesis nula
se calcula como:

• Pruebas de significancia
La diferencia entre un estadístico de muestra y un valor hipotético es
estadísticamente significativa si una prueba de hipótesis indica que es muy poco
probable que la misma haya ocurrido en virtud de las probabilidades. Para
evaluar la significancia estadística, examine el valor p de la prueba. Si el valor p
está por debajo de un nivel de significancia (α) especificado (generalmente 0.10,
0.05 o 0.01), usted puede decir que la diferencia es estadísticamente significativa
y rechazar la hipótesis nula de la prueba.
Por ejemplo, supongamos que usted desea determinar si el grosor de unos
parabrisas de vehículo supera los 4 mm, tal como lo exigen las normas de
seguridad. Usted toma una muestra de parabrisas y realiza una prueba t de 1
muestra con un nivel de significancia (α) de 0.05 y plantea las hipótesis
siguientes:
H0: μ = 4
H1: μ > 4
• Coeficiente de contingencia
El coeficiente de contingencia se utiliza para saber la asociación de variables
cualitativas nominales, que tienen dos o más categorías. Este coeficiente require
del cálculo previo del estadístico Chi Cuadrado. Chi cuadrado relaciona los
valores observados ( que son los datos recabados para la investigación) , y los
valores esperados. Éstos últimos ( los valores esperados) se calculan haciendo
el supuesto de que los valores pertenecen a una distribución independiente.
Por lo que se multiplica el total de cada fila por el total de cada columna de la
tabla de contingencia y luego se divide por el total de las observaciones (n). Por
lo que , si fuera cierto que los valores son independientes, todos los valores
calculados para cada casillero de la tabla de contingencia deberían dar el mismo
número. Por lo tanto Chi Cuadrado debe debería dar cero.Generalmente, esto
no sucede.
• Correlación de atributos
La correlación estadística constituye una técnica estadística que nos indica si
dos variables están relacionadas o no.
Por ejemplo, considera que las variables son el ingreso familiar y el gasto
familiar. Se sabe que los aumentos de ingresos y gastos disminuyen juntos. Por
lo tanto, están relacionados en el sentido de que el cambio en cualquier variable
estará acompañado por un cambio en la otra variable.
De la misma manera, los precios y la demanda de un producto son variables
relacionadas; cuando los precios aumentan la demanda tenderá a disminuir y
viceversa.
Correlación
• Correlación y regresión
Correlación
La correlación entre dos variables es - otra vez puesto en los términos más
simples - el grado de asociación entre las mismas. Este es expresado por un
único valor llamado coeficiente de correlación (r), el cual puede tener valores que
ocilan entre -1 y +1. Cuando “r” es negativo, ello significa que una variable (ya
sea “x” o “y”) tiende a decrecer cuando la otra aumenta (se trata entonces de una
“correlación negativa”, correspondiente a un valor negativo de “b” en el análisis
de regresión). Cuando “r” es positivo, en cambio, esto significa que una variable
se incrementa al hacerse mayor la otra (lo cual corresponde a un valor positivo
de “b” en el análisis de regresión).
Regresión lineal
Expresándolo en forma simple, la regresión lineal es una técnica que permite
cuantificar la relación que puede ser observada cuando se grafica un diagrama
de puntos dispersos correspondientes a dos variables, cuya tendencia general
es rectilínea (Figura la); relación que cabe compendiar mediante una ecuación
“del mejor ajuste” de la forma:

y = a + bx

• Correlación lineal
Correlación lineal. Bajo el concepto de correlación se recogen varios
procedimientos e indicadores estadísticos utilizados para determinar el grado de
asociacoón entre dos variables; el más sencillo de ellos es el de correlación lineal
que está basado en la comparación de la varianza asociada de dos variables
(covarianza) y las desviaciones estándar de cada uno a través del cálculo del
coeficiente r de Pearson.
Covarianza
La covarianza (cov(x,y)) de dos variables es un indicador de la relación entre
ellas. Este parámetro puede utilizarse para medir la relación entre dos variables
solo si están expresadas en la misma escala o unidad de medida.
• Medidas de correlación
En probabilidad y estadística, la correlación indica la fuerza y la dirección de una
relación lineal entre dos variables aleatorias. Se considera que dos variables
cuantitativas están correlacionadas cuando los valores de una de ellas varían
sistemáticamente con respecto a los valores homónimos de la otra: si tenemos
dos variables (A y B) existe correlación si al aumentar los valores de A lo hacen
también los de B y viceversa. La correlación entre dos variables no implica, por
sí misma, ninguna relación de causalidad El objetivo primordial de la correlación
es medir la intensidad de la relación entre dos variables
• Coeficiente de correlación
El coeficiente de correlación lineal es el cociente entre la covarianza y el producto
de las desviaciones típicas de ambas variables.
El coeficiente de correlación lineal se expresa mediante la letra r.
Coeficiente de correlación lineal
Propiedades
1. El coeficiente de correlación no varía al hacerlo la escala de medición.
Es decir, si expresamos la altura en metros o en centímetros el coeficiente de
correlación no varía.
• Análisis de regresión
Un análisis de regresión genera una ecuación para describir la relación
estadística entre uno o más predictores y la variable de respuesta y para predecir
nuevas observaciones. La regresión lineal generalmente utiliza el método de
estimación de mínimos cuadrados ordinarios, del cual se obtiene la ecuación al
minimizar la suma de los residuos al cuadrado.
Por ejemplo, usted trabaja para una compañía de chips de patatas que analiza
los factores que afectan el porcentaje de chips desmenuzados por contenedor
antes del envío (la variable de respuesta). Usted lleva a cabo el análisis de
regresión e incluye el porcentaje de patatas con respecto a otros ingredientes y
la temperatura de cocción (grados centígrados) como su dos predictores. La
siguiente es una tabla de los resultados.

También podría gustarte