Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Texcoco
Ingeniería en Electrónica y
Telecomunicaciones
Probabilidad y Estadística
Resúmenes de Exposiciones
3MIE1
Hay casos en los que un coeficiente de correlación significativo entre dos variables es
consecuencia de un tercer factor diferente a ellas y no de la existencia de una relación lineal
significativa entre ellas en la consideración de una teoría conocida como, por ejemplo, la biológica,
físicos, económicos, entre otros.
Coeficiente phi
En estadística, el coeficiente phi (φ o rφ), también llamado coeficiente de correlación de Mathews
o coeficiente de contingencia cuadrático medio, es una medida de la asociación entre dos
variables binarias.
Donde n es el número total de observaciones. Se considera que dos variables binarias están
asociadas positivamente si la mayoría de los datos se encuentran dentro de las celdas diagonales.
Por el contrario, dos variables binarias se consideran negativamente asociadas si la mayoría de los
datos se salen de la diagonal. Si tenemos una tabla de 2×2 para dos variables aleatorias, x e y
Supongamos que queremos saber si el género está asociado o no con una preferencia por un
partido político. Tomamos una muestra aleatoria simple de 25 votantes y los encuestamos sobre
sus preferencias de partido político.
Sin embargo, el ítem no tiene carácter dicotómico, sino que es una variable continua, distribuida
según la curva normal, que el analizador decide dicotomizar. Evidentemente, pasar de una escala
continua a una dicotómica implica una pérdida de información considerable, lo que hace
desaconsejable este método.
Distribución normal
Se dice que muchos fenómenos se distribuyen normalmente. Esto significa que, si se toma
aleatoriamente un número suficientemente grande de casos y se construye un polígono de
frecuencias de una variable continua como el peso, la altura, la presión arterial o la temperatura,
se obtendrá una curva con características particulares, denominada distribución normal. Es la base
del análisis estadístico porque casi todas las inferencias estadísticas se basan en él.
Carl Gauss descubrió la función de densidad de probabilidad para la variable aleatoria continua
mientras estudiaba el comportamiento de los procesos aleatorios. Es ampliamente utilizado en
estadística y teoría de la probabilidad.
Esta función, también conocida como distribución normal, tiene forma de campana, por lo que
también se la conoce como campana de Gauss.
Estimación estadística
A pesar de que es un elemento estadístico muy claro, está muy arraigado en nuestra vida
cotidiana. Dentro de ella, también realizamos presupuestos en un amplio abanico de posibilidades.
Por ejemplo: "Creo que terminaré el embarazo en unos 5-6 días".
Lo que hacemos en el campo del análisis de datos es aplicar matices técnicos a este hábito.
Dedicaremos este artículo al concepto de estimación, comenzando con la estimación puntual.
Luego nos ocuparemos de la elaboración de un modelo de estimación por intervalos en el que
identificaremos los elementos fundamentales, con su significado y símbolo.
Asimetría y curtosis
Son aquellos números agregados que representan la forma de la distribución de los datos, es
decir, la simetría y el ajuste del histograma de la variable en estudio. Solo se pueden calcular a
partir de variables medidas en escalas de intervalo y de razón.
Mide cuán asimétrica es la distribución con respecto a la media. Un valor positivo indica que la
distribución está sesgada hacia la izquierda en una dirección positiva.