Coeficiente phi

http://es.wikipedia.org/wiki/Coeficiente_phi De Wikipedia, la enciclopedia libre Saltar a navegación, búsqueda En estadística, el coeficiente phi o r , también llamado coeficiente de correlación de Mathews es una medida de la asociación entre dos variables binarias. Esta medida es similar al coeficiente de correlación de Pearson en su interpretación. De hecho, un coeficiente de correlación de Pearson estimado para dos variables binarias nos dará el coeficiente phi.[1] El coeficiente phi también relacionado con el estadístico de chi-cuadrado para una tabla de contingencia de a 2×2.[2]

Donde n es el total del número de observaciones. Se considera que dos variables binarias están positivamente asociadas si la mayor parte de los datos caen dentro de las celdas diagonales. Por contra, dos variables binarias se consideran negativamente asociadas si la mayoría de los datos se salen de la diagonal. Si tenemos una tabla de 2×2 para dos variables aleatorias, x e y y = 1 y = 0 total x = 1 n11 x = 0 n01 n10 n00

n total donde n11, n10, n01, n00, son "cuentas no negativas celdad celda" que se suman a n, el número total de observaciones. El coeficiente phi que describe la asociación de x e y es

[editar] Valores máximos Aunque en computación el coeficiente de correlación de Pearson se reduce al coeficiente phi en el caso 2×2, la interpretación del coeficiente de correlación de Pearson y el coeficiente phi se deben tomar con precaución. El coeficiente de correlación de Pearson va desde 1 a +1, donde ±1 concordancia o discordancia perfectas, y el 0 indica ausencia de relación. El coeficiente phi tiene un valor máximo que está determinado por la distribución de dos variables. Si ambas tienen un split 50/50, el rango de phi irá de 1 a +1. Ver Davenport El-Sanhury (1991) para una exhaustiva discusión.[3] [editar] Referencias Guilford, J. (1936). Psychometric Methods. New York: McGraw±Hill Book Company, Inc. 1. 2. Everitt B.S. (2002) The Cambridge Dictionary of Statistics, CUP. ISBN 0-521-81099-X Davenport, E., & El-Sanhury, N. (1991). Phi/Phimax: Review and Synthesis. Educational 3. and Psychological Measurement, 51, 821 828.

lo que le permite indicar relaciones negativas cuando se utiliza con dichotmous datos ordinales. En las grandes mesas. SPSS y otros paquetes importantes informe el nivel de significancia del valor de phi computarizada. 41. Para las tablas de más de 2 por 2. que es una razón por la filosofía se utiliza a menudo sólo para dos-por-2 tablas. con un máximo teórico de lo infinito.google. Esto significa filosofía puede ser mayor que 1. Phi lo que mide la fuerza de la relación definida como el número de casos en una diagonal menos el número en la otra diagonal. phi es la raíz cuadrada de chi-cuadrado dividido por n.0 para tablas más grandes.41. Para el ejemplo anterior. Filosofía tiende a subestimar las relaciones asimétricas.vc u. Significado de la asociación: Phi define como asociación perfecta monotonía predictivo (ver la discusión en la sección de la asociación ).pe/translate?hl=es&langpair=en%7Ces&u=http://www. Phi es la diferencia porcentual media entre el partido y votar con cualquiera de considerarse como causa de la otra. Phi es una medida basada chi-cuadrado de asociación. y tomando la raíz cuadrada. Cuando phi informática. phi es 0. El chi-cuadrado coeficiente depende de la fuerza de la relación y tamaño de la muestra. Nótese. el ajuste de la distribución marginal de las variables. el tamaño de la muestra: phi = SQRT (X 2 / n). No hace ninguna diferencia que es la independiente (columna) variable. El porcentaje de diferencia con el partido como independiente (columna) es de 42%. y difiere dependiendo del tamaño de la tabla. Para la siguiente tabla phi =. que mide el porcentaje de concentración de casos en la diagonal.0. sin embargo. como Systat.1). Ejemplo. los datos pueden ser ordinales. donde phi puede ser mayor que 1. Desde filosofía tiene una distribución de muestreo sabido que es posible calcular su error estándar y el significado. y Parte / Votación Demócrata Votado y Republicano 10 15 y y y y ¿No Votar 5 20 Interpretación: En 2-b-2 tablas.http://translate. Symmetricalness: Phi es una medida simétrica. tenga en cuenta que la corrección de Yates de chi-cuadrado no se utiliza. la filosofía sigue siendo una medida simétrica y la señal puede ser ignorado cuando se utilizan datos nominales dicotómicas. lo que sea menor. Computacionalmente. aunque por 2 por 2 mesas. Phi elimina tamaño de la muestra mediante la división de chi-cuadrado por n.html Phi. nivel de datos: Phi es utilizado con los datos nominales.edu/~pdattalo/702SuppRead/MeasAssoc/NominalAssoc. donde k es el número o filas o el número de columnas. no existe una interpretación simple e intuitiva. utilizar fórmulas especiales para phi en 2 por 2 tablas para que phi varía entre -1 y +1. . el valor máximo de la filosofía es la raíz cuadrada de (k . el tamaño de la muestra. y con el voto como independiente es de 40%. y define la relación como nula independencia estadística. phi puede interpretarse en el porcentaje de diferencia simétrica. Phi no varía de 0 a 1. Sin embargo. También en 2 por 2 mesas. Otras características: Phi es muy sensible a los cambios en las distribuciones marginales. phi es idéntico al coeficiente de correlación.com.people. que algunos paquetes informáticos.

puede oscilar entre 0 (que indica que no existe asociación entre las variables) e infinito. del siguiente modo: Diestro Zurdo TOTAL Hombre 43 9 52 Mujer 44 4 48 TOTAL 87 13 100 Las cifras en la columna de la derecha y en la fila inferior reciben el nombre de frecuencias marginales y la cifra situada en la esquina inferior derecha es el gran total. A diferencia de otras medidas de asociación. la primera el sexo (hombre o mujer) y la segunda recoge si el individuo es zurdo o diestro. y N es el total de observaciones -el gran total-.02 En el primer caso el éxito dentro de los grupos es 10 veces mayor que en el otro. Se ha observado esta pareja de variables en una muestra aleatoria de 100 individuos. Si la proporción de individuos en cada columna varía entre las diversas filas y viceversa. se dice que existe asociación entre las dos variables.902 --> la proporción de éxito (diestro) dentro de las mujeres es alrededor de un 10% mayor que dentro del grupo de los hombres. habitualmente de naturaleza cualitativa (nominales u ordinales). Se puede emplear una tabla de contingencia para expresar la relación entre estas dos variables.401 d= 1 .401 = 1. Si no existe asociación se dice que ambas variables son independientes. ¿cómo estimar r? r' = p1/p2 En el ejemplo de más arriba: r' = (43/52) / (44/48) = 0.2 = 0.009 Vamos a definir el riesgo relativo como r= 1/ 2 Para los ejemplos anteriores: r=0.41 2 = 0.01/0.001 = 10 r=0. [editar] Estudio de diferencia de proporciones Hay situaciones en las que tenemos probabilidades de éxito cercanas al cero o del uno en donde las proporciones pueden ser poco ilustrativas sobre el comportamiento dentro de los grupos.41/0.2 = 0. ambas proporciones no son idénticas y la significación estadística de la diferencia entre ellas puede ser evaluada con la prueba ² de Pearson. . supuesto que las cifras de la tabla son una muestra aleatoria de una población. El grado de asociación entre dos variables se puede evaluar empleando distintos coeficientes: el más simple es el coeficiente phi que se define por = ¥( 2 / N) donde 2 se deriva del test de Pearson.wikipedia.01 2 = 0.009 y Si 1 = 0. Supóngase que se dispone de dos variables.org/wiki/Tabla_de_contingencia En estadística las tablas de contingencia se emplean para registrar y analizar la relación entre dos o más variables. el coeficiente de Cramer no está acotado. Si X e Y independientes -> 1 = 2 con lo que su riesgo relativo es r= 1/ 2 = 1 Ahora bien.001 d= 1 . Sin embargo.http://es. La tabla nos permite ver de un vistazo que la proporción de hombres diestros es aproximadamente igual a la proporción de mujeres diestras. Por ejemplo: y Si 1 = 0.