Coeficiente phi

http://es.wikipedia.org/wiki/Coeficiente_phi De Wikipedia, la enciclopedia libre Saltar a navegación, búsqueda En estadística, el coeficiente phi o r , también llamado coeficiente de correlación de Mathews es una medida de la asociación entre dos variables binarias. Esta medida es similar al coeficiente de correlación de Pearson en su interpretación. De hecho, un coeficiente de correlación de Pearson estimado para dos variables binarias nos dará el coeficiente phi.[1] El coeficiente phi también relacionado con el estadístico de chi-cuadrado para una tabla de contingencia de a 2×2.[2]

Donde n es el total del número de observaciones. Se considera que dos variables binarias están positivamente asociadas si la mayor parte de los datos caen dentro de las celdas diagonales. Por contra, dos variables binarias se consideran negativamente asociadas si la mayoría de los datos se salen de la diagonal. Si tenemos una tabla de 2×2 para dos variables aleatorias, x e y y = 1 y = 0 total x = 1 n11 x = 0 n01 n10 n00

n total donde n11, n10, n01, n00, son "cuentas no negativas celdad celda" que se suman a n, el número total de observaciones. El coeficiente phi que describe la asociación de x e y es

[editar] Valores máximos Aunque en computación el coeficiente de correlación de Pearson se reduce al coeficiente phi en el caso 2×2, la interpretación del coeficiente de correlación de Pearson y el coeficiente phi se deben tomar con precaución. El coeficiente de correlación de Pearson va desde 1 a +1, donde ±1 concordancia o discordancia perfectas, y el 0 indica ausencia de relación. El coeficiente phi tiene un valor máximo que está determinado por la distribución de dos variables. Si ambas tienen un split 50/50, el rango de phi irá de 1 a +1. Ver Davenport El-Sanhury (1991) para una exhaustiva discusión.[3] [editar] Referencias Guilford, J. (1936). Psychometric Methods. New York: McGraw±Hill Book Company, Inc. 1. 2. Everitt B.S. (2002) The Cambridge Dictionary of Statistics, CUP. ISBN 0-521-81099-X Davenport, E., & El-Sanhury, N. (1991). Phi/Phimax: Review and Synthesis. Educational 3. and Psychological Measurement, 51, 821 828.

google.41. phi es la raíz cuadrada de chi-cuadrado dividido por n. También en 2 por 2 mesas. Phi elimina tamaño de la muestra mediante la división de chi-cuadrado por n. El porcentaje de diferencia con el partido como independiente (columna) es de 42%.0 para tablas más grandes. En las grandes mesas. Otras características: Phi es muy sensible a los cambios en las distribuciones marginales. lo que sea menor. Significado de la asociación: Phi define como asociación perfecta monotonía predictivo (ver la discusión en la sección de la asociación ). y Parte / Votación Demócrata Votado y Republicano 10 15 y y y y ¿No Votar 5 20 Interpretación: En 2-b-2 tablas. Phi es la diferencia porcentual media entre el partido y votar con cualquiera de considerarse como causa de la otra. Para la siguiente tabla phi =. el ajuste de la distribución marginal de las variables. Esto significa filosofía puede ser mayor que 1. y tomando la raíz cuadrada. El chi-cuadrado coeficiente depende de la fuerza de la relación y tamaño de la muestra.http://translate. aunque por 2 por 2 mesas. que mide el porcentaje de concentración de casos en la diagonal.com. Para el ejemplo anterior.1). Phi no varía de 0 a 1. Ejemplo. Cuando phi informática. Sin embargo. no existe una interpretación simple e intuitiva. lo que le permite indicar relaciones negativas cuando se utiliza con dichotmous datos ordinales. Phi es una medida basada chi-cuadrado de asociación.0. sin embargo. que algunos paquetes informáticos. el valor máximo de la filosofía es la raíz cuadrada de (k . 41. la filosofía sigue siendo una medida simétrica y la señal puede ser ignorado cuando se utilizan datos nominales dicotómicas. y con el voto como independiente es de 40%.vc u. con un máximo teórico de lo infinito. nivel de datos: Phi es utilizado con los datos nominales. los datos pueden ser ordinales. el tamaño de la muestra: phi = SQRT (X 2 / n). Computacionalmente. que es una razón por la filosofía se utiliza a menudo sólo para dos-por-2 tablas. Filosofía tiende a subestimar las relaciones asimétricas. donde phi puede ser mayor que 1. y define la relación como nula independencia estadística. tenga en cuenta que la corrección de Yates de chi-cuadrado no se utiliza. Nótese. utilizar fórmulas especiales para phi en 2 por 2 tablas para que phi varía entre -1 y +1. No hace ninguna diferencia que es la independiente (columna) variable. Symmetricalness: Phi es una medida simétrica. Para las tablas de más de 2 por 2. . SPSS y otros paquetes importantes informe el nivel de significancia del valor de phi computarizada. Desde filosofía tiene una distribución de muestreo sabido que es posible calcular su error estándar y el significado.edu/~pdattalo/702SuppRead/MeasAssoc/NominalAssoc. como Systat. Phi lo que mide la fuerza de la relación definida como el número de casos en una diagonal menos el número en la otra diagonal. phi es idéntico al coeficiente de correlación. el tamaño de la muestra.html Phi. donde k es el número o filas o el número de columnas. phi puede interpretarse en el porcentaje de diferencia simétrica.pe/translate?hl=es&langpair=en%7Ces&u=http://www. y difiere dependiendo del tamaño de la tabla.people. phi es 0.

001 d= 1 . Si X e Y independientes -> 1 = 2 con lo que su riesgo relativo es r= 1/ 2 = 1 Ahora bien. y N es el total de observaciones -el gran total-.009 y Si 1 = 0. la primera el sexo (hombre o mujer) y la segunda recoge si el individuo es zurdo o diestro.01 2 = 0. . Supóngase que se dispone de dos variables. habitualmente de naturaleza cualitativa (nominales u ordinales).2 = 0. El grado de asociación entre dos variables se puede evaluar empleando distintos coeficientes: el más simple es el coeficiente phi que se define por = ¥( 2 / N) donde 2 se deriva del test de Pearson. se dice que existe asociación entre las dos variables. Si no existe asociación se dice que ambas variables son independientes.41/0.401 d= 1 . Se puede emplear una tabla de contingencia para expresar la relación entre estas dos variables.http://es.902 --> la proporción de éxito (diestro) dentro de las mujeres es alrededor de un 10% mayor que dentro del grupo de los hombres.001 = 10 r=0. Si la proporción de individuos en cada columna varía entre las diversas filas y viceversa. Se ha observado esta pareja de variables en una muestra aleatoria de 100 individuos. del siguiente modo: Diestro Zurdo TOTAL Hombre 43 9 52 Mujer 44 4 48 TOTAL 87 13 100 Las cifras en la columna de la derecha y en la fila inferior reciben el nombre de frecuencias marginales y la cifra situada en la esquina inferior derecha es el gran total. La tabla nos permite ver de un vistazo que la proporción de hombres diestros es aproximadamente igual a la proporción de mujeres diestras. Por ejemplo: y Si 1 = 0.2 = 0. puede oscilar entre 0 (que indica que no existe asociación entre las variables) e infinito.org/wiki/Tabla_de_contingencia En estadística las tablas de contingencia se emplean para registrar y analizar la relación entre dos o más variables. [editar] Estudio de diferencia de proporciones Hay situaciones en las que tenemos probabilidades de éxito cercanas al cero o del uno en donde las proporciones pueden ser poco ilustrativas sobre el comportamiento dentro de los grupos. ambas proporciones no son idénticas y la significación estadística de la diferencia entre ellas puede ser evaluada con la prueba ² de Pearson. el coeficiente de Cramer no está acotado. A diferencia de otras medidas de asociación.41 2 = 0. supuesto que las cifras de la tabla son una muestra aleatoria de una población. ¿cómo estimar r? r' = p1/p2 En el ejemplo de más arriba: r' = (43/52) / (44/48) = 0.009 Vamos a definir el riesgo relativo como r= 1/ 2 Para los ejemplos anteriores: r=0.02 En el primer caso el éxito dentro de los grupos es 10 veces mayor que en el otro.wikipedia.401 = 1. Sin embargo.01/0.

Sign up to vote on this title
UsefulNot useful