Coeficiente phi

http://es.wikipedia.org/wiki/Coeficiente_phi De Wikipedia, la enciclopedia libre Saltar a navegación, búsqueda En estadística, el coeficiente phi o r , también llamado coeficiente de correlación de Mathews es una medida de la asociación entre dos variables binarias. Esta medida es similar al coeficiente de correlación de Pearson en su interpretación. De hecho, un coeficiente de correlación de Pearson estimado para dos variables binarias nos dará el coeficiente phi.[1] El coeficiente phi también relacionado con el estadístico de chi-cuadrado para una tabla de contingencia de a 2×2.[2]

Donde n es el total del número de observaciones. Se considera que dos variables binarias están positivamente asociadas si la mayor parte de los datos caen dentro de las celdas diagonales. Por contra, dos variables binarias se consideran negativamente asociadas si la mayoría de los datos se salen de la diagonal. Si tenemos una tabla de 2×2 para dos variables aleatorias, x e y y = 1 y = 0 total x = 1 n11 x = 0 n01 n10 n00

n total donde n11, n10, n01, n00, son "cuentas no negativas celdad celda" que se suman a n, el número total de observaciones. El coeficiente phi que describe la asociación de x e y es

[editar] Valores máximos Aunque en computación el coeficiente de correlación de Pearson se reduce al coeficiente phi en el caso 2×2, la interpretación del coeficiente de correlación de Pearson y el coeficiente phi se deben tomar con precaución. El coeficiente de correlación de Pearson va desde 1 a +1, donde ±1 concordancia o discordancia perfectas, y el 0 indica ausencia de relación. El coeficiente phi tiene un valor máximo que está determinado por la distribución de dos variables. Si ambas tienen un split 50/50, el rango de phi irá de 1 a +1. Ver Davenport El-Sanhury (1991) para una exhaustiva discusión.[3] [editar] Referencias Guilford, J. (1936). Psychometric Methods. New York: McGraw±Hill Book Company, Inc. 1. 2. Everitt B.S. (2002) The Cambridge Dictionary of Statistics, CUP. ISBN 0-521-81099-X Davenport, E., & El-Sanhury, N. (1991). Phi/Phimax: Review and Synthesis. Educational 3. and Psychological Measurement, 51, 821 828.

que algunos paquetes informáticos. nivel de datos: Phi es utilizado con los datos nominales. phi es la raíz cuadrada de chi-cuadrado dividido por n. phi es 0. y con el voto como independiente es de 40%.pe/translate?hl=es&langpair=en%7Ces&u=http://www. y define la relación como nula independencia estadística. SPSS y otros paquetes importantes informe el nivel de significancia del valor de phi computarizada. el ajuste de la distribución marginal de las variables. y difiere dependiendo del tamaño de la tabla.google. No hace ninguna diferencia que es la independiente (columna) variable. También en 2 por 2 mesas. utilizar fórmulas especiales para phi en 2 por 2 tablas para que phi varía entre -1 y +1. el tamaño de la muestra: phi = SQRT (X 2 / n).1). los datos pueden ser ordinales. sin embargo. Phi elimina tamaño de la muestra mediante la división de chi-cuadrado por n. lo que le permite indicar relaciones negativas cuando se utiliza con dichotmous datos ordinales. phi puede interpretarse en el porcentaje de diferencia simétrica.0 para tablas más grandes.vc u. lo que sea menor. . la filosofía sigue siendo una medida simétrica y la señal puede ser ignorado cuando se utilizan datos nominales dicotómicas. El chi-cuadrado coeficiente depende de la fuerza de la relación y tamaño de la muestra. 41. Significado de la asociación: Phi define como asociación perfecta monotonía predictivo (ver la discusión en la sección de la asociación ).com. Filosofía tiende a subestimar las relaciones asimétricas. Nótese. Phi lo que mide la fuerza de la relación definida como el número de casos en una diagonal menos el número en la otra diagonal. Phi es la diferencia porcentual media entre el partido y votar con cualquiera de considerarse como causa de la otra. Sin embargo. Desde filosofía tiene una distribución de muestreo sabido que es posible calcular su error estándar y el significado. Otras características: Phi es muy sensible a los cambios en las distribuciones marginales. que es una razón por la filosofía se utiliza a menudo sólo para dos-por-2 tablas. tenga en cuenta que la corrección de Yates de chi-cuadrado no se utiliza.http://translate. con un máximo teórico de lo infinito.41. Phi es una medida basada chi-cuadrado de asociación. Cuando phi informática. En las grandes mesas. donde k es el número o filas o el número de columnas. Para la siguiente tabla phi =.people. y Parte / Votación Demócrata Votado y Republicano 10 15 y y y y ¿No Votar 5 20 Interpretación: En 2-b-2 tablas. Para las tablas de más de 2 por 2. Symmetricalness: Phi es una medida simétrica. Para el ejemplo anterior. Esto significa filosofía puede ser mayor que 1.edu/~pdattalo/702SuppRead/MeasAssoc/NominalAssoc. Computacionalmente. como Systat. Phi no varía de 0 a 1. y tomando la raíz cuadrada. no existe una interpretación simple e intuitiva. el valor máximo de la filosofía es la raíz cuadrada de (k . que mide el porcentaje de concentración de casos en la diagonal.html Phi. el tamaño de la muestra. aunque por 2 por 2 mesas.0. El porcentaje de diferencia con el partido como independiente (columna) es de 42%. donde phi puede ser mayor que 1. phi es idéntico al coeficiente de correlación. Ejemplo.

puede oscilar entre 0 (que indica que no existe asociación entre las variables) e infinito.009 y Si 1 = 0. habitualmente de naturaleza cualitativa (nominales u ordinales).009 Vamos a definir el riesgo relativo como r= 1/ 2 Para los ejemplos anteriores: r=0. Se puede emplear una tabla de contingencia para expresar la relación entre estas dos variables. se dice que existe asociación entre las dos variables. El grado de asociación entre dos variables se puede evaluar empleando distintos coeficientes: el más simple es el coeficiente phi que se define por = ¥( 2 / N) donde 2 se deriva del test de Pearson.902 --> la proporción de éxito (diestro) dentro de las mujeres es alrededor de un 10% mayor que dentro del grupo de los hombres. A diferencia de otras medidas de asociación. la primera el sexo (hombre o mujer) y la segunda recoge si el individuo es zurdo o diestro. Si no existe asociación se dice que ambas variables son independientes.41/0. del siguiente modo: Diestro Zurdo TOTAL Hombre 43 9 52 Mujer 44 4 48 TOTAL 87 13 100 Las cifras en la columna de la derecha y en la fila inferior reciben el nombre de frecuencias marginales y la cifra situada en la esquina inferior derecha es el gran total.2 = 0.http://es.001 = 10 r=0. Se ha observado esta pareja de variables en una muestra aleatoria de 100 individuos. La tabla nos permite ver de un vistazo que la proporción de hombres diestros es aproximadamente igual a la proporción de mujeres diestras. Supóngase que se dispone de dos variables.wikipedia.org/wiki/Tabla_de_contingencia En estadística las tablas de contingencia se emplean para registrar y analizar la relación entre dos o más variables. el coeficiente de Cramer no está acotado. [editar] Estudio de diferencia de proporciones Hay situaciones en las que tenemos probabilidades de éxito cercanas al cero o del uno en donde las proporciones pueden ser poco ilustrativas sobre el comportamiento dentro de los grupos. ¿cómo estimar r? r' = p1/p2 En el ejemplo de más arriba: r' = (43/52) / (44/48) = 0.401 = 1.2 = 0.41 2 = 0. .02 En el primer caso el éxito dentro de los grupos es 10 veces mayor que en el otro. Si la proporción de individuos en cada columna varía entre las diversas filas y viceversa.01 2 = 0. Por ejemplo: y Si 1 = 0. supuesto que las cifras de la tabla son una muestra aleatoria de una población.401 d= 1 . Si X e Y independientes -> 1 = 2 con lo que su riesgo relativo es r= 1/ 2 = 1 Ahora bien. ambas proporciones no son idénticas y la significación estadística de la diferencia entre ellas puede ser evaluada con la prueba ² de Pearson. y N es el total de observaciones -el gran total-.001 d= 1 . Sin embargo.01/0.

Sign up to vote on this title
UsefulNot useful