Coeficiente phi

http://es.wikipedia.org/wiki/Coeficiente_phi De Wikipedia, la enciclopedia libre Saltar a navegación, búsqueda En estadística, el coeficiente phi o r , también llamado coeficiente de correlación de Mathews es una medida de la asociación entre dos variables binarias. Esta medida es similar al coeficiente de correlación de Pearson en su interpretación. De hecho, un coeficiente de correlación de Pearson estimado para dos variables binarias nos dará el coeficiente phi.[1] El coeficiente phi también relacionado con el estadístico de chi-cuadrado para una tabla de contingencia de a 2×2.[2]

Donde n es el total del número de observaciones. Se considera que dos variables binarias están positivamente asociadas si la mayor parte de los datos caen dentro de las celdas diagonales. Por contra, dos variables binarias se consideran negativamente asociadas si la mayoría de los datos se salen de la diagonal. Si tenemos una tabla de 2×2 para dos variables aleatorias, x e y y = 1 y = 0 total x = 1 n11 x = 0 n01 n10 n00

n total donde n11, n10, n01, n00, son "cuentas no negativas celdad celda" que se suman a n, el número total de observaciones. El coeficiente phi que describe la asociación de x e y es

[editar] Valores máximos Aunque en computación el coeficiente de correlación de Pearson se reduce al coeficiente phi en el caso 2×2, la interpretación del coeficiente de correlación de Pearson y el coeficiente phi se deben tomar con precaución. El coeficiente de correlación de Pearson va desde 1 a +1, donde ±1 concordancia o discordancia perfectas, y el 0 indica ausencia de relación. El coeficiente phi tiene un valor máximo que está determinado por la distribución de dos variables. Si ambas tienen un split 50/50, el rango de phi irá de 1 a +1. Ver Davenport El-Sanhury (1991) para una exhaustiva discusión.[3] [editar] Referencias Guilford, J. (1936). Psychometric Methods. New York: McGraw±Hill Book Company, Inc. 1. 2. Everitt B.S. (2002) The Cambridge Dictionary of Statistics, CUP. ISBN 0-521-81099-X Davenport, E., & El-Sanhury, N. (1991). Phi/Phimax: Review and Synthesis. Educational 3. and Psychological Measurement, 51, 821 828.

Otras características: Phi es muy sensible a los cambios en las distribuciones marginales. Symmetricalness: Phi es una medida simétrica. con un máximo teórico de lo infinito. . phi puede interpretarse en el porcentaje de diferencia simétrica. el tamaño de la muestra. el tamaño de la muestra: phi = SQRT (X 2 / n). También en 2 por 2 mesas. Para el ejemplo anterior. No hace ninguna diferencia que es la independiente (columna) variable. En las grandes mesas. phi es idéntico al coeficiente de correlación. Phi es una medida basada chi-cuadrado de asociación. donde phi puede ser mayor que 1. sin embargo. los datos pueden ser ordinales. Phi no varía de 0 a 1. aunque por 2 por 2 mesas. y Parte / Votación Demócrata Votado y Republicano 10 15 y y y y ¿No Votar 5 20 Interpretación: En 2-b-2 tablas. Sin embargo. Phi elimina tamaño de la muestra mediante la división de chi-cuadrado por n. el valor máximo de la filosofía es la raíz cuadrada de (k . y con el voto como independiente es de 40%. Filosofía tiende a subestimar las relaciones asimétricas. y define la relación como nula independencia estadística. Para la siguiente tabla phi =. Computacionalmente.http://translate. Para las tablas de más de 2 por 2. donde k es el número o filas o el número de columnas. que es una razón por la filosofía se utiliza a menudo sólo para dos-por-2 tablas.html Phi. utilizar fórmulas especiales para phi en 2 por 2 tablas para que phi varía entre -1 y +1. SPSS y otros paquetes importantes informe el nivel de significancia del valor de phi computarizada. Phi es la diferencia porcentual media entre el partido y votar con cualquiera de considerarse como causa de la otra. y tomando la raíz cuadrada. El chi-cuadrado coeficiente depende de la fuerza de la relación y tamaño de la muestra. El porcentaje de diferencia con el partido como independiente (columna) es de 42%. nivel de datos: Phi es utilizado con los datos nominales. la filosofía sigue siendo una medida simétrica y la señal puede ser ignorado cuando se utilizan datos nominales dicotómicas. 41. phi es la raíz cuadrada de chi-cuadrado dividido por n.pe/translate?hl=es&langpair=en%7Ces&u=http://www. Cuando phi informática.0.google.0 para tablas más grandes. Phi lo que mide la fuerza de la relación definida como el número de casos en una diagonal menos el número en la otra diagonal. phi es 0. lo que sea menor. Ejemplo.1). que mide el porcentaje de concentración de casos en la diagonal. no existe una interpretación simple e intuitiva. que algunos paquetes informáticos. Nótese. Esto significa filosofía puede ser mayor que 1. como Systat. Significado de la asociación: Phi define como asociación perfecta monotonía predictivo (ver la discusión en la sección de la asociación ). tenga en cuenta que la corrección de Yates de chi-cuadrado no se utiliza.com.people.41.edu/~pdattalo/702SuppRead/MeasAssoc/NominalAssoc. lo que le permite indicar relaciones negativas cuando se utiliza con dichotmous datos ordinales. Desde filosofía tiene una distribución de muestreo sabido que es posible calcular su error estándar y el significado. y difiere dependiendo del tamaño de la tabla. el ajuste de la distribución marginal de las variables.vc u.

401 = 1. y N es el total de observaciones -el gran total-.401 d= 1 .01/0. Se ha observado esta pareja de variables en una muestra aleatoria de 100 individuos. A diferencia de otras medidas de asociación. Sin embargo. Supóngase que se dispone de dos variables.2 = 0. .02 En el primer caso el éxito dentro de los grupos es 10 veces mayor que en el otro.41/0. la primera el sexo (hombre o mujer) y la segunda recoge si el individuo es zurdo o diestro.41 2 = 0. Por ejemplo: y Si 1 = 0. se dice que existe asociación entre las dos variables. [editar] Estudio de diferencia de proporciones Hay situaciones en las que tenemos probabilidades de éxito cercanas al cero o del uno en donde las proporciones pueden ser poco ilustrativas sobre el comportamiento dentro de los grupos. puede oscilar entre 0 (que indica que no existe asociación entre las variables) e infinito. Si la proporción de individuos en cada columna varía entre las diversas filas y viceversa.001 d= 1 . habitualmente de naturaleza cualitativa (nominales u ordinales). El grado de asociación entre dos variables se puede evaluar empleando distintos coeficientes: el más simple es el coeficiente phi que se define por = ¥( 2 / N) donde 2 se deriva del test de Pearson. ambas proporciones no son idénticas y la significación estadística de la diferencia entre ellas puede ser evaluada con la prueba ² de Pearson. el coeficiente de Cramer no está acotado.org/wiki/Tabla_de_contingencia En estadística las tablas de contingencia se emplean para registrar y analizar la relación entre dos o más variables.001 = 10 r=0.902 --> la proporción de éxito (diestro) dentro de las mujeres es alrededor de un 10% mayor que dentro del grupo de los hombres. del siguiente modo: Diestro Zurdo TOTAL Hombre 43 9 52 Mujer 44 4 48 TOTAL 87 13 100 Las cifras en la columna de la derecha y en la fila inferior reciben el nombre de frecuencias marginales y la cifra situada en la esquina inferior derecha es el gran total. supuesto que las cifras de la tabla son una muestra aleatoria de una población. La tabla nos permite ver de un vistazo que la proporción de hombres diestros es aproximadamente igual a la proporción de mujeres diestras. Si X e Y independientes -> 1 = 2 con lo que su riesgo relativo es r= 1/ 2 = 1 Ahora bien.009 Vamos a definir el riesgo relativo como r= 1/ 2 Para los ejemplos anteriores: r=0.009 y Si 1 = 0.http://es.2 = 0.wikipedia. ¿cómo estimar r? r' = p1/p2 En el ejemplo de más arriba: r' = (43/52) / (44/48) = 0.01 2 = 0. Si no existe asociación se dice que ambas variables son independientes. Se puede emplear una tabla de contingencia para expresar la relación entre estas dos variables.

Sign up to vote on this title
UsefulNot useful