Coeficiente Phi

Coeficiente phi

http://es.wikipedia.org/wiki/Coeficiente_phi De Wikipedia, la enciclopedia libre Saltar a navegación, búsqueda En estadística, el coeficiente phi o r , también llamado coeficiente de correlación de Mathews es una medida de la asociación entre dos variables binarias. Esta medida es similar al coeficiente de correlación de Pearson en su interpretación. De hecho, un coeficiente de correlación de Pearson estimado para dos variables binarias nos dará el coeficiente phi.[1] El coeficiente phi también relacionado con el estadístico de chi-cuadrado para una tabla de contingencia de a 2×2.[2]

Donde n es el total del número de observaciones. Se considera que dos variables binarias están positivamente asociadas si la mayor parte de los datos caen dentro de las celdas diagonales. Por contra, dos variables binarias se consideran negativamente asociadas si la mayoría de los datos se salen de la diagonal. Si tenemos una tabla de 2×2 para dos variables aleatorias, x e y y = 1 y = 0 total x = 1 n11 x = 0 n01 n10 n00

n total donde n11, n10, n01, n00, son "cuentas no negativas celdad celda" que se suman a n, el número total de observaciones. El coeficiente phi que describe la asociación de x e y es

[editar] Valores máximos Aunque en computación el coeficiente de correlación de Pearson se reduce al coeficiente phi en el caso 2×2, la interpretación del coeficiente de correlación de Pearson y el coeficiente phi se deben tomar con precaución. El coeficiente de correlación de Pearson va desde 1 a +1, donde ±1 concordancia o discordancia perfectas, y el 0 indica ausencia de relación. El coeficiente phi tiene un valor máximo que está determinado por la distribución de dos variables. Si ambas tienen un split 50/50, el rango de phi irá de 1 a +1. Ver Davenport El-Sanhury (1991) para una exhaustiva discusión.[3] [editar] Referencias Guilford, J. (1936). Psychometric Methods. New York: McGraw±Hill Book Company, Inc. 1. 2. Everitt B.S. (2002) The Cambridge Dictionary of Statistics, CUP. ISBN 0-521-81099-X Davenport, E., & El-Sanhury, N. (1991). Phi/Phimax: Review and Synthesis. Educational 3. and Psychological Measurement, 51, 821 828.

que mide el porcentaje de concentración de casos en la diagonal. phi es la raíz cuadrada de chi-cuadrado dividido por n. que algunos paquetes informáticos. lo que le permite indicar relaciones negativas cuando se utiliza con dichotmous datos ordinales. Phi lo que mide la fuerza de la relación definida como el número de casos en una diagonal menos el número en la otra diagonal. Ejemplo. . Para la siguiente tabla phi =. Significado de la asociación: Phi define como asociación perfecta monotonía predictivo (ver la discusión en la sección de la asociación ).google. no existe una interpretación simple e intuitiva.people. Sin embargo. y Parte / Votación Demócrata Votado y Republicano 10 15 y y y y ¿No Votar 5 20 Interpretación: En 2-b-2 tablas. lo que sea menor. phi es idéntico al coeficiente de correlación. No hace ninguna diferencia que es la independiente (columna) variable. phi puede interpretarse en el porcentaje de diferencia simétrica. y define la relación como nula independencia estadística. En las grandes mesas.http://translate. Phi es una medida basada chi-cuadrado de asociación. Filosofía tiende a subestimar las relaciones asimétricas. y con el voto como independiente es de 40%. el tamaño de la muestra. sin embargo. donde k es el número o filas o el número de columnas. Nótese. Cuando phi informática. el ajuste de la distribución marginal de las variables.41. Phi elimina tamaño de la muestra mediante la división de chi-cuadrado por n. y difiere dependiendo del tamaño de la tabla. Phi no varía de 0 a 1.pe/translate?hl=es&langpair=en%7Ces&u=http://www. tenga en cuenta que la corrección de Yates de chi-cuadrado no se utiliza. y tomando la raíz cuadrada. nivel de datos: Phi es utilizado con los datos nominales. Otras características: Phi es muy sensible a los cambios en las distribuciones marginales.1).0. que es una razón por la filosofía se utiliza a menudo sólo para dos-por-2 tablas. Esto significa filosofía puede ser mayor que 1. Para las tablas de más de 2 por 2. SPSS y otros paquetes importantes informe el nivel de significancia del valor de phi computarizada. Phi es la diferencia porcentual media entre el partido y votar con cualquiera de considerarse como causa de la otra. Desde filosofía tiene una distribución de muestreo sabido que es posible calcular su error estándar y el significado.com. Computacionalmente. utilizar fórmulas especiales para phi en 2 por 2 tablas para que phi varía entre -1 y +1.0 para tablas más grandes. phi es 0. Para el ejemplo anterior. los datos pueden ser ordinales. El porcentaje de diferencia con el partido como independiente (columna) es de 42%. 41.vc u.edu/~pdattalo/702SuppRead/MeasAssoc/NominalAssoc. donde phi puede ser mayor que 1. el valor máximo de la filosofía es la raíz cuadrada de (k .html Phi. el tamaño de la muestra: phi = SQRT (X 2 / n). El chi-cuadrado coeficiente depende de la fuerza de la relación y tamaño de la muestra. la filosofía sigue siendo una medida simétrica y la señal puede ser ignorado cuando se utilizan datos nominales dicotómicas. Symmetricalness: Phi es una medida simétrica. aunque por 2 por 2 mesas. También en 2 por 2 mesas. con un máximo teórico de lo infinito. como Systat.

El grado de asociación entre dos variables se puede evaluar empleando distintos coeficientes: el más simple es el coeficiente phi que se define por = ¥( 2 / N) donde 2 se deriva del test de Pearson.41 2 = 0.01 2 = 0. Si X e Y independientes -> 1 = 2 con lo que su riesgo relativo es r= 1/ 2 = 1 Ahora bien. Sin embargo.02 En el primer caso el éxito dentro de los grupos es 10 veces mayor que en el otro. La tabla nos permite ver de un vistazo que la proporción de hombres diestros es aproximadamente igual a la proporción de mujeres diestras. y N es el total de observaciones -el gran total-.2 = 0.wikipedia. Por ejemplo: y Si 1 = 0. el coeficiente de Cramer no está acotado.009 y Si 1 = 0.902 --> la proporción de éxito (diestro) dentro de las mujeres es alrededor de un 10% mayor que dentro del grupo de los hombres.41/0. se dice que existe asociación entre las dos variables.001 d= 1 .009 Vamos a definir el riesgo relativo como r= 1/ 2 Para los ejemplos anteriores: r=0. puede oscilar entre 0 (que indica que no existe asociación entre las variables) e infinito. A diferencia de otras medidas de asociación.001 = 10 r=0.401 d= 1 . supuesto que las cifras de la tabla son una muestra aleatoria de una población. del siguiente modo: Diestro Zurdo TOTAL Hombre 43 9 52 Mujer 44 4 48 TOTAL 87 13 100 Las cifras en la columna de la derecha y en la fila inferior reciben el nombre de frecuencias marginales y la cifra situada en la esquina inferior derecha es el gran total.org/wiki/Tabla_de_contingencia En estadística las tablas de contingencia se emplean para registrar y analizar la relación entre dos o más variables. [editar] Estudio de diferencia de proporciones Hay situaciones en las que tenemos probabilidades de éxito cercanas al cero o del uno en donde las proporciones pueden ser poco ilustrativas sobre el comportamiento dentro de los grupos. .http://es.2 = 0. la primera el sexo (hombre o mujer) y la segunda recoge si el individuo es zurdo o diestro.401 = 1.01/0. Se puede emplear una tabla de contingencia para expresar la relación entre estas dos variables. Si la proporción de individuos en cada columna varía entre las diversas filas y viceversa. habitualmente de naturaleza cualitativa (nominales u ordinales). Se ha observado esta pareja de variables en una muestra aleatoria de 100 individuos. ¿cómo estimar r? r' = p1/p2 En el ejemplo de más arriba: r' = (43/52) / (44/48) = 0. ambas proporciones no son idénticas y la significación estadística de la diferencia entre ellas puede ser evaluada con la prueba ² de Pearson. Si no existe asociación se dice que ambas variables son independientes. Supóngase que se dispone de dos variables.

Sign up to vote on this title
UsefulNot useful