Está en la página 1de 6

PRUEBAS DE COMPARACIÓN

1. Prueba t de student
La T de Student como método estadístico para comparar los resultados de
dos grupos solamente. Es una herramienta sencilla, simple y fácil de
interpretar. Este es un test de mucha confiabilidad y precisión, a pesar de que
requiere, que los datos sean paramétricos, sin embargo, al ser este tan
robusto puede encontrar diferencias estadísticas significativas aun cuando
los datos fueran no normales. Debido a que para calcular la T de Student se
necesita los promedios y la desviación estándar de los grupos, su escala de
medición se encontraría en la escala de razón, es decir la más alta. Por lo
tanto, este test posee una alta confiabilidad y precisión.
Las condiciones que debe cumplir al momento de querer aplicarlo son:
• Los grupos a comparar pueden ser dependientes o independientes.
• Se quiere calcular la media de una población normalmente
distribuida.
•Una muestra pequeña con datos no menores o iguales a n=305, y la
desviación estándar es desconocida.
Cuando se grafican los datos de una T de Student, ellos se parecen a una
curva de distribución normal.

2. Prueba (X2) Chi cuadrada

La X2 es una prueba de libre distribución (no paramétrica) que mide la


discrepancia entre una distribución de frecuencias observadas y esperadas.
Dentro de sus características generales, la prueba X2 toma valores entre
cero e infinito y no tiene valores negativos porque es la suma de valores
elevados al cuadrado.
Existen tres usos relevantes de la prueba X2:
– Prueba de bondad de ajuste (una variable)
– Prueba de independencia (dos variables)
– Prueba de homogeneidad (dos variables)

3. Prueba ANOVA.

ANOVA es el acrónimo de análisis de la varianza. Es una prueba


estadística desarrollada para realizar simultáneamente la comparación de
las medias de más de dos poblaciones. A la asunción de Normalidad debe
añadirse la de la homogeneidad de las varianzas de las poblaciones a
comparar. Esta condición previa de aplicación se verificará
estadísticamente mediante una de las opciones que se encuentran dentro
de la configuración del ANOVA.
Se deberá introducir la variable que se desea analizar (variable
dependiente) así como la variable que define los grupos objeto de
comparación (factor). Si del ANOVA resultase el rechazo de la hipótesis
nula de igualdad de medias, se debe proseguir el análisis con la realización
de los contrastes a posteriori (post hoc).
B) PRUEBAS DE ASOCIACIÓN

1. Coeficiente de correlación de Pearson


El coeficiente de correlación de Pearson es una prueba que mide la relación
estadística entre dos variables continuas. Si la asociación entre los
elementos no es lineal, entonces el coeficiente no se encuentra
representado adecuadamente.

El coeficiente de correlación puede tomar un rango de valores de +1 a -1.


Un valor de 0 indica que no hay asociación entre las dos variables. Un valor
mayor que 0 indica una asociación positiva. Es decir, a medida que
aumenta el valor de una variable, también lo hace el valor de la otra. Un
valor menor que 0 indica una asociación negativa; es decir, a medida que
aumenta el valor de una variable, el valor de la otra disminuye.
Este coeficiente se calcula con los valores observados de parejas de datos
numéricos
(x1,y1),(x2,y2),...,(xi,yi),...,(xn,yn)
de dos variables cuantitativas X, Y evaluadas en un conjunto de n individuos.
Se define como la covarianza muestral entre los componentes tipificados de
las parejas de datos:
rXY=1n−1n∑i=1(xi− ̄xs(x))(yi− ̄ys(y))(1)
en donde s () es la desviación estándar muestral.

2. Coeficiente de correlación de Spearman


El coeficiente de correlación de Spearmanse basa en los rangos r(xi), r(yi) de
los valores xi, yi al ordenar cada muestra por separado.
Una asociación directa perfecta entre X y Y se pone en evidencia cuando los
datos de las muestras aparecen ordenados exactamente de la misma forma.
En este caso, las diferencias di=r (xi) – r (yi) = 0 para i= 1, 2, 3,...,n, y d=∑d2i=
0. En la medida en que d aumente, se debilita esta evidencia.
En el otro extremo, una asociación inversa perfecta se presenta cuando el
ordenamiento de menor a mayor en una de las variables corresponde
exactamente al ordenamiento de mayor a menor en la otra. Entonces, si un
dato x está en la posición i, el dato y correspondiente estará en la posición n
− i + 1; por lo tanto, di=i−(n−i+ 1) = 2i−(n+ 1) y d=∑d2i=n(n2−1)/3.
La ecuación de la recta que pasa por los puntos (d= 0, ρ= 1)(máxima
asociación directa) y
(d=n(n2−1) /3, ρ=−1)
(asociación inversa extrema) arroja la expresión del coeficiente de
correlación de Spearman:
ρ= 1−6∑d2in(n2−1)
Cuando no hay valores iguales, ni entre las x, ni entre las y, como d es un
entero entre 0 y n (n2−1) /3, el número máximo de valores diferentes que
puede tomar ρ es 1 +n (n2−1) /3y, además, coincide con el coeficiente de
correlación de Pearson aplicado a los rangos de los datos.
El punto medio del segmento que une los extremos anteriores corresponde
ad=n(n2−1) /6. Allí ρ= 0, indicando que las evidencias no favorecen ni una
relación directa ni una inversa entre X y Y.
C) MEDIDAS DE CONCORDANCIA

1. Índice de Kappa de Cohen


El índice kappa relaciona el acuerdo que exhiben los observadores, más
allá del debido al azar, con el acuerdo potencial también más allá del azar.
En esencia, el proceso de elaboración del índice es el siguiente: se calcula
la diferencia entre la proporción de acuerdo observado y la proporción de
acuerdo esperado por azar; si ésta es igual a cero, entonces el grado de
acuerdo que se ha observado puede atribuirse enteramente al azar; si la
diferencia es positiva, ello indica que el grado de acuerdo es mayor que el
que cabría esperar si solo estuviera operando el azar y viceversa: en el
caso (ciertamente improbable) en que la diferencia fuera negativa entonces
los datos estarían exhibiendo menos acuerdo que el que se espera solo por
concepto de azar. Kappa es el cociente entre esa cantidad y el acuerdo
máximo que se puede esperar sin intervención del azar. Este índice cumple
las características que debe tener una medida de concordancia según Hirji
y Rosove [1]: primero, cuando los observadores son independientes, toma
el valor 0; en segundo lugar, alcanza el valor máximo de 1 sólo si hay
acuerdo perfecto entre los observadores y, por último, nunca es menor que
–1.
La siguiente pregunta que surge sobre el índice kappa es: ¿qué valor de
kappa se puede considerar como indicador de buena concordancia? No hay
una respuesta exacta; lo que se considera adecuado o no, depende del
problema que se esté estudiando. No se espera la misma concordancia
entre psiquiatras o psicólogos, entre cuyos pacientes muchas veces es
difícil objetivar síntomas, que entre radiólogos de un programa de detección
precoz de cáncer de mama, entre los que el grado de acuerdo debería ser
elevado. Landis y Koch propusieron en 1977 [2] una escala de
interpretación del valor de kappa que considera como aceptable un valor
mayor o igual a 0,40 y excelentes los valores superiores a 0,75. Kappa
mínimo y máximo. El valor máximo de kappa, 1, se da si hay total
coincidencia entre los observadores; es decir, se produce cuando el
acuerdo observado es de 100% y sólo en esta situación. Sin embargo,
puede darse el caso de que el acuerdo observado sea alto y, en cambio, se
obtenga un valor de kappa próximo a cero. Suponga tres situaciones en las
que el acuerdo observado es del 90%:
2. Kappa ponderada

Una solución que puede verse como intermedia entre las anteriores (un
único kappa global o K kappas individuales para cada categoría), pero que,
en general, sólo tiene sentido para variables ordinales, es el denominado
kappa ponderado, también propuesto por Cohen, en el cual se asignan
unos pesos para cuantificar la importancia relativa entre los desacuerdos.
Pensando en el ejemplo anterior, no tiene la misma importancia un
desacuerdo en la clasificación entre las categorías leve y moderada que
entre leve y grave, obviamente la última representa un mayor desacuerdo
que la primera.

La idea de este índice ponderado es asignar a cada celda de la tabla un


peso wij comprendido entre 0 y 1 que represente la importancia del
desacuerdo. Dando el máximo peso al acuerdo perfecto, y pesos
proporcionalmente menores según la importancia del desacuerdo

además, obviamente wij = wji.


Las proporciones ponderadas de acuerdos observados y esperados se
definen
y a partir de aquí, el kappa ponderado

Nótese que, en el caso extremo, si se definen los pesos como

el kappa ponderado coincide con el kappa global.


La principal ventaja del kappa ponderado reside en la posibilidad de
cuantificar diferentes grados de desacuerdo. Los valores de los pesos
dependerán, en cada caso, de la importancia que se conceda a cada
desacuerdo, hay que tener presente, sin embargo, que ello añade cierta
dificultad a su interpretación: si en dos estudios diferentes, se calcula el
kappa ponderado con dos sistemas de pesos distintos, es difícil realizar
comparaciones entre ellos. Los más usados en este sentido son, por su
sencillez, los denominados pesos lineales, propuestos inicialmente por
Cohen

REFERENCIAS
 Cascante Calderón, M. ., & Villacís Altamirano, I. (2022). Prueba T de
Student para una investigación odontológica. Odontología Activa Revista
Científica, 7(1), 49–54. https://doi.org/10.31984/oactiva.v7i1.562
 Mendivelso, F., & Rodríguez, M. (2018). Prueba Chi-Cuadrado de
independencia aplicada a tablas 2xN. Revista Médica Sanitas, 21(2), 92-95.
 Hurtado, M. J. R., & Silvente, V. B. (2012). Cómo aplicar las pruebas
paramétricas bivariadas t de Student y ANOVA en SPSS. Caso práctico.
Reire, 5(2), 83-100.
 Ortiz Pinilla, J., & Ortiz Rico, A. F. (2021). ¿Pearson y Spearman,
coeficientes intercambiables?. Comunicaciones En Estadística, 14(1), 53–
63. https://doi.org/10.15332/23393076.6769
 Restrepo B, Luis F, & González L, Julián. (2007). De Pearson a Spearman.
Revista Colombiana de Ciencias Pecuarias, 20(2), 183-192. Retrieved
November 16, 2022, from
http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S0120-
06902007000200010&lng=en&tlng=es.
 S/A. (2014). CONCORDANCIA Y CONSISTENCIA. EPIDAT 4. PAGD 4-6
https://www.sergas.es/Saude-
publica/Documents/1894/Ayuda_Epidat4_Concordancia_y_consistencia_Oc
tubre2014.pdf

También podría gustarte