Está en la página 1de 12

Introducción

La estadística es una disciplina fundamental en el análisis y la interpretación de datos en

diversas áreas del conocimiento. Proporciona herramientas y métodos para recopilar,

organizar, resumir y analizar información numérica, lo que nos permite extraer

conclusiones significativas y tomar decisiones informadas.

En este contexto, los datos estadísticos desempeñan un papel crucial. Representan

valores numéricos que se obtienen a partir de mediciones o recopilación de información

en una muestra o población. Estos datos pueden presentarse en forma de números,

tablas, gráficos u otras representaciones visuales.

El proceso de obtener datos estadísticos se basa en la selección de una muestra

representativa de la población de interés. El muestreo es una técnica utilizada para

seleccionar una muestra que sea representativa y que permita generalizar los resultados

obtenidos al conjunto más amplio de la población. Existen diferentes métodos de

muestreo, como el muestreo aleatorio simple, estratificado, por conglomerados, entre

otros.

Una vez obtenidos los datos, es necesario analizarlos para sacar conclusiones. Aquí es

donde entran en juego diferentes pruebas y técnicas estadísticas, como el chi cuadrado,

la prueba T de Student, el coeficiente alfa de Cronbach y el coeficiente alfa de Fisher.

El chi cuadrado es una prueba estadística utilizada para determinar si existe una

asociación significativa entre dos variables categóricas. Permite evaluar si las

diferencias observadas entre las frecuencias observadas y las esperadas se deben al azar

o a una relación real.


La prueba T de Student es una herramienta ampliamente utilizada para comparar las

medias de dos grupos y determinar si existen diferencias significativas entre ellos. Se

aplica cuando los datos siguen una distribución normal y se desconoce la desviación

estándar de la población.

El coeficiente alfa de Cronbach es una medida de confiabilidad o consistencia interna

utilizada en la psicometría. Se aplica para evaluar la consistencia de un conjunto de

ítems o preguntas en una escala de medición. Cuanto más cercano a 1 sea el coeficiente

alfa de Cronbach, mayor será la confiabilidad de la escala.

Por último, el coeficiente alfa de Fisher es una medida de confiabilidad utilizada en el

análisis factorial. Evalúa la consistencia interna de un conjunto de variables o ítems en

un análisis de componentes principales. Valores más cercanos a 1 indican una mayor

consistencia interna

Prueba Estadística Chi Cuadrado

La prueba de chi-cuadrado es un método estadístico utilizado para determinar si existe

una diferencia significativa entre las frecuencias esperadas y las frecuencias observadas

en una o más categorías. Se usa comúnmente para analizar datos categóricos y para

probar hipótesis en varios campos como la biología, la sociología, la economía y la

psicología.

La prueba de chi-cuadrado consiste en calcular la suma de las diferencias al cuadrado

entre las frecuencias observadas y esperadas, dividida por las frecuencias esperadas. El

valor resultante se compara con un valor crítico de una distribución de chi-cuadrado con

grados de libertad iguales al número de categorías menos uno. Si el valor calculado


excede el valor crítico, entonces hay evidencia para rechazar la hipótesis nula de que no

hay una diferencia significativa entre las frecuencias observadas y esperadas.

Figura 1

Formula de Chi Cuadrado o de Karl Pearson

Fuente: (Romero, 2011)

Oi: Frecuencias observadas. Es el número de casos observados clasificados en una

determina celda de la tabla de contingencia.

Ei: Frecuencias esperadas o teóricas. Es el número de casos esperados correspondientes

a cada celda de la tabla de contingencia. Se puede definir como aquella frecuencia que

se observaría si ambas variables fuesen independientes.

Como en cualquier prueba de contraste estadístico, se intenta rechazar la hipótesis nula

y aceptar en consecuencia, la hipótesis alternativa. La hipótesis nula se corresponde con

la independencia de las variables, o lo que es lo mismo, que las diferencias entre las

frecuencias observadas y esperadas son muy pequeñas, y en consecuencia, el estadístico

chicuadrado también obtendrá un valor muy pequeño.

Al contrario, cuando el valor de chi-cuadrado sea muy grande, pensaremos que las

diferencias entre nuestros valores observados en el estudio y los esperados teóricamente


son tan grandes que el azar no podría explicarlas, y por tanto, rechazaremos la hipótesis

nula y aceptaremos la

Existen dos consideraciones especiales en la aplicación de la prueba chi-cuadrado

cuando el tamaño muestral es pequeño, y se puedan encontrar celdas con frecuencias

esperadas cuyo valor sea inferior a 5.

a) Si al menos el 25% de las frecuencias esperadas es inferior a 5 pero superior a 3, se

ha de emplear la prueba chi-cuadrado aplicando la corrección Yates.

b) Por el contrario, si al menos el 25% de las frecuencias esperadas es inferior a 3, se ha

de emplear el test exacto de Fisher como alternativa a la prueba chi-cuadrado.

alternativa.

La prueba de chi-cuadrado tiene algunas limitaciones, como su sensibilidad al tamaño

de la muestra y los supuestos de independencia entre categorías. Por lo tanto, es

importante considerar cuidadosamente estos factores al interpretar los resultados de una

prueba de chi-cuadrado.

Ejemplo de Aplicación

En una fábrica se producen piezas para repuestos en tres turnos distintos: mañana,

tarde y noche. Las piezas pueden resultar de calidad excelente, buena o mediocre.

Los resultados de un día de trabajo se muestran a continuación

MAÑANA TARDE NOCHE TOTALES

EXCELENTES 65 68 62 195

BUENOS/ 35 32 38 105
MEDIOCRES

TOTALES 100 100 100 3000

Conclusión

Dado que X 2prueba = 0,791 < X 2tabla = 5,991 se acepta la hipótesis a hipótesis nula, es decir,

existe evidencia para afirmar que la calidad de la pieza fabricada es independiente del

turno

Dado que p >0, 05 se acepta la hipótesis nula, es decir, existe evidencia para afirmar que

la calidad de la pieza fabricada es independiente del turno

T de student
La prueba de T de Student, también conocida como la prueba t de Student o

simplemente t-test, es una técnica estadística utilizada para determinar si hay una

diferencia significativa entre las medias de dos grupos independientes de datos. (ROSS,

2018)Fue desarrollada por el estadístico británico William Sealy Gosset, quien publicó

su trabajo bajo el seudónimo de "Student" debido a las restricciones de confidencialidad

de la empresa cervecera en la que trabajaba.


La prueba de T de Student se basa en la distribución t de Student, que es una

distribución de probabilidad utilizada cuando el tamaño de la muestra es pequeño y la

varianza poblacional es desconocida. Esta distribución tiene forma de campana y se

caracteriza por tener colas más gruesas que la distribución normal estándar.

Para realizar la prueba de T de Student, se deben seguir los siguientes pasos:

 Plantear las hipótesis nula (H0) y alternativa (H1): La hipótesis nula establece

que no hay diferencia significativa entre las medias de los dos grupos, mientras

que la hipótesis alternativa sugiere que sí hay una diferencia significativa.

 Seleccionar un nivel de significancia (alfa): El nivel de significancia es la

probabilidad aceptable de cometer un error tipo I, es decir, rechazar

incorrectamente la hipótesis nula. Un nivel de significancia comúnmente

utilizado es 0.05.

 Calcular la estadística de prueba: La estadística de prueba es el valor t calculado

a partir de los datos. Se utiliza una fórmula que tiene en cuenta las medias, las

desviaciones estándar y el tamaño de las muestras de ambos grupos.

 Comparar la estadística de prueba con el valor crítico: El valor crítico se obtiene

a partir de la distribución t de Student y depende del nivel de significancia y del

número de grados de libertad. Si la estadística de prueba es mayor que el valor

crítico, se rechaza la hipótesis nula.

 Interpretar los resultados: Si se rechaza la hipótesis nula, se concluye que hay

una diferencia significativa entre las medias de los dos grupos. De lo contrario,

no se encuentra evidencia suficiente para afirmar que exista una diferencia

significativa. (Parra, 2011)

Ejemplo
Supongamos que un investigador quiere determinar si hay una diferencia significativa

en la altura promedio entre hombres y mujeres en una población. Para ello, recopila una

muestra aleatoria de 50 hombres y 50 mujeres y registra sus alturas en centímetros.

El investigador plantea las hipótesis nula (H0) y alternativa (H1) de la siguiente manera:

H0: No hay diferencia significativa en la altura promedio entre hombres y mujeres

(μhombres = μmujeres).

H1: Existe una diferencia significativa en la altura promedio entre hombres y mujeres

(μhombres ≠ μmujeres).

Luego, selecciona un nivel de significancia de 0.05.

A continuación, el investigador realiza la prueba de T de Student para determinar si

rechaza o no la hipótesis nula. Calcula la estadística de prueba utilizando los datos de

las muestras y realiza los cálculos necesarios. Supongamos que obtiene una estadística

de prueba de t = 2.35.

Comparando la estadística de prueba con el valor crítico obtenido de la tabla de la

distribución t de Student para un nivel de significancia de 0.05 y 98 grados de libertad

(50 + 50 - 2), encuentra que el valor crítico es aproximadamente 1.984.

Como la estadística de prueba (t = 2.35) es mayor que el valor crítico (1.984), el

investigador rechaza la hipótesis nula. Esto significa que hay una diferencia

significativa en la altura promedio entre hombres y mujeres en la población estudiada.

En la presentación de los resultados, el investigador puede concluir que, según los datos

analizados, hay evidencia estadística para afirmar que existe una diferencia significativa

en la altura promedio entre hombres y mujeres en la población estudiada. Esto podría


tener implicaciones importantes en diferentes áreas, como la medicina, la ergonomía o

la moda.

Es importante mencionar que este ejemplo es hipotético y los resultados pueden variar

en diferentes estudios reales. Además, es fundamental realizar un análisis adecuado de

los supuestos y condiciones necesarios para aplicar correctamente la prueba de T de

Student.

ALFA DE CRONBACH
Validación del instrumento de recolección de datos
DEFINICIÓN:
Se trata de un índice de consistencia interna que toma valores entre 0 y 1 y que sirve
para comprobar si el instrumento que se está evaluando recopila información defectuosa
y por tanto nos llevaría a conclusiones equivocadas o si se trata de un instrumento fiable
que hace mediciones estables y consistentes.

Alfa es por tanto un coeficiente de correlación al cuadrado que, a grandes rasgos, mide
la homogeneidad de las preguntas promediando todas las correlaciones entre todos los
ítems para ver que, efectivamente, se parecen.

Su interpretación será que, cuanto más se acerque el índice al extremo 1, mejor es la


fiabilidad, considerando una fiabilidad respetable a partir de 0,80. (Vega, 2018)

SU FÓRMULA ESTADÍSTICA ES LA SIGUIENTE:


K: El número de ítems
Si^2: Sumatoria de Varianzas de los Items
ST^2: Varianza de la suma de los Items
α: Coeficiente de Alfa de Cronbach
EJEMPLO
Itms I II III Suma de ítems
Sujetos
Campos (1) 3 5 5 13
Gomes (2) 5 4 5 14
Linares (3) 4 4 5 13
Rodas (4) 4 5 3 12
Saaedra (5) 1 2 2 5
Tafur (6) 4 3 3 10

VARP 1.58 1.14 1.47 ST 2 : 9.14


(variación de la ∑ S2 4.19
población)

K: El número de ítems: 3
Si^2: Sumatoria de Varianzas de los Ítems: 4.19
ST^2: Varianza de la suma de los Ítems: 9.14
a : Coeficiente de Alfa de Cron Bach

3 4.19
α= [1− ]
3−1 9.14
α =0.81

Entre más cerca de 1 está α, más alto es el grado de confiabilidad

ALFA DE FISHER:

El Alfa de Fisher, también conocido como valor F de Fisher o estadístico F, es una


medida estadística utilizada en el análisis de varianza (ANOVA) para evaluar la
significancia de las diferencias entre las medias de varios grupos. Es una herramienta
útil para determinar si las diferencias observadas entre los grupos son estadísticamente
significativas o simplemente debido al azar (Howell, 2018).
El Alfa de Fisher se calcula como la razón entre la varianza entre grupos y la varianza
dentro de los grupos. Se obtiene al dividir la suma de las diferencias al cuadrado entre
las medias de los grupos por el número de grupos menos 1, y luego dividirlo por la
suma de las varianzas dentro de los grupos dividida por el número total de
observaciones menos el número de grupos. Si el valor de Alfa de Fisher es mayor que el
valor crítico correspondiente de la distribución F, se rechaza la hipótesis nula y se
concluye que hay diferencias significativas entre al menos dos de los grupos (Field,
2013).

Ejemplo del Alfa de Fisher:

Supongamos que deseamos comparar el rendimiento académico de tres grupos de


estudiantes: Grupo A, Grupo B y Grupo C. Se recolectaron las siguientes calificaciones:

Grupo A: 85, 80, 90, 92, 88

Grupo B: 75, 78, 80, 82, 85

Grupo C: 92, 95, 88, 90, 85

Para calcular el Alfa de Fisher, primero calculamos la varianza entre los grupos.
Sumamos las diferencias al cuadrado entre las medias de los grupos y las multiplicamos
por el número de observaciones en cada grupo menos 1. Luego dividimos esta suma por
el número total de grupos menos 1.

Varianza Entre Grupos = {[(Media Grupo A - Media General)^2 * (Número de


Observaciones Grupo A - 1)] + [(Media Grupo B - Media General)^2 * (Número de
Observaciones Grupo B - 1)] + [(Media Grupo C - Media General)^2 * (Número de
Observaciones Grupo C - 1)]} / (Número de Grupos - 1)

Luego, calculamos la varianza dentro de los grupos sumando las varianzas de cada
grupo ponderadas por el número de observaciones en cada grupo, y dividimos esta suma
por el número total de observaciones menos el número de grupos.

Varianza Dentro de los Grupos = {[Varianza Grupo A * (Número de Observaciones


Grupo A - 1)] + [Varianza Grupo B * (Número de Observaciones Grupo B - 1)] +
[Varianza Grupo C * (Número de Observaciones Grupo C - 1)]} / (Número Total de
Observaciones - Número de Grupos)
Finalmente, calculamos el valor del Alfa de Fisher dividiendo la varianza entre grupos
por la varianza dentro de los grupos.

Alfa de Fisher = Varianza Entre Grupos / Varianza Dentro de los Grupos

Si el valor de Alfa de Fisher es mayor que el valor crítico correspondiente de la


distribución F para un nivel de significancia dado, se concluye que hay diferencias
significativas entre al menos dos de los grupos.

Bibliografía

Pita Fernández, S., Pértega Díaz, S. Asociación de variables cualitativas: test de Chi-

cuadrado. Fisterra.www.fisterra.com

Prueba de chi-cuadrado (χ2): qué es y cómo se usa en estadística. (2019, 14 mayo).

https://psicologiaymente.com/miscelanea/prueba-chi-cuadrado

Narváez, M. (2023). Prueba de chi-cuadrado: ¿Qué es y cómo se realiza? QuestionPro.

https://www.questionpro.com/blog/es/prueba-de-chi-cuadrado-de-pearson/

Parra, P. F. (2011). Obtenido de https://009ef7d0-a-62cb3a1a-s-

sites.googlegroups.com/site/controlesudec/estadistica/Syllabus%20Asignatura

%20-%20523210.pdf?

attachauth=ANoY7co0H5MIFvapQPT5Vd4K_GEM9wur1B0OeFe2RFWA5U7

KlqJOC2NnI2mLR0PybmJKlOAGsJXxbANoEMbz67zv4JxzuZOY6JWN2sM

K-qo2LfrrWJAqaUO1P
Vega, J. B. (3 de mayo de 2018). Search Mediun. Obtenido de Alfa de Cronbach —

Psicometría con R: https://medium.com/@jboscomendoza/alfa-de-cronbach-

psicometr%C3%ADa-con-r-55d3154806cf

Field, A. (2013). Discovering Statistics Using IBM SPSS Statistics (4th ed.). Sage.

Howell, D. C. (2018). Statistical Methods for Psychology (8th ed.). Cengage Learning

También podría gustarte